JP2008171401A - Information storage medium, program, information reproducing method, and information transfer device - Google Patents
Information storage medium, program, information reproducing method, and information transfer device Download PDFInfo
- Publication number
- JP2008171401A JP2008171401A JP2007306898A JP2007306898A JP2008171401A JP 2008171401 A JP2008171401 A JP 2008171401A JP 2007306898 A JP2007306898 A JP 2007306898A JP 2007306898 A JP2007306898 A JP 2007306898A JP 2008171401 A JP2008171401 A JP 2008171401A
- Authority
- JP
- Japan
- Prior art keywords
- information
- video
- advanced
- title
- data
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Withdrawn
Links
Images
Landscapes
- Television Signal Processing For Recording (AREA)
- Two-Way Televisions, Distribution Of Moving Picture Or The Like (AREA)
- Signal Processing For Digital Recording And Reproducing (AREA)
- Management Or Editing Of Information On Record Carriers (AREA)
- Information Retrieval, Db Structures And Fs Structures Therefor (AREA)
Abstract
Description
本発明は、光ディスクなどの情報記憶媒体、並びに記録や再生などに使用する情報を扱う情報記憶媒体、プログラム、情報再生方法、及び情報転送装置に関する。 The present invention relates to an information storage medium such as an optical disk, and an information storage medium, a program, an information reproduction method, and an information transfer apparatus that handle information used for recording and reproduction.
近年、高画質・高機能を有するDVDビデオ・ディスク及びそのディスクを再生するビデオ・プレーヤの普及が進み、そのマルチチャネル・オーディオを再生する周辺機器等も選択の幅が広がってきている。そして、コンテンツ利用者(ユーザ)にとっては、ホームシアターを身近に実現でき、高画質・高音質の映画やアニメーション等を家庭で自在に視聴し得る環境が整えられつつある。 In recent years, DVD video discs having high image quality and high functions and video players for reproducing the discs have been widely used, and peripheral devices for reproducing the multi-channel audio have been selected. For content users (users), a home theater can be realized at hand, and an environment in which movies and animations with high image quality and high sound quality can be freely viewed at home is being prepared.
また、ネットワークを利用することにより、ネットワーク上のサーバから画像情報を取得してそれをユーザ側の機器にて再生・表示するも容易に行われるようになってきた。例えば、特許文献1には、インターネットのホームページを介して広告受給を希望するユーザの機器に情報を供給し、ユーザの機器にて情報の表示を行うことが開示されている。
しかしながら、上記文献にも示されているように現行のインターネット上のホームページは“静的な画面”がほとんどで、アニメーションや一部動画がホームページ上で表示できるとしても、前記アニメーションや動画の表示開始/表示終了のタイミングや動画/アニメーションの切り替わりタイミングが複雑にプログラミングされた多彩な表現の実現が非常に難しい。 However, as shown in the above document, most of the current homepages on the Internet are “static screens”, and even if animations and some videos can be displayed on the homepage, the animation and video display starts. It is very difficult to realize a variety of expressions that are programmed with complicated display timings / video / animation switching timings.
また、動画をホームページ上に表現できたとしてもユーザのネットワーク環境(ネットワークスループット値)に依っては表示される動画が途中で途切れる(再生が停止する)場合が多い。 Even if the moving image can be expressed on the home page, the displayed moving image is often interrupted (reproduction stops) depending on the user's network environment (network throughput value).
本発明は上記実情に鑑みてなされたものであり、複数の動画像を同時にしかも途中で途切れることなく表示できるようにし、表示における表現力の飛躍的な向上を可能とする情報記憶媒体、プログラム、情報再生方法、及び情報転送装置を提供することを目的とする。 The present invention has been made in view of the above circumstances, and an information storage medium, a program, and a program that can display a plurality of moving images at the same time without interruption in the middle, and that can dramatically improve the expressive power in display, An object is to provide an information reproducing method and an information transfer apparatus.
本発明に係る情報記憶媒体は、データキャッシュに記憶可能なデータユニットであるリソースが元々記憶されている場所をURI(Uniform Resource Identifier)で示す情報と、前記リソースのローディングをいつ開始すべきかを示す情報と、前記リソースに相当するネットワークコンテンツのソースを記述した情報と、前記リソースに相当する前記ネットワークコンテンツを使用する際のネットワークスループットの最小値を記述した情報とを有するプレイリストが記録されていることを特徴とする。 An information storage medium according to the present invention shows information indicating a location where a resource, which is a data unit that can be stored in a data cache, is originally stored by a URI (Uniform Resource Identifier), and when to start loading the resource. A playlist having information, information describing a source of network content corresponding to the resource, and information describing a minimum value of network throughput when using the network content corresponding to the resource is recorded. It is characterized by that.
本発明に係るプログラムは、XMLで記述されているプレイリストであって、データキャッシュに記憶可能なデータユニットであるリソースが元々記憶されている場所をURI(Uniform Resource Identifier)で示す情報と、前記リソースのローディングをいつ開始すべきかを示す情報と、前記リソースに相当するネットワークコンテンツのソースを記述した情報と、前記リソースに相当する前記ネットワークコンテンツを使用する際のネットワークスループットの最小値を記述した情報と、を有するプレイリストを読み出す機能と、前記プレイリストの内容を解析する機能とをコンピュータに実現させることを特徴とする。 The program according to the present invention is a playlist described in XML, and information indicating a location where a resource, which is a data unit that can be stored in a data cache, is originally stored by a URI (Uniform Resource Identifier), Information indicating when to start loading resources, information describing a source of network content corresponding to the resource, and information describing a minimum value of network throughput when using the network content corresponding to the resource And a function of reading a playlist having the above and a function of analyzing the contents of the playlist.
本発明に係る情報再生方法は、XMLで記述されているプレイリストであって、データキャッシュに記憶可能なデータユニットであるリソースが元々記憶されている場所をURI(Uniform Resource Identifier)で示す情報と、前記リソースのローディングをいつ開始すべきかを示す情報と、前記リソースに相当するネットワークコンテンツのソースを記述した情報と、前記リソースに相当する前記ネットワークコンテンツを使用する際のネットワークスループットの最小値を記述した情報と、を有するプレイリストをパーサーにより読み出し、前記プレイリストの内容をパーサーにより解析することを特徴とする。 An information reproduction method according to the present invention is a playlist described in XML, and information indicating a location where a resource, which is a data unit that can be stored in a data cache, is originally stored by a URI (Uniform Resource Identifier) , Information indicating when to start loading the resource, information describing a source of network content corresponding to the resource, and minimum network throughput when using the network content corresponding to the resource The playlist having the above information is read by a parser, and the contents of the playlist are analyzed by the parser.
本発明に係る情報転送装置は、データキャッシュに記憶可能なデータユニットであるリソースが元々記憶されている場所をURI(Uniform Resource Identifier)で示す情報と、前記リソースのローディングをいつ開始すべきかを示す情報と、前記リソースに相当するネットワークコンテンツのソースを記述した情報と、前記リソースに相当する前記ネットワークコンテンツを使用する際のネットワークスループットの最小値を記述した情報と、を有するプレイリストを情報機器がデータキャッシュもしくは記憶部にダウンロードすることを可能にする手段と、前記情報機器におけるネットワークスループットの設定に応じて選択されるリソースを前記情報機器がダウンロードすることを可能にする手段とを具備することを特徴とする。 The information transfer apparatus according to the present invention shows information indicating a location where a resource, which is a data unit that can be stored in a data cache, is originally stored by a URI (Uniform Resource Identifier), and when to start loading the resource. An information device has a playlist including information, information describing a source of network content corresponding to the resource, and information describing a minimum value of network throughput when using the network content corresponding to the resource. Means for enabling downloading to a data cache or storage unit, and means for enabling the information device to download a resource selected in accordance with a network throughput setting in the information device. Features.
本発明によれば、複数の動画像を同時にしかも途中で途切れることなく表示でき、表示における表現力の飛躍的な向上が可能となる。 According to the present invention, it is possible to display a plurality of moving images simultaneously and without interruption in the middle, and it is possible to dramatically improve the expressive power in display.
まず、本発明の実施形態を詳細に説明する前に、当該実施形態の技術的特徴を以下に示す。これらの技術的特徴は、図3などに示した内容に基づいている。 First, before describing an embodiment of the present invention in detail, technical features of the embodiment will be described below. These technical features are based on the contents shown in FIG.
* 再生・表示手順を示す管理情報を読み込み、前記管理情報の内容に基づき所定のタイミングに合わせて所定の保存場所から必要なコンテンツを事前にデータ転送し、さらに前記管理情報の内容に基づき指定されたタイミングで前記コンテンツの再生・表示を行うことを特徴とするデータ処理方法またはデータ転送方法、プログラム構造、情報再生方法、情報再生装置あるいは前記管理情報が記録されている情報記憶媒体
* 再生・表示手順を示す管理情報を読み込み、前記管理情報内で指定されたコンテンツを元々の保存場所から別の保存場所へデータ転送し、さらに前記データ転送後の保存場所情報に基づき前記管理情報の内容を更新し、更新後の前記管理情報の記録処理を行うことを特徴とする記録方法または情報記録再生装置
* 所定の保存場所から必要なコンテンツを事前にデータ転送するために必要な情報と、さらに前記情報に基付いて行われるデータ転送の後に前記コンテンツを再生・表示するための再生・表示手順の情報とを含む管理情報を編集し、編集後の前記管理情報の記録処理を行うことを特徴とする記録方法または情報記録再生装置
* 管理情報の解読とそれに基づく処理を行うナビゲーションマネージャとリソースの再生・表示前に前記リソースを一時保存するデータキャッシュと前記リソースを再生・表示するプレゼンテーションエンジンとを具備した情報再生装置により再生が可能であり、
前記データキャッシュ内に一時保存する前記リソースの元々の保存場所とリソース名情報と
前記データキャッシュへの一時保存を開始するタイミング情報と
前記データキャッシュ内に一時保存された前記リソースを用いた表示タイミング情報と
前記データキャッシュ内に一時保存された前記リソースを表示する場合の画面上の表示場所情報と表示サイズ情報が含まれると共に、
前記データキャッシュ内に一時保存する前記リソースの元々の保存場所がネットワークサーバ上に有る場合には、前記情報再生装置のネットワーク環境に対応したネットワークスループットに対応して前記データキャッシュ内に一時保存する前記リソースを選択するために利用可能な情報が含まれた管理情報が記録されていることを特徴とする情報記憶媒体
に有る。
* Read management information indicating the playback / display procedure, transfer the necessary content from a predetermined storage location in advance according to the content of the management information in accordance with the predetermined timing, and specify it based on the content of the management information. A data processing method or a data transfer method, a program structure, an information reproduction method, an information reproduction device, or an information storage medium in which the management information is recorded. Read the management information indicating the procedure, transfer the data specified in the management information from the original storage location to another storage location, and update the content of the management information based on the storage location information after the data transfer And a recording method or an information recording / reproducing apparatus characterized by performing a process of recording the management information after the update. Information necessary for data transfer in advance of necessary content from the storage location, and information on reproduction / display procedures for reproducing / displaying the content after data transfer performed based on the information are included. Recording method or information recording / reproducing apparatus characterized in that the management information is edited and the management information is recorded after editing. Navigation manager for decoding management information and processing based on the information, and before reproducing and displaying resources It can be played back by an information playback device comprising a data cache for temporarily storing the resource and a presentation engine for playing back and displaying the resource,
The original storage location and resource name information of the resource temporarily stored in the data cache, timing information for starting temporary storage in the data cache, and display timing information using the resource temporarily stored in the data cache And display location information and display size information on the screen when displaying the resource temporarily stored in the data cache,
When the original storage location of the resource to be temporarily stored in the data cache is on a network server, the resource is temporarily stored in the data cache corresponding to the network throughput corresponding to the network environment of the information reproducing apparatus. The information storage medium is characterized in that management information including information that can be used for selecting a resource is recorded.
以下に本実施形態の詳細な説明を行う。 A detailed description of this embodiment will be given below.
<システム構成>
図1は、本発明の一実施形態に係るシステムの構成を示す図である。
本システムは、パーソナルコンピュータ(PC)又はレコーダ又はプレーヤとして実現される情報記録再生装置(又は情報再生装置)1と、情報記録再生装置1に対して挿脱可能な光ディスクとして実現される情報記憶媒体DISCと、情報記憶媒体DISCに記憶された情報やパーシステントストレージPRSTRに記憶された情報やネットワークサーバNTSRVからルータ11を経由して得られた情報などを表示するディスプレイ13と、情報記録再生装置1に対して入力操作を行うためのキーボード14と、ネットワークを通じて情報を提供するネットワークサーバNTSRVと、光ケーブル12を通じてネットワークサーバNTSRVから提供される情報を無線データ17の形で情報記録再生装置1へ送信するルータ11と、情報記録再生装置1から無線データとして送信される画像情報を表示する大画面テレビモニタ15と、情報記録再生装置1から無線データとして送信される音声情報を出力するスピーカ16−1,16−2とを備えている。
<System configuration>
FIG. 1 is a diagram showing a configuration of a system according to an embodiment of the present invention.
This system includes an information recording / reproducing apparatus (or information reproducing apparatus) 1 realized as a personal computer (PC), a recorder or a player, and an information storage medium realized as an optical disk detachable from the information recording / reproducing
前記情報記録再生装置1は、情報記憶媒体DISCに対する情報の記録/再生を行う情報記録再生部2と、固定形ストレージ(フラッシュメモリなど)やリムーバブルストレージ(SD(Secure Digital)カード、USB(Universal Serial Bus)メモリ、可搬形HDD(Hard Disk Drive)など)を含むパーシステントストレージPRSTRを駆動するパーシステントストレージドライブ3と、ハードディスク装置6に対する情報の録画/再生を行う録画再生処理部4と、情報記録再生装置1全体の制御を司るメインCPU(Central Processing Unit)5と、情報を記憶するためのハードディスクを有するハードディスク装置6と、無線LAN(Local Area Network)に基づく無線通信を行う無線LAN制御部7−1と、後述するスタンダードコンテンツSTDCTの再生を行うスタンダードコンテンツ再生部STDPLと、後述するアドバンストコンテンツADVCTの再生を行うアドバンストコンテンツ再生部ADVPLとを備えている。
The information recording / reproducing
前記ルータ11は、情報記録再生装置1との間で無線LANに基づく無線通信を行う無線LAN制御部7−2と、ネットワークサーバNTSRVとの間の光通信を制御するネットワーク制御部8と、データの転送処理を制御するデータマネージャ9とを備えている。
The
前記大画面テレビモニタ15は、情報記録再生装置1との間で無線LANに基づく無線通信を行う無線LAN制御部7−3と、無線LAN制御部7−3により受信される情報から映像を生成する映像処理部24と、映像処理部24により生成された映像を大画面テレビモニタ15へ表示する映像表示部21とを備えている。
なお、図1に示されるシステムに関する詳細な機能や動作については後で説明する。
The large-
Detailed functions and operations related to the system shown in FIG. 1 will be described later.
<解決方法と効果>
現行DVD-Videoに対する次世代規格へのユーザ要求とそれに関係した現行DVD-Video規格を拡張した場合の問題点、及び本実施形態における解決方法とその結果得られる新たな効果について図2を用いて説明を行う。現世代DVD-Video規格に対して、ユーザが求める要求機能は大きく分けて下記の3種類存在する。
<Solution and effect>
FIG. 2 shows the user requirements for the next-generation standard for the current DVD-Video and the related problems when the current DVD-Video standard is extended, the solution in this embodiment, and the new effect obtained as a result. Give an explanation. For the current generation DVD-Video standard, there are the following three types of required functions required by users.
1.柔軟かつ多様な表現力(現行パーソナルコンピュータの画面表示に近い表現力を確保する)
2.ネットワークアクション
3.映像関連情報の加工容易性と加工後情報の送信容易性
前記最初に示した“1.柔軟かつ多様な表現力”の要求機能を現行DVD-Video規格の小変更で実現しようとした場合、余りにもユーザ要求が多種多様なためカスタムメイド的な現行DVD-Video規格内のデータ構造の小変更だけでは対応しきれない。という問題点が生じる。前記問題点を解決するための技術的工夫内容として、本実施形態では汎用性を持ったPC世界での表現形式を採用するとともに新たにタイムラインの概念を導入する。その結果、本実施形態により下記の新たな効果を実現することができる。
1. Flexible and diverse expressive power (to ensure expressive power close to the screen display of current personal computers)
2. Network action Ease of processing video-related information and ease of sending post-processing information If you try to implement the required function of “1. Flexible and diverse expressiveness” described above with small changes to the current DVD-Video standard, it is too However, due to the wide variety of user requirements, it is not possible to cope with only a small change in the data structure within the current custom DVD-Video standard. The problem arises. As technical contrivances for solving the above problems, the present embodiment adopts a versatile representation format in the PC world and introduces a new concept of timeline. As a result, the following new effects can be realized by this embodiment.
1〕 ユーザアクションに対する柔軟かつ印象的なリアクションを行う
1.1)ボタン選択や実行指示した時にアニメーションやイメージが変化して応答する
1.2)ボタン選択や実行指示した時に音声応答する
1.3)ユーザの実行指示に対してわざと遅れたタイミングで実行操作に入る
1.4)(PCのような)ヘルプの回答を音声で対応する
1.5)メニューなどの使い方ガイドを音声表示する
2〕 映像自体やその再生方法に対する柔軟な切り替え処理を可能にする
2.1)オーディオの切り替え表示
2.2)サブタイトル(テロップ、字幕、静止画アイコンなど)の切り替え表示
2.3)ユーザ好みに合わせたサブタイトルの拡大表示が可能
2.4)ユーザがサブタイトルをマーキングしたり、サブタイトル実行命令を出す
2.5)映画監督がコメントしている間、コメントに合わせて特定映像部分をマーキング
3〕 再生中の映像にかぶせて別情報を同時に表示する
3.1)マルチウインドウによる複数映像を同時に表示する
3.2)マルチウインドウの各ウィンドサイズを自由に切り替えられる
3.3)事前の オーディオ・メッセージやユーザによる アフレコ・オーディオ・メッセージを同時表示
3.4)スクロールするテキストを映像にかぶせて同時表示する
3.5)(選択ボタンなどの)グラフィックメニューや図形を柔軟な形で同時表示する
4〕 見たい映像箇所への検索を容易にする
4.1)見たい場所をプルダウンメニューを使ってキーワード(テキスト)検索する
次に示した“2.ネットワークアクション”を必須とする要求機能に対しては、現行DVD-Video規格で規定されたデータ構造とネットワーク対応画面との間の帰りが大きすぎる。という問題点が生じる。前記問題点を解決するための技術的工夫内容としては、本実施形態ではネットワークの画面表現に実績のあるWebのホームページ表示形式(XMLとスクリプト)をデータの管理構造の基本部分に採用し、映像の再生管理形式をそれに合わせている。その結果、本実施形態により下記の新たな効果を実現することができる。
1] Perform flexible and impressive reactions to user actions
1.1) When a button is selected or an execution instruction is given, the animation or image changes and responds
1.2) Make a voice response when selecting a button or instructing execution
1.3) Execution operation is started at a timing that is intentionally delayed with respect to the user's execution instruction.
1.4) Supporting help answers (like PC) by voice
1.5) Voice display of usage guides for menus, etc. 2] Enables flexible switching processing for video itself and its playback method
2.1) Audio switching display
2.2) Switching display of subtitles (telop, subtitles, still image icons, etc.)
2.3) Subtitles can be enlarged to suit user preferences
2.4) The user marks the subtitle or issues a subtitle execution command
2.5) While the movie director is commenting, mark the specific video part according to the comment 3] Display different information simultaneously on the video being played
3.1) Display multiple images in multiple windows simultaneously
3.2) Each window size of the multi-window can be switched freely
3.3) Simultaneous display of pre-audio messages and post-record audio messages by users
3.4) Display the scrolling text on the video at the same time
3.5) Simultaneously display graphic menus and graphics (such as selection buttons) in a flexible manner 4] Easily search for the video location you want to watch
4.1) Search the keyword (text) using the pull-down menu for the location you want to see. For the required functions that require "2. Network action" as shown below, the data structure specified in the current DVD-Video standard and Return to / from network screen is too large. The problem arises. As technical contents for solving the above-mentioned problems, in this embodiment, a Web homepage display format (XML and script) that has a proven record in network screen representation is adopted as the basic part of the data management structure, and video The playback management format is adapted to it. As a result, the following new effects can be realized by this embodiment.
5〕 ネットワークを用いたディスク上の情報更新機能を持たせる
5.1)オブジェクト情報の自動更新やディスク内管理情報の自動更新
5.2)メニューの使い方ガイドをネットワークダウンロード
5.3)ユーザへの情報の自動更新告知
5.4)更新情報表示可否のユーザへの告知
5.5)ユーザによるマニュアル更新機能
6〕 リアルタイムなオンライン処理
6.1)映像再生時にネットワークダウンロードされた音声情報に切り替え/ミキシング処理(映画監督の音声によるコメンタリ表示など)
6.2)ネットワークショッピング
6.3)インタラクティブなリアルタイム映像変化
7〕 ネットワークを通じた別ユーザとの間のリアルタイムでの情報共有
7.1)離れた所に居る別ユーザに対しても特定画面を同時に表示する
7.2)離れた所に居る別ユーザと対戦ゲーム/対話ゲームをする
7.3)映像再生中にチャットに参加する
7.4)映像を再生しながら同時にファンクラブへのメッセージ送受信
最後に示した “3.映像関連情報の加工容易性と加工後情報の送信容易性”の要求機能を実現するためには、現行DVD-Video規格の小変更では複雑な編集処理を柔軟かつ容易に対応できない。また、複雑な編集処理を柔軟かつ容易に対応するためには、新たな管理データ構造が必要となる。という問題点が発生する。そのため本実施形態における前記問題点を解決するための技術的工夫内容として、XMLの採用と後述するタイムラインの概念を導入する。その結果、本実施形態により下記の新たな効果を実現することができる。
5] Provide a function for updating information on a disk using a network.
5.1) Automatic update of object information and disk management information
5.2) Network usage guide for menu usage
5.3) Automatic update notification of information to users
5.4) Announcement to users of whether update information can be displayed
5.5) User manual update function 6] Real-time online processing
6.1) Switching to audio information downloaded over the network during video playback / mixing processing (commentary display with the director's audio, etc.)
6.2) Network shopping
6.3) Interactive real-time video changes 7] Real-time information sharing with other users over the network
7.1) Display specific screens at the same time for other users who are away
7.2) Play a game / dialogue game with another user at a remote location
7.3) Participate in chat during video playback
7.4) Sending and receiving messages to the fan club at the same time as playing the video To realize the required function of “3. Small changes to the Video standard do not allow for complex editing processing flexibly and easily. In addition, a new management data structure is required to deal with complicated editing processing flexibly and easily. The problem occurs. Therefore, the adoption of XML and the concept of a timeline to be described later are introduced as technical contrivance contents for solving the above-described problems in the present embodiment. As a result, the following new effects can be realized by this embodiment.
8〕 ユーザによるプレイリストの選択・作成とその送信を行う
8.1)ユーザによるプレイリストの選択または作成を行う
8.2)ユーザが選択・作成したプレイリストを友人に送信する
8.3)ユーザが選択・作成したプレイリストは特定ディスクのみで再生可能とする
8.4)映像のハイライトシーン集もユーザが選択可能にする
8.5)映像中のお気に入り画面を取り込んだスクラップブックをWeb上で公開
8.6)ユーザが選択したマルチアングル/マルチシーン中のアングル/シーンを記憶して再生
9〕 映像に関する特定情報をユーザが付加し、その結果をネットワーク送信する
9.1)映像に対するコメントをユーザが付加し、ネットワーク上で別ユーザと共有
9.2)映像中のキャラクターの顔に入力画像を貼り込む
9.3)ユーザ情報や映像を見た時の経験情報を映像情報上に貼り付ける
9.4)ユーザ情報をパレンタルロックに利用し、表示映像の自動制限を掛ける
10〕 再生履歴情報の自動保存を行う
10.1)レジューム(再生中断)情報の自動保存機能を持つ
10.2)前回までのゲーム進行の途中情報の自動保存を行う
10.3)前回の再生環境(複数ユーザとの対戦ゲーム環境など)の自動保存を行う
図3を用い、本実施形態におけるデータ処理方法又はデータ転送方法、プログラム構造に関する基本概念の説明を行う。図3における右側の横実線は本実施形態の情報記録再生装置1内におけるコンテンツのデータ転送67を表し、横破線は図28に示すナビゲーションマネージャNVMNG内のプレイリストマネージャPLMNGからアドバンストコンテンツ再生部ADVPL内の各パートに対して転送されるコマンド68を意味している。図1に示す情報記録再生装置1内にはアドバンストコンテンツ再生部ADVPLが存在する。前記アドバンストコンテンツ再生部ADVPL内の構造は図14に示した構造を有する。図3の右側の縦の列に示したパーシステントストレージPRSTRは図14のパーシステントストレージPRSTRに対応し、図3の縦の列に示したネットワークサーバNTSRVは図14のネットワークサーバNTSRVに対応する。また図3の縦の列に示した情報記憶媒体DISCは図14に示す情報記憶媒体DISCに対応する。また図3右側の縦の列に示したプレゼンテーションエンジンPRSENは図14に示したプレゼンテーションエンジンPRSENを意味し、コンテンツの再生処理に利用される。また図3の右側の縦の列に示したデータキャッシュDTCCHは図14のデータキャッシュDTCCHに対応し、各アドバンストコンテンツの保存場所から必要に応じて前記データキャッシュDTCCHへアドバンストコンテンツADVCTが一時保存される。図14に示すナビゲーションマネージャNVMNGの内部構造を図28に示す。ナビゲーションマネージャNVMNG内にはプレイリストマネージャPLMNGが存在し、プレイリストマネージャPLMNGが本実施形態におけるコンテンツの再生・表示手順を示す管理情報が記述されたプレイリストPLLSTの内容を解読する。図3の右側の縦の線に示すナビゲーションマネージャNVMNGから発行されるコマンドは主に前記ナビゲーションマネージャNVMNG内のプレイリストマネージャPLMNGから発行されている。図14に示すデータアクセスマネージャDAMNGの内部構造は図26に示すようにネットワークマネージャNTMNG、パーシステントストレージマネージャPRMNG、ディスクマネージャDKMNGから構成される。データアクセスマネージャDAMNG内のネットワークマネージャNTMNGは各ネットワークサーバNTSRVと通信処理を行い、ネットワークサーバNTSRVからのコンテンツのデータ転送67の処理の仲介を行う。実際に、ネットワークサーバNTSRVからデータをデータキャッシュDTCCHに転送する時にはナビゲーションマネージャNVMNG内のプレイリストマネージャPLMNGから前記ネットワークマネージャNTMNGにコマンド68が転送され、前記コマンド68に基づきネットワークマネージャNTMNGが対応するネットワークサーバNTSRVからのコンテンツのデータ転送67処理を行う。前記図26に示すネットワークマネージャNTMNGが図3右側の縦の列に示すネットワークマネージャNTMNGを表す。また、図26に示すパーシステントストレージマネージャPRMNGが図3右側の縦の列に示すパーシステントストレージマネージャPRMNGを表す。図26に示すようにパーシステントストレージPRSTRに対してはデータアクセスマネージャDAMNG内のパーシステントストレージマネージャPRMNGが処理を行い、パーシステントストレージPRSTRから必要なデータの転送処理を行う。前記パーシステントストレージマネージャPRMNGに対してもナビゲーションマネージャNVMNG内のプレイリストマネージャPLMNGからコマンド68が発行される。図3の右側において各縦の列の上に横線(または破線)が明記されている場合には、各縦の列に示した部分を経由してコンテンツのデータ転送67またはコマンド68の伝達が行われる。また各縦の列の後ろに隠れて線が引かれている場合には、各縦の列に示したパーツを経由せずにコンテンツのデータ転送67もしくはコマンド68の伝達が行われる。また、図3では右側の各横線に示したコンテンツのデータ転送67に同期して図3左側に示す各処理ステップが記述されている。
8] User selects / creates playlist and sends it
8.1) The user selects or creates a playlist
8.2) Send playlists selected and created by users to friends
8.3) Play list selected / created by user can be played only on specific disc
8.4) Enable users to select video highlight scenes
8.5) Scrapbook with favorite screens in the video published on the web
8.6) Store and play back multi-angle / scene angle / scene selected by user 9] User adds specific information about video and sends the result over network
9.1) Users can add comments to video and share it with other users on the network
9.2) Paste the input image into the character's face in the video
9.3) Paste user information and experience information when viewing video on video information
9.4) Use user information for parental lock and automatically limit display video 10] Automatically save playback history information
10.1) Has a function to automatically save resume information
10.2) Automatically save information during game progress up to the previous time
10.3) Automatically Save Previous Playback Environment (Competitive Game Environment with Multiple Users, etc.) The basic concept regarding the data processing method or data transfer method and program structure in this embodiment will be described with reference to FIG. The horizontal solid line on the right side in FIG. 3 represents content data transfer 67 in the information recording / reproducing
図3の左側に示したフローチャートにおけるステップS11からステップS14に示すフローが、コンテンツのデータ転送を行った結果得られたコンテンツの保存場所変更に対応してプレイリストPLLSTの内容が変更され、保存される事を示す。また図3左側に示したフローチャート内のステップS15からステップS17までが本実施形態におけるデータ処理方法またはデータ転送方法、プログラム構造に関する基本概念の中核部分を示している。すなわち、プレイリストPLLSTに基づいて表示すべきコンテンツのデータをデータキャッシュDTCCH内に事前に保存し、必要なタイミングでデータキャッシュDTCCHからのデータをユーザに表示するためのフローを示している。図3においてユーザへの再生・表示手順を示す管理情報であるプレイリストPLLSTのファイルはパーシステントストレージPRSTR、ネットワークサーバNTSRV、又は情報記憶媒体DISC内に存在する。以下に図3の左側に示したフローチャートの内容を詳細に説明する。ステップS11においてα線で示すようにパーシステントストレージPRSTRに保存されているプレイリストPLLSTを、パーシステントストレージマネージャPRMNGを経由しプレイリストマネージャPLMNG内に転送する。またβ線に示すようにネットワークサーバNTSRVに保存されているプレイリストマネージャPLMNGファイルをネットワークサーバNTSRVからネットワークマネージャNTMNGを介し、プレイリストマネージャPLMNGに転送する。さらに情報記憶媒体DISCに保存されているプレイリストマネージャPLMNGは情報記憶媒体DISCから図示していないが、ディスクマネージャDKMNGを経由しプレイリストマネージャPLMNG内に転送される。前記ステップS11に示すデータ処理方法又はデータ転送方法は図50のステップS44からステップS46までの処理又は図51に示すステップS61の処理と一致する。すなわち複数の記憶媒体に類似したプレイリストPLLSTが複数存在する場合には、図50のステップS46もしくは図51のステップS61に示すようにプレイリストPLLSTに設定されている番号の中で最も高い番号が設定されるプレイリストファイルPLLSTを最新のファイルとして利用する。次にステップS11で選択した最新のプレイリストPLLST情報を元にネットワークダウンロードに時間のかかる特定のコンテンツ(セカンダリービデオセットSCDVSのコンテンツなど)をネットワークサーバNTSRVからパーシステントストレージPRSTRへ向けてデータ転送処理を行う(ステップS12)。この時には事前にプレイリストマネージャPLMNGからネットワークマネージャNTMNGとパーシステントストレージマネージャPRMNGへコマンド68が転送され(δ線)、その前記コマンド68に基づきネットワークマネージャNTMNGが処理を行い、対応するネットワークサーバNTSRVからコンテンツをデータの取込みを行い、パーシステントストレージマネージャPRMNGを経由し、指定されたパーシステントストレージPRSTRへデータ転送する(ε線)。本実施形態においてステップS12のステップでは、セカンダリービデオセットSCDVSをデータ転送する場合は、セカンダリーエンハンストビデオオブジェクトデータS-EVOBと同時にセカンダリービデオセットのタイムマップSTMAPも転送する必要がある。またアドバンストアプリケーションADAPLをデータ転送する場合は、アドバンストナビゲーションADVNV(マニフェストMNFST、マークアップMRKUP、スクリプトSCRPT)と一緒にアドバンストエレメントである静止画IMAGE、イフェクトオーディオEFTAD、フォントFONT等も転送する。更にアドバンストサブタイトルADSBTをデータ転送する場合は、アドバンストナビケーションADVNVであるアドバンストサブタイトルのマニフェストMNFSTS、アドバンストサブタイトルのマークアップMRKUPSと一緒にアドバンストエレメントADVELであるアドバンストサブタイトルのフォントFONTも転送する。(図12及び図25及び図11参照)。次のステップ(ステップS13)として、前記ステップS12に示したデータ転送により生じたコンテンツ(ソースデータ)の保存場所変更に合わせてプレイリストPLLST保存場所情報(src属性情報)をステップS12で行う前のネットワークサーバNTSRVからパーシステントストレージPRSTRに変更する。この時、情報記憶媒体DISC、ネットワークサーバNTSRV及びパーシステントストレージPRSTR内に変更前の既に保存されているプレイリストPLLSTの設定番号よりも大きな番号を保存予定のプレイリストファイルPLLSTに設定する必要がある。また将来、コンテンツプロバイダがネットワークサーバNTSRV内に保存されているプレイリストPLLSTの変更を行う可能性がある。その場合にはネットワークサーバNTSRV上で既に設定されている番号よりも“1”だけ値の大きい値がプレイリストファイルPLLST上に設定される。従って、更新されたネットワークサーバNTSRV上のプレイリストPLLSTと、今回保存するプレイリストPLLSTとの識別が行えるように、設定番号が重複しない充分大きな番号を今回更新するプレイリストPLLSTに設定し、パーシステントストレージPRSTRに保存する必要がある。本実施形態におけるデータ処理方法、又はデータ転送方法、プログラム構造に関する基本概念の中核部分はステップS15からステップS17に示すように大きく3ステップから構成されている。すなわち最初のステップ(ステップS15)においてはユーザへの再生・表示手順を示す管理情報(プログラム)であるプレイリストPLLSTをナビゲーションマネージャNVMNG内のプレイリストマネージャPLMNGが読み込む。図3に示す実施形態では更新したプレイリストファイルPLLSTをパーシステントストレージPRSTR内に保存している(ステップS14)ので、η線で示すようにパーシステントストレージPRSTRから最新のプレイリストPLLSTをプレイリストマネージャPLMNGが読み込む。本実施形態におけるデータ処理方法又はデータ転送方法においてはステップS16に示すように管理情報であるプレイリストPLLST(プログラム)の記述内容に応じ、所定のタイミング(LoadingBegin属性情報/PRLOAD又はpreload属性情報/PRLOAD)に合わせ、所定の保存場所(src属性情報)から必要なコンテンツである再生表示オブジェクト、インデックスインフォメーション、ナビゲーションデータ、リソースデータまたはソースデータ等をデータ転送処理する。本実施形態において上記必要なコンテンツ(リソース)を事前にデータキャッシュDTCCH内に転送するところに大きな特徴がある。管理情報(プレイリストPLLST、プログラム)に従い、所定のタイミングで指定された保存場所から必要なコンテンツをデータキャッシュDTCCH内に全保存する事でユーザへの再生表示を中断させずに複数の再生オブジェクトの同時再生・表示が可能となる。データ転送すべきコンテンツ(リソース)の保存場所又はファイル名(データ名)の検索方法は対応するコンテンツの種類により異なり、以下のような手順で行う。
In the flow shown in steps S11 to S14 in the flowchart shown on the left side of FIG. 3, the content of the playlist PLLST is changed and saved in response to the change of the storage location of the content obtained as a result of the content data transfer. Indicates that Steps S15 to S17 in the flowchart shown on the left side of FIG. 3 show the core part of the basic concept regarding the data processing method or data transfer method and program structure in this embodiment. That is, a flow is shown for storing data of content to be displayed based on the playlist PLLST in advance in the data cache DTCCH and displaying data from the data cache DTCCH to the user at a necessary timing. In FIG. 3, the file of the playlist PLLST, which is management information indicating the reproduction / display procedure for the user, exists in the persistent storage PRSTR, the network server NTSRV, or the information storage medium DISC. The contents of the flowchart shown on the left side of FIG. 3 will be described in detail below. In step S11, the playlist PLLST stored in the persistent storage PRSTR is transferred to the playlist manager PLMNG via the persistent storage manager PRMNG as indicated by the α line. Further, as indicated by β line, the playlist manager PLMNG file stored in the network server NTSRV is transferred from the network server NTSRV to the playlist manager PLMNG via the network manager NTMNG. Further, the playlist manager PLMNG stored in the information storage medium DISC is transferred from the information storage medium DISC to the playlist manager PLMNG via the disk manager DKMNG, although not shown. The data processing method or data transfer method shown in step S11 corresponds to the processing from step S44 to step S46 in FIG. 50 or the processing in step S61 shown in FIG. That is, when there are a plurality of playlist PLLSTs similar to a plurality of storage media, the highest number among the numbers set in the playlist PLLST as shown in step S46 of FIG. 50 or step S61 of FIG. The set playlist file PLLST is used as the latest file. Next, based on the latest playlist PLLST information selected in step S11, data transfer processing is performed from the network server NTSRV to the persistent storage PRSTR for specific content (such as the content of the secondary video set SCDVS) that takes time to download the network. It performs (step S12). At this time, the
* セカンダリービデオセットSCDVSに関しては、プレイリストPLLST→セカンダリービデオセットのタイムマップSTMAPの順に検索を行う
本実施形態ではセカンダリービデオセットのタイムマップSTMAPの中にセカンダリーエンハンストビデオオブジェクトS-EVOBファイル名が記述されており、前記セカンダリービデオセットのタイムマップSTMAPの情報からセカンダリーエンハンストビデオオブジェクトデータS-EVOBを検索する事が出来る。
* For the secondary video set SCDVS, search is performed in the order of playlist PLLST → second video set time map STMAP. In this embodiment, the secondary enhanced video object S-EVOB file name is described in the secondary video set time map STMAP. The secondary enhanced video object data S-EVOB can be searched from the information of the time map STMAP of the secondary video set.
* アドバンストサブタイトルADSBT又はアドバンストアプリケーションADAPL(プレイリストアソシエーティドアドバンストアプリケーションPLAPL、タイトルアソシエーティドアドバンストアプリケーションTTAPL含む)に関しては、アプリケーションリソースエレメントAPRELE又はタイトルリソースエレメント、アプリケーションリソースエレメントAPRELE内のsrc属性情報(ソース属性情報)を参照する(図54、図55、図63、図66、図67、図69、図70、図71参照)。 * For the advanced subtitle ADSBT or advanced application ADAPL (including playlist associated advanced application PLAPL and title associated advanced application TTAPL), the src attribute information in the application resource element APRELE or title resource element, application resource element APRELE (source Attribute information) is referred to (see FIGS. 54, 55, 63, 66, 67, 69, 70, and 71).
すなわちプレイリストPLLST内でリソース(コンテンツ)の保存場所がパーシステントストレージPRSTR内と指定されたものに対しては、対応するパーシステントストレージPRSTRからパーシステントストレージマネージャPRMNGを経由して対応するリソース(コンテンツ)がデータキャッシュDTCCHへ転送される(λ線)。また情報記憶媒体DISC内に保存された情報はκ線に示すように情報記憶媒体DISCからデータキャッシュDTCCHへデータ転送される。更にプレイリストPLLST上で指定されたリソース(コンテンツ)がネットワークサーバNTSRV内に保存されていると記述されている場合には対応するネットワークサーバNTSRVからμ線に示すようにネットワークマネージャNTMNGを経由し、データキャッシュDTCCHへデータ転送される。この場合、前記コンテンツ(リソース)のデータ転送67に先立ち、プレイリストマネージャPLMNGからパーシステントストレージマネージャPRMNGとネットワークマネージャNTMNG及び図示していないがディスクマネージャDKMNGに対し、データ転送要求のコマンド68が発行される(θ線)。最後のステップとしてステップS17に示すように管理情報(プレイリスト・プログラム)の情報内容に基づき、管理情報内で指定されたタイミング(titleTimeBegin/TTSTTM又はtitleTimeEnd/TTEDTM)に合わせ、指定された画面上の場所に複数の再生・表示オブジェクトを同時に表示する(図11、図12、図25参照)。この時はナビゲーションマネージャNVMNG内のプレイリストマネージャPLMNGからデータキャッシュDTCCHに対してコマンド68(ν線)が送られ、またプレイリストマネージャPLMNGからξ線に示すようにプレゼンテーションエンジンPRSENに対し事前準備のコマンド68が送られる。それに基づき、データキャッシュDTCCH内から事前に保存されていたコンテンツ(リソース)の情報がプレゼンテーションエンジンPRSENに向けて転送され、再生・表示オブジェクトをユーザに表示する事になる(ο線)。また前記の処理と同時に平行して、図25に示すようにプライマリービデオセットPRMVSと一部のセカンダリービデオセットSCDVSはデータキャッシュDTCCHを介さず、情報記憶媒体DISCからプレゼンテーションエンジンPRSENに直接転送する事が出来る。このデータ転送が図3におけるρ線に対応する。また、セカンダリービデオセットSCDVSの一部はパーシステントストレージマネージャPRMNGからデータキャッシュDTCCHを介さず、直接プレゼンテーションエンジンPRSEN(内のセカンダリービデオプレーヤSCDVP)へ転送する事が出来る。このデータ転送が図3のπ線に対応し、前記データ転送67に先立ち、プレイリストマネージャPLMNGからパーシステントストレージマネージャPRMNGへ向けてデータ転送の指示コマンド68が発行される(ν線)。このようにしてデータ転送が行われ、複数の再生・表示オブジェクトを同時に再生する事が可能となる。管理情報(プレイリストPLLST・プログラム)内に再生表示タイミング制御情報を持たせる事により、動画(エンハンストビデオオブジェクトデータEVOB)を含む複数の再生・表示オブジェクト(アドバンストアプリケーションADAPLやアドバンストサブタイトルADSBT含む)を同時にしかも中断させる事無く、再生・表示させる事が可能となる。図3においては主にデータ処理方法とデータ転送方法について説明してあるが本実施形態はこれに限らず、それを可能となる必要のタイミングやリソースの保存場所を記述し、前記データ処理方法又はデータ転送方法の実現を可能とするプログラム記述内容についても本実施形態の特徴の範囲内に含まれる。
That is, for a resource in which the storage location of the resource (content) is specified in the playlist PLLST as being in the persistent storage PRSTR, the corresponding resource (content) is transmitted from the corresponding persistent storage PRSTR via the persistent storage manager PRMNG. ) Is transferred to the data cache DTCCH (λ line). The information stored in the information storage medium DISC is transferred from the information storage medium DISC to the data cache DTCCH as indicated by the κ line. Furthermore, when it is described that the resource (content) specified on the playlist PLLST is stored in the network server NTSRV, the network server NTSRV passes through the network manager NTMNG as shown by the μ line, Data is transferred to the data cache DTCCH. In this case, prior to the content (resource)
図4に示すように、ユーザ要求として、
1.柔軟かつ多様な表現力(PC画面に近付く柔軟性を持つ)
2.ネットワークアクション
3.映像関連情報の加工容易性と加工後情報の送信容易性
というユーザ要求に答える為、本実施形態ではPC世界での表現形式に合わせたXML、スクリプトとタイムラインの概念を導入し、前記のユーザ要求に対応する。
As shown in FIG. 4, as a user request,
1. Flexible and diverse expressive power (with flexibility to approach PC screen)
2. Network action In order to respond to the user request of the ease of processing of video related information and the ease of transmission of post-processing information, this embodiment introduces the concept of XML, script and timeline according to the expression format in the PC world. Respond to requests.
しかしこの機能を持ったデータ構造の場合、従来のDVD-Videoとの互換性が損なわれるという問題点がある。 However, in the case of a data structure having this function, there is a problem that compatibility with the conventional DVD-Video is lost.
また、図4の構造のユーザ要求を満たすためにはネットワーク接続が前提条件となり、非常に安価な情報再生装置をユーザに提供することが難しくなる。その為本実施形態では、図4に対応したデータ構造を持つアドバンストコンテンツADVCTと、図4の構造のユーザ要求は満足できないが、従来のDVD-Videoとの互換性を確保し、非常に安い(インターネット接続を前提としない)情報再生装置で再生できるコンテンツとして、スタンダードコンテンツSTDCTをサポートしたところに大きな特徴がある。 Further, in order to satisfy the user request of the structure of FIG. 4, network connection is a prerequisite, and it becomes difficult to provide a very inexpensive information reproducing apparatus to the user. Therefore, in this embodiment, although the advanced content ADVCT having the data structure corresponding to FIG. 4 and the user request of the structure of FIG. 4 cannot be satisfied, compatibility with the conventional DVD-Video is ensured and very cheap ( A major feature is that the standard content STDCT is supported as content that can be played back by an information playback device (not based on the Internet connection).
<コンテンツの種類(Content Type)>
本実施形態では、スタンダードコンテンツSTDCTともう一方のコンテンツであるアドバンストコンテンツADVCTの2種類のタイプを定義できるようにしているところに本実施形態の特徴がある。
<Content Type>
The present embodiment is characterized in that two types of standard content STDCT and advanced content ADVCT, which is the other content, can be defined.
本実施形態におけるスタンダードコンテンツSTDCTには、映像情報自体が記録されているエンハンストビデオオブジェクトデータEVOBと、そのエンハンストビデオオブジェクトデータの管理情報が記録されているナビゲーションデータIFOから成り立っている。前記スタンダードコンテンツSTDCTは、従来のDVD-Videoのデータ構造を純粋に拡張したデータ構造を持っている。 The standard content STDCT in the present embodiment is composed of enhanced video object data EVOB in which video information itself is recorded and navigation data IFO in which management information of the enhanced video object data is recorded. The standard content STDCT has a data structure that is a pure extension of the data structure of the conventional DVD-Video.
それに対してアドバンストコンテンツADVCTは、後述するような各種情報が記録される。 On the other hand, the advanced content ADVCT records various information as described later.
<スタンダードコンテンツ(Standard Content)>
図4を用いてスタンダードコンテンツSTDCTのデータ内容を説明する。
<Standard Content>
The data content of the standard content STDCT will be described with reference to FIG.
スタンダードコンテンツSTDCTはメニュー画面を表すビデオマネージャVMGと、映像データが記録されているスタンダードビデオタイトルセットSVTSが存在する。 Standard content STDCT includes a video manager VMG representing a menu screen and a standard video title set SVTS in which video data is recorded.
メニュー画面が記録されているビデオマネージャVMGには、映像情報自体が記録されているエンハンストビデオオブジェクトデータEVOBとその管理情報が記録されているナビゲーションデータIFOが存在し、スタンダードビデオタイトルセットSVTS内には映像情報自体が記録されているエンハンストビデオオブジェクトデータEVOBと、その管理情報が記録されているナビゲーションデータIFOの組合せから成り立っている。 The video manager VMG in which the menu screen is recorded has enhanced video object data EVOB in which the video information itself is recorded and navigation data IFO in which the management information is recorded. The standard video title set SVTS has It consists of a combination of enhanced video object data EVOB in which video information itself is recorded and navigation data IFO in which management information is recorded.
スタンダードコンテンツSTDCTは従来のDVD-Videoで規定されているコンテンツの拡張構造を表している。特に従来のDVD-Videoに比べ映像に対する高解像度と音声に対する高音質と新たな機能が追加されている。スタンダードコンテンツSTDCTは、図4に示すように1個のビデオマネージャVMGが記録されている領域と1以上のビデオタイトルセットVTSから記録されている領域からなっている。このビデオタイトルセットVTSが記録されている領域をスタンダードビデオタイトルセットSVTS又はVTSと呼ぶ。 Standard content STDCT represents an extended structure of content defined by conventional DVD-Video. Compared with the conventional DVD-Video, high resolution for video, high sound quality for audio and new functions are added. As shown in FIG. 4, the standard content STDCT includes an area in which one video manager VMG is recorded and an area in which one or more video title sets VTS are recorded. An area in which the video title set VTS is recorded is called a standard video title set SVTS or VTS.
従来のDVD-Videoと比べて本実施形態では以下の新たな機能が盛込まれている。 Compared to the conventional DVD-Video, the present embodiment incorporates the following new functions.
・映像情報に対する高解像度を保証するとともに、高解像度であり、かつ圧縮効率のよい圧縮方式を新たに採用する
・音声情報に対するチャネル数を上げるとともに高いサンプル周波数まで対応させる。又高音質を保証させ、高い圧縮効率を可能とする音声情報の圧縮方法を採用する
・副映像情報に対する機能拡張を行うとともに、新たにハイライト情報のストリームを定義する
・ナビコマンドの機能拡張を行う
・起動時に処理を行うファーストプレイドメイン、及びメニュー画像を管理するビデオマネージャドメイン、映像情報の再生時に処理を行うビデオタイトルセットドメインにおける従来存在していた特殊ないくつかの制限情報に対して制限情報を除去し、よりフレキシブルな表現を可能とする
・各ドメイン間の遷移制限に対していくつかの制限を除去し、よりフレキシブルな表現環境定義する
・途中で再生を中断した時の処理を表すレジウムシーケンス機能を新たに加え、中断後のユーザの利便性を高める
<スタンダードVTS(Standard VTS)>
本実施形態においてスタンダードビデオタイトルセットSVTSは、基本的には上述したスタンダードコンテンツSTDCT上で使用される。しかし、このスタンダードビデオタイトルセットSVTSは後述するタイムマップTMAPを返して、アドバンストコンテンツADVCT内でも使うことが可能である。
-Newly adopt a compression method that guarantees high resolution for video information and has high resolution and high compression efficiency-Increase the number of channels for audio information and support high sampling frequencies. In addition, the audio information compression method that guarantees high sound quality and enables high compression efficiency is adopted.-The function for sub-picture information is expanded and a new highlight information stream is defined.-The navigation command function is expanded.・ Limited to some special restriction information that existed in the first play domain that processes at startup, the video manager domain that manages menu images, and the video title set domain that processes when playing video information. Eliminate information and enable more flexible expression ・ Remove some restrictions on transition restrictions between domains and define a more flexible expression environment ・ Represent processing when playback is interrupted Newly added a radium sequence function to improve user convenience after interruption <Standard VTS (Stand ard VTS) >
In this embodiment, the standard video title set SVTS is basically used on the standard content STDCT described above. However, this standard video title set SVTS can be used in the advanced content ADVCT by returning a time map TMAP described later.
上記スタンダードビデオタイトルセットSVTS内で使用されるオブジェクト情報であるエンハンストビデオオブジェクトデータEVOBはスタンダードコンテンツSTDCTに対する幾つかの特定の情報を持っている。その特定の情報は、例えばスタンダードコンテンツSTDCTで使用されるハイライトインフォメーションHLIやプレゼンテーションコントロールインフォメーションPCIは、本実施形態においてアドバンストコンテンツADVCT上では無視される。 The enhanced video object data EVOB, which is object information used in the standard video title set SVTS, has some specific information for the standard content STDCT. For example, highlight information HLI and presentation control information PCI used in the standard content STDCT are ignored on the advanced content ADVCT in this embodiment.
<HDDVD_TS ディレクトリ(HDDVD_TS Directory)>
図4に示すスタンダードコンテンツSTDCTが情報記憶媒体内に記録される時のディレクトリ構造について説明を行う。本実施形態ではスタンダードコンテンツSTDCT及び後述するアドバンストコンテンツADVCTが共にHDDVD_TSディレクトリの中にまとめて記録される。上記HDDVD-TSディレクトリは情報記憶媒体のルートディレクトリの直下に配置される。例えばビデオマネージャVMGやスタンダードビデオタイトルセットSVTSなどの後述するプライマリービデオセットPRMVSに関係する全てのファイルはこのディレクトリの中に含まれる。
<HDDVD_TS Directory>
A directory structure when the standard content STDCT shown in FIG. 4 is recorded in the information storage medium will be described. In this embodiment, both standard content STDCT and advanced content ADVCT described later are recorded together in the HDDVD_TS directory. The HDDVD-TS directory is arranged immediately below the root directory of the information storage medium. For example, all files related to a primary video set PRMVS (to be described later) such as a video manager VMG and a standard video title set SVTS are included in this directory.
<ビデオマネージャ(Video Manager)>
図4に示すビデオマネージャVMGの中身について説明を行う。上記ビデオマネージャVMGは基本的に従来のDVD-Videoのメニュー画面及び制御情報が含まれる。上記説明したHDDVD_TSディレクトリの下にそれぞれコンポーネントファイルとして、ビデオマネージャインフォメーションVMGI、情報記憶媒体挿入直後の最初に表示するメニューFP_PGCM_EVOBに関するエンハンストビデオオブジェクトデータEVOB、ビデオマネージャVMGのナビゲーションデータIFOのバックアップデータであるビデオマネージャインフォメーションVMGI_BUPなどが別々に記録される。
<Video Manager>
The contents of the video manager VMG shown in FIG. 4 will be described. The video manager VMG basically includes a conventional DVD-Video menu screen and control information. Video that is backup data for video manager information VMGI, enhanced video object data EVOB for menu FP_PGCM_EVOB to be displayed first immediately after insertion of the information storage medium, navigation data IFO of video manager VMG as component files under the HDDVD_TS directory described above Manager information VMGI_BUP etc. are recorded separately.
上記HDDVD_TSディレクトリ化において、ビデオマネージャメニューに関するエンハンストビデオオブジェクトセットVMGM_EVOBSのサイズが1GB以上あるが、それらのデータは98以下のファイルにそれぞれ分割され記録される。 In the HDDVD_TS directory, the size of the enhanced video object set VMGM_EVOBS related to the video manager menu is 1 GB or more, but the data is divided and recorded in 98 or less files.
本実施形態において再生専用の情報記録媒体では、再生の利便性の為ビデオマネージャメニューのエンハンストビデオオブジェクトセットVMGM_EVOBSのそれぞれの全てのファイルは、連続した位置に配置される必要がある。それによりビデオマネージャメニューに関するエンハンストビデオオブジェクトセットVMGM_EVOBSの情報が1箇所にまとまって記録されている為データのアクセス利便性、データの収集の利便性、表示速度の高速化を確保することができる。 In the present embodiment, in the reproduction-only information recording medium, all files in the enhanced video object set VMGM_EVOBS of the video manager menu need to be arranged at consecutive positions for the convenience of reproduction. Thereby, since the information of the enhanced video object set VMGM_EVOBS related to the video manager menu is recorded in one place, it is possible to ensure the convenience of data access, the convenience of data collection, and the high display speed.
<スタンダードビデオタイトルセット(Standard Video Title Set)>
本実施形態において、上記HDDVD_TSディレクトリの中にビデオタイトルセットインフォメーションVTSIとビデオタイトルセットインフォメーションのバックアップデータVTSI_BUPは、それぞれコンポーネントファイルとして前記HDDVD_TSディレクトリ化に記録される。ビデオタイトルセットメニューのエンハンストビデオオブジェクトセットVTSM_EVOBS及び、各タイトルのエンハンストビデオオブジェクトセットVTSTT_EVOBSのサイズは1GBを超えることを許容されるがそのデータは99以内のファイルに分割、記録される必要がある。その結果、各ファイルサイズは1GB以下に設定できる。これらのファイルはHDDVD_TSディレクトリ化に個々のコンポーネントファイルとして記録される。ビデオタイトルセットメニューのエンハンストビデオオブジェクトセットVTSM_EVOBS及び各タイトルのエンハンストビデオオブジェクトセットVTSTT_EVOBSのファイルは、全てそれぞれ連続な位置に配置される必要がある。その結果上述したのと同様に1箇所にデータが記録されている為、データのアクセス利便性及び高速性とデータ処理の管理化が図れ、高速でユーザに対するこれらの情報を表示することができる。
<Standard Video Title Set>
In the present embodiment, video title set information VTSI and video title set information backup data VTSI_BUP are recorded in the HDDVD_TS directory as component files in the HDDVD_TS directory. The size of the enhanced video object set VTSM_EVOBS of the video title set menu and the enhanced video object set VTSTT_EVOBS of each title is allowed to exceed 1 GB, but the data needs to be divided into 99 or less files and recorded. As a result, each file size can be set to 1 GB or less. These files are recorded as individual component files in the HDDVD_TS directory. All the files of the enhanced video object set VTSM_EVOBS of the video title set menu and the enhanced video object set VTSTT_EVOBS of each title need to be arranged at consecutive positions. As a result, since data is recorded in one place as described above, data access convenience and high speed and management of data processing can be achieved, and this information can be displayed to the user at high speed.
<スタンダードビデオタイトルセットの構造(Structure of Standard Video Title Set)>
ビデオタイトルセットVTSは映像タイトルの集合体を意味している。このビデオタイトルセットは、上記ビデオタイトルセットに関する制御情報であるビデオタイトルセットインフォメーションVTSI、ビデオタイトルセットメニューのエンハンストビデオオブジェクトセットVTSM_EVOBS、各タイトルのエンハンストビデオオブジェクトセット(映像情報そのもの)VTSTT_EVOBSおよびビデオタイトルセットインフォメーションのバックアップデータVTSI_BUPから構成される。
<Structure of Standard Video Title Set>
The video title set VTS means a collection of video titles. This video title set includes video title set information VTSI that is control information related to the video title set, enhanced video object set VTSM_EVOBS of the video title set menu, enhanced video object set (video information itself) VTSTT_EVOBS of each title, and video title set information. Consists of backup data VTSI_BUP.
本実施形態においてビデオタイトルセットVTSに関して、以下のルールを適用させる。 In the present embodiment, the following rules are applied to the video title set VTS.
1) 制御情報が記録されているビデオタイトルセットインフォメーションVTSIとビデオタイトルセットインフォメーションのバックアップデータVTSI_BUPは、1GB以下のそれぞれ1個のファイル内に記録しなければいけない。 1) The video title set information VTSI in which the control information is recorded and the backup data VTSI_BUP of the video title set information must be recorded in one file of 1 GB or less.
2) ビデオタイトルセットメニューのエンハンストビデオオブジェクトセットVTSM_EVOBSとビデオタイトルセットVTS内における各タイトルのエンハンストビデオオブジェクトセット(映像情報そのもの)VTSTT_EVOBSトはそれぞれ1個が1GB以下のサイズのファイルに分割して記録しなければいけない。その分割されたファイル数が1個の情報記憶媒体内には99ファイル以下にしなければならない。 2) The enhanced video object set VTSM_EVOBS of the video title set menu and the enhanced video object set (video information itself) VTSTT_EVOBS of each title in the video title set VTS must be divided and recorded in files of 1 GB or less. I must. The number of divided files must be 99 files or less in one information storage medium.
3) ビデオタイトルセットインフォメーションVTSIと、ビデオタイトルセットメニューのエンハンストビデオオブジェクトセットVTSM_EVOBSと、各タイトルのエンハンストビデオオブジェクトセット(映像情報そのもの)VTSTT_EVOBSと、ビデオタイトルセットインフォメーションのバックアップデータVTSI_BUPは、上記記載した順番で配置されなければならない。 3) Video title set information VTSI, video title set menu enhanced video object set VTSM_EVOBS, each title enhanced video object set (video information itself) VTSTT_EVOBS, and video title set information backup data VTSI_BUP are in the order described above. Must be placed.
4) ビデオタイトルセットインフォメーションVTSIとビデオタイトルセットインフォメーションのバックアップデータVTSI_BUPは1個の同一のECCブロック内に共存して記録してはいけない。すなわちビデオタイトルセットインフォメーションVTSIとビデオタイトルセットインフォメーションのバックアップデータVTSI_BUP は連続して記録されるが両者間の境界位置が同一のECCブロック内の中央に配置されることを禁止している。すなわち両者の境界部分が同一のECCブロック内に配置された場合、そのECCブロックが欠陥により再生できない場合、両方の情報が共に再生できないという問題が発生する。従ってビデオタイトルセットインフォメーションVTSI の終了位置でのECCブロック内での余った場所には、パディング情報を記録し、次のビデオタイトルセットインフォメーションのバックアップデータVTSI_BUP の先頭が次のECCブロックの先頭位置に来るようにし、互いに同一のECCブロック内に両方のデータが入ることを避けるところに本実施形態の特徴がある。それによりデータ再生の信頼性を大幅に向上させるだけでなくデータ再生時の再生処理を容易にする効果がある。 4) The video title set information VTSI and the backup data VTSI_BUP of the video title set information must not be recorded in the same ECC block. That is, the video title set information VTSI and the backup data VTSI_BUP of the video title set information are continuously recorded, but the boundary position between the two is prohibited from being arranged at the center in the same ECC block. That is, when the boundary portion between the two is arranged in the same ECC block, when the ECC block cannot be reproduced due to a defect, both information cannot be reproduced together. Therefore, padding information is recorded in the remaining place in the ECC block at the end position of the video title set information VTSI, and the head of the backup data VTSI_BUP of the next video title set information comes to the head position of the next ECC block. Thus, the present embodiment is characterized in that both data are prevented from entering the same ECC block. This not only greatly improves the reliability of data reproduction, but also has the effect of facilitating the reproduction process during data reproduction.
5) ビデオタイトルセットメニューのエンハンストビデオオブジェクトセットVTSM_EVOBSを構成している複数のファイルが情報記憶媒体上で連続した位置に配置されなければいけない。更に各タイトルのエンハンストビデオオブジェクトセット(映像情報そのもの)VTSTT_EVOBSを構成する複数のファイルも同様に連続した位置に配置されなければいけない。そのように連続した位置に配置されることにより再生時の光学ヘッドの1回の連続した再生により各情報を一度に再生することができる(光学ヘッドのジャンピング処理を不要とする)。それにより上記各種情報のデータ再生時の処理の容易性を確保できるとともに、データ再生から表示するまでの時間の短縮化を図ることができる。 5) A plurality of files constituting the enhanced video object set VTSM_EVOBS of the video title set menu must be arranged at consecutive positions on the information storage medium. In addition, a plurality of files constituting the enhanced video object set (video information itself) VTSTT_EVOBS of each title must be similarly arranged at consecutive positions. By arranging in such a continuous position, each information can be reproduced at a time by one continuous reproduction of the optical head at the time of reproduction (no jumping process of the optical head is required). As a result, it is possible to ensure the ease of processing of the various types of information during data reproduction, and to shorten the time from data reproduction to display.
6) ビデオタイトルセットインフォメーションのバックアップデータVTSI_BUPは、ビデオタイトルセットインフォメーションVTSIと完全に一致しなければならない。上記情報は完全に一致することにより万一管理情報であるビデオタイトルセットインフォメーションVTSIがエラーによる再生不可能になったとしても、前記のビデオタイトルセットインフォメーションのバックアップデータVTSI_BUPの再生により、安定した映像情報の再生が可能となる。 6) The backup data VTSI_BUP of the video title set information must completely match the video title set information VTSI. Even if the video title set information VTSI, which is management information, cannot be played back due to an error because the above information is completely consistent, stable video information can be obtained by playing back the backup data VTSI_BUP of the video title set information. Can be played.
7) ボリューム空間上に記録されたビデオタイトルセットVTSに付与するビデオタイトルセットVTS番号は連続した番号が付与されなければならない。情報記憶媒体上に記録されたビデオタイトルセットVTSの配置位置を表す論理空間上のアドレスである論理ブロックナンバーLBNの若い順番にそれぞれのビデオタイトルセットVTSの番号が設定され、番号としては1〜511までの番号がつけられる。 7) The video title set VTS numbers assigned to the video title set VTS recorded in the volume space must be assigned consecutive numbers. The numbers of the respective video title sets VTS are set in ascending order of the logical block number LBN which is an address on the logical space indicating the arrangement position of the video title set VTS recorded on the information storage medium. Numbers up to are given.
8) 各ビデオタイトルセットVTSにおいて、ビデオタイトルセットインフォメーションVTSIとビデオタイトルセットメニューのエンハンストビデオオブジェクトセットVTSM_EVOBSと、ビデオタイトルセットVTS内における各タイトルのエンハンストビデオオブジェクトセット(映像情報そのもの)VTSTT_EVOBSおよびビデオタイトルセットインフォメーションのバックアップデータVTSI_BUPのそれぞれの情報の境界領域にはギャップ領域を持つことができる。すなわち前記説明した4種類の情報はそれぞれ異なるECCブロックに配置されることにより再生時のデータの信頼性と再生処理の容易性、処理の高速性が図られる。そのため各情報の最後のデータの記録位置が1個のECCブロックの中間で終わった場合には、余りの領域にパディング情報を入れ次の情報の先頭位置が次のECCブロックの先頭位置に一致するように本実施形態では工夫されている。前記ECCブロック内のパディング情報の部分を本実施形態ではギャップと表現する。 8) In each video title set VTS, the video title set information VTSI, the enhanced video object set VTSM_EVOBS of the video title set menu, the enhanced video object set (video information itself) VTSTT_EVOBS and video title set information of each title in the video title set VTS Each of the backup data VTSI_BUP information may have a gap area in the boundary area. That is, the above-described four types of information are arranged in different ECC blocks, so that the reliability of data at the time of reproduction, the ease of reproduction processing, and the high speed of processing can be achieved. For this reason, when the last data recording position of each piece of information ends in the middle of one ECC block, padding information is inserted into the remaining area, and the start position of the next information matches the start position of the next ECC block. As described above, this embodiment is devised. The padding information portion in the ECC block is expressed as a gap in this embodiment.
9) 各それぞれビデオタイトルセットメニューのエンハンストビデオオブジェクトセットVTSM_EVOBSにおいて、エンハンストビデオオブジェクトEVOBは連続して情報記憶媒体上に記憶されなければならない。それにより再生処理の利便性が向上する。 9) In each enhanced video object set VTSM_EVOBS of the respective video title set menu, the enhanced video object EVOB must be continuously stored on the information storage medium. Thereby, the convenience of the reproduction process is improved.
10) ビデオタイトルセットVTS内における各タイトルのエンハンストビデオオブジェクトセット(映像情報そのもの)VTSTT_EVOBSにおいて、各エンハンストビデオオブジェクトも情報記憶媒体上の連続した位置に記録されなければならない。それにより、情報再生の利便性と表示までに要する時間の短縮化を図ることができる。 10) In the enhanced video object set (video information itself) VTSTT_EVOBS of each title in the video title set VTS, each enhanced video object must also be recorded in a continuous position on the information storage medium. Thereby, the convenience of information reproduction and the time required for display can be shortened.
11) ビデオタイトルセットインフォメーションVTSIとビデオタイトルセットインフォメーションのバックアップデータVTSI_BUPは情報記憶媒体上のアドレス位置を表すロジカルブロックナンバーLSNの連続した番号で構成される連続した論理的な連続領域内にそれぞれ記録されなければならない。それにより、1回の連続再生(ジャンピング処理を含まない)により前記情報を読取ることができ再生処理の利便性、処理の高速化を図ることができる。 11) The video title set information VTSI and the backup data VTSI_BUP of the video title set information are respectively recorded in a continuous logical continuous area composed of consecutive numbers of logical block numbers LSN representing address positions on the information storage medium. There must be. Thereby, the information can be read by one continuous reproduction (not including the jumping process), and the convenience of the reproduction process and the speeding up of the process can be achieved.
<ビデオマネージャの構造(Structure of Video Manager)>
ビデオマネージャVMGはスタンダードビデオタイトルセットSVTSのコンテンツテーブルを表し、それは後述するHDDVD-Videoゾーンに記録されている。ビデオマネージャVMGの構成要件は、ビデオマネージャインフォメーションVMGIである制御情報、情報記憶媒体挿入直後の最初に表示するメニューFP_PGCM_EVOB、ビデオマネージャメニューのエンハンストビデオオブジェクトセットVMGM_EVOBS、ビデオマネージャインフォメーションVMGIである制御情報のバックアップデータVMGI_BUPとなっている。VMGIである制御情報は、各タイトルを再生する為に必要な正的な情報とユーザオペレーションをサポートするための情報が記録されている。情報記憶媒体挿入直後の最初に表示するメニューFP_PGCM_EVOBは、メニューで表示される言語を選択する為に使用される。すなわち情報記憶媒体装着直後にユーザ自身で最適なメニュー言語を選択してもらうことにより、最も理解しやすい言語で各種のメニュー画面を表示することができる。ビデオマネージャのメニューに関するエンハンストビデオオブジェクトVMGM_EVOBSは、ボリュームアクセスをサポートするメニューに使用されるエンハンストビデオオブジェクトの集まりになっている。すなわち、前記ユーザが選定した各言語で表示されるメニュー画面(個々の言語毎に別々の情報として持っている画面)の情報がエンハンストビデオオブジェクトセットとして記録されている。
<Structure of Video Manager>
The video manager VMG represents the content table of the standard video title set SVTS, which is recorded in the HDDVD-Video zone described later. The configuration requirements of the video manager VMG are the control information that is the video manager information VMGI, the menu FP_PGCM_EVOB that is displayed first immediately after the information storage medium is inserted, the enhanced video object set VMGM_EVOBS of the video manager menu, and the control information that is the video manager information VMGI. The data is VMGI_BUP. In the control information that is VMGI, correct information necessary for reproducing each title and information for supporting user operations are recorded. A menu FP_PGCM_EVOB displayed first immediately after the information storage medium is inserted is used to select a language displayed in the menu. That is, various menu screens can be displayed in a language that is most easily understood by having the user select an optimal menu language immediately after the information storage medium is mounted. The enhanced video object VMGM_EVOBS related to the menu of the video manager is a collection of enhanced video objects used for menus that support volume access. In other words, information on menu screens (screens held as separate information for each language) displayed in each language selected by the user is recorded as an enhanced video object set.
<ビデオマネージャに適用されるルール(Rules Applied to Video Manager(VMG))>
本実施形態において、ビデオマネージャVMGに関しては以下のルールを適用する。
<Rules Applied to Video Manager (VMG)>
In the present embodiment, the following rules are applied to the video manager VMG.
1) 1個のビデオマネージャインフォメーションVMGIとビデオマネージャインフォメーションのバックアップファイルVMGI_BUPに関しては、1個のファイルが1GB以下になるように分割して情報記憶媒体内に記録する
2) 情報記憶媒体挿入直後の最初に表示するメニューFP_PGCM_EVOBのエンハンストビデオオブジェクトEVOBに関しては、1個のファイルが1GB以下になるように分割して情報記憶媒体内に記録する。また、ビデオマネージャメニューのエンハンストビデオオブジェクトセットVMGM_EVOBSも1個のファイルが1GB以下になるように分割して記録するとともに、前記ビデオマネージャメニューのエンハンストビデオオブジェクトセットVMGM_EVOBSの1枚の情報記憶媒体内に記録されるファイル数は98ファイル以下に設定する。上記のように1ファイルのデータサイズを1GB以下に設定することによりバッファメモリの管理が容易になるとともに、データのアクセス性が向上する。
1) For one video manager information VMGI and video manager information backup file VMGI_BUP, divide one file so that it is 1GB or less and record it in the information storage medium. 2) First immediately after insertion of the information storage medium The enhanced video object EVOB of the menu FP_PGCM_EVOB to be displayed on the screen is divided and recorded in the information storage medium so that one file becomes 1 GB or less. In addition, the video manager menu enhanced video object set VMGM_EVOBS is also divided and recorded so that one file is 1 GB or less, and recorded in one information storage medium of the video manager menu enhanced video object set VMGM_EVOBS. The number of files to be set is set to 98 files or less. As described above, setting the data size of one file to 1 GB or less facilitates management of the buffer memory and improves data accessibility.
3) ビデオマネージャインフォメーションVMGIと情報記憶媒体挿入直後の最初に表示するメニューFP_PGCM_EVOBとビデオマネージャメニューのエンハンストビデオオブジェクトセットVMGM_EVOBSとビデオマネージャインフォメーションのバックアップファイルVMGI_ BUPはこの順番で情報記憶媒体に記録する。 3) The video manager information VMGI, the menu FP_PGCM_EVOB to be displayed first immediately after the information storage medium is inserted, the video manager menu enhanced video object set VMGM_EVOBS, and the video manager information backup file VMGI_BUP are recorded in this order on the information storage medium.
4) ビデオマネージャインフォメーションVMGIとビデオマネージャインフォメーションのバックアップファイルVMGI_BUPは同一のECCブロック内に記録してはならない。 4) The video manager information VMGI and the video manager information backup file VMGI_BUP must not be recorded in the same ECC block.
…ビデオマネージャインフォメーションVMGIと情報記憶媒体挿入直後の最初に表示するメニューFP_PGCM_EVOBとビデオマネージャメニューのエンハンストビデオオブジェクトセットVMGM_EVOBSはオプショナルな情報な為、情報記憶媒体に記録されないことがある。その場合にはビデオマネージャインフォメーションVMGIとビデオマネージャインフォメーションのバックアップVMGI_BUPが連続されて順番に配列されることがある。この場合にビデオマネージャインフォメーションVMGIとビデオマネージャインフォメーションのバックアップVMGI_BUPの境界位置が1個のECCブロックの中間に境界位置が来ないようにすることを上記の内容は意味している。基本的に情報記録媒体から情報を再生する場合には、ECCブロック単位に情報を再生する。そのため両者の境界位置が同一ECCブロック内に入っている場合に、再生情報のデータ処理の利便性が損なわれるだけでなく、境界部分のECCブロック内にエラー発生時に再生できない場合にはビデオマネージャインフォメーションVMGIとビデオマネージャインフォメーションのバックアップVMGI_BUPが両方とも再生されないことがある。従って両者の境界部分をECCブロックの境界部分に合わせることにより再生時の処理の優位性を確保するとともに、どちらか一方のECCブロックのエラーが多くなり再生できない場合でも、残りのデータで情報を復活させ再生することができる。従って両者の境界面をECCブロック内の境界面に合わせることにより、ビデオマネージャインフォメーションVMGIのデータ再生信頼性を向上することができる。 ... the video manager information VMGI, the menu FP_PGCM_EVOB to be displayed first immediately after the information storage medium is inserted, and the enhanced video object set VMGM_EVOBS of the video manager menu are optional information and may not be recorded on the information storage medium. In that case, the video manager information VMGI and the backup VMGI_BUP of the video manager information may be arranged sequentially in sequence. In this case, the above contents mean that the boundary position between the video manager information VMGI and the video manager information backup VMGI_BUP does not come in the middle of one ECC block. Basically, when information is reproduced from an information recording medium, information is reproduced in units of ECC blocks. Therefore, when the boundary position between the two is within the same ECC block, not only the convenience of data processing of the playback information is impaired, but also when the error cannot be played back in the ECC block at the boundary portion, the video manager information Both VMGI and Video Manager Information backup VMGI_BUP may not play. Therefore, by aligning the boundary between the two with the boundary of the ECC block, it ensures the superiority of the processing during playback, and even if one of the ECC blocks has many errors and cannot be played back, the information is restored with the remaining data. Can be played. Therefore, the data reproduction reliability of the video manager information VMGI can be improved by matching the boundary surface between the two with the boundary surface in the ECC block.
5) メニュー情報を表すビデオマネージャメニューのエンハンストビデオオブジェクトセットVMGM_EVOBSのデータは連続して記録しなければならない。前述したようにビデオマネージャメニューのエンハンストビデオオブジェクトセットVMGM_EVOBSのデータサイズは1GB以上超えることが許容されているが、1個のファイルサイズが1GB以下になるようにそのデータが複数のファイル内に分割記録するように本実施形態では規定されている。このそれぞれの分割された各ファイルが情報記憶媒体上に連続して記録されることを要求している。それにより1回の連続再生により、上記ビデオマネージャメニューのエンハンストビデオオブジェクトセットを全て取込むことができ、再生制御の高信頼性とユーザ表示に向けての高速化を確保することができる。 5) Data of the enhanced video object set VMGM_EVOBS of the video manager menu representing the menu information must be recorded continuously. As described above, the data size of the enhanced video object set VMGM_EVOBS in the video manager menu is allowed to exceed 1 GB or more, but the data is divided and recorded in a plurality of files so that one file size is 1 GB or less. Thus, in this embodiment, it is defined. Each of the divided files is required to be continuously recorded on the information storage medium. Thereby, all the enhanced video object sets in the video manager menu can be captured by one continuous reproduction, and high reliability for reproduction control and high speed for user display can be ensured.
6) ビデオマネージャインフォメーションのバックアップファイルVMGI_BUPの内容は、ビデオマネージャインフォメーションVMGIの内容と完全に一致させる必要がある。 6) The contents of the video manager information backup file VMGI_BUP must be completely identical to the contents of the video manager information VMGI.
7) ビデオマネージャインフォメーションVMGIと情報記憶媒体挿入直後の最初に表示するメニューFP_PGCM_EVOBと、ビデオマネージャメニューのエンハンストビデオオブジェクトセットVMGM_EVOBSとビデオマネージャインフォメーションのバックアップファイルVMGI_ BUP間の境界位置にギャップがあることを許容する。上記4)で説明したように、各データ間の情報をECCブロック単位にまとめて記録する場合、各データの最後の部分の位置とECCブロックの境界位置にズレが生じECCブロック内に余りの領域が発生することがある。この、余りの領域をギャップと呼び、このようにギャップ領域の存在を許容することにより上記各情報がECCブロック単位に記録することができる。それにより上述したように再生時の利便性とデータ再生時の信頼性を確保することができる。 7) Allow a gap in the boundary position between the video manager information VMGI and the first menu FP_PGCM_EVOB displayed immediately after the information storage medium is inserted, the enhanced video object set VMGM_EVOBS of the video manager menu, and the video manager information backup file VMGI_BUP. To do. As described in 4) above, when information between each piece of data is recorded in units of ECC blocks, a gap occurs between the position of the last part of each piece of data and the boundary position of the ECC block, and an extra area in the ECC block. May occur. This surplus area is called a gap, and by allowing the existence of the gap area in this way, the above information can be recorded in ECC block units. As a result, as described above, it is possible to ensure convenience during reproduction and reliability during data reproduction.
8) ビデオマネージャメニューのエンハンストビデオオブジェクトセットVMGM_EVOBSにおいて各エンハンストビデオオブジェクトは連続して記録する必要がある。上述したようにビデオマネージャメニューのエンハンストビデオオブジェクトセットVMGM_EVOBSは、1GB以上超えることができそれぞれ1GB以下の情報を分割記録することができることを上述した。この場合、各分割されたファイルが情報記憶媒体上に連続して記録されることを上記内容は意味している。その結果ビデオマネージャメニューのエンハンストビデオオブジェクトセットVMGM_EVOBSを1度の再生でまとめて全部読取ることができ、再生処理の利便性とユーザに表示するまでの時間の短縮化が図れる。 8) In the enhanced video object set VMGM_EVOBS of the video manager menu, each enhanced video object needs to be recorded continuously. As described above, it has been described above that the enhanced video object set VMGM_EVOBS of the video manager menu can exceed 1 GB and can separately record information of 1 GB or less. In this case, the above content means that each divided file is continuously recorded on the information storage medium. As a result, the enhanced video object set VMGM_EVOBS of the video manager menu can be read all at once in one playback, and the convenience of playback processing and the time until display to the user can be shortened.
9) 情報記憶媒体挿入直後の最初に表示するメニューFP_PGCM_EVOBとビデオマネージャメニューのエンハンストビデオオブジェクトセットVMGM_EVOBSが存在しない場合、ビデオマネージャインフォメーションVMGIとビデオマネージャインフォメーションのバックアップファイルVMGI_ BUPは、互いに連続した論理セクタ番号で構成される連続領域内に配置される必要がある。それにより、ビデオマネージャインフォメーションVMGIとビデオマネージャインフォメーションのバックアップファイルVMGI_ BUPの再生・利便性が向上する。 9) When the menu FP_PGCM_EVOB to be displayed first immediately after the information storage medium is inserted and the enhanced video object set VMGM_EVOBS of the video manager menu do not exist, the video manager information VMGI and the backup file VMGI_BUP of the video manager information are logical sector numbers consecutive to each other. Must be arranged in a continuous area composed of As a result, playback and convenience of the video manager information VMGI and the backup file VMGI_BUP of the video manager information are improved.
<エンハンストビデオオブジェクトセットの構造(Structure of Enhanced Video Object Set)>
エンハンストビデオオブジェクトセットEVOBSは、エンハンストビデオオブジェクトデータEVOBの集合体で構成され、それらはビデオデータ、オーディオデータ、サブピクチャーデータなどのデータから構成される。本実施形態において、エンハンストビデオオブジェクトセットEVOBSに対して以下のルールが適用される。
<Structure of Enhanced Video Object Set>
The enhanced video object set EVOBS is composed of a collection of enhanced video object data EVOB, which is composed of data such as video data, audio data, and sub-picture data. In the present embodiment, the following rules are applied to the enhanced video object set EVOBS.
1) 各エンハンストビデオオブジェクトデータEVOB、エンハンストビデオオブジェクトセットEVOBSは、連続ブロック又はインターリーブドブロック内に記録される。 1) Each enhanced video object data EVOB and enhanced video object set EVOBS are recorded in a continuous block or an interleaved block.
2) 1個のエンハンストビデオオブジェクトセットEVOBSは1以上のエンハンストビデオオブジェクトデータEVOBから構成される。 2) One enhanced video object set EVOBS is composed of one or more enhanced video object data EVOB.
3) 各エンハンストビデオオブジェクトデータEVOBに割り付けられるID番号EVOB_IDは、各エンハンストビデオオブジェクトデータEVOBが情報記憶媒体上に記録されているアドレスを示す論理セクタ番号LSNが小さい順にID番号が割り振られる。そして、最初の番号が1となり、順次インクリメントされる。 3) The ID number EVOB_ID assigned to each enhanced video object data EVOB is assigned an ID number in ascending order of the logical sector number LSN indicating the address where each enhanced video object data EVOB is recorded on the information storage medium. Then, the first number becomes 1, and is sequentially incremented.
1個のエンハンストビデオオブジェクトデータEVOBは1以上のセルから構成される。各セルに設定されたID番号C_IDは1個のエンハンストビデオオブジェクトデータEVOB内において、各セルが情報記憶媒体に記録された場所を表す論理セクタ番号LSNの小さい順に最小1として順次インクリメントされた数字が前記ID番号として設定される。 One enhanced video object data EVOB is composed of one or more cells. The ID number C_ID set for each cell is a number that is sequentially incremented as a minimum of 1 in ascending order of the logical sector number LSN indicating the location where each cell is recorded on the information storage medium in one enhanced video object data EVOB. Set as the ID number.
4) エンハンストビデオオブジェクトセットEVOBS内における各セルは、エンハンストビデオオブジェクトデータEVOBに割り付けられるID番号EVOB_IDと、各セルに設定されたID番号C_IDにより個々に識別することができる。 4) Each cell in the enhanced video object set EVOBS can be individually identified by the ID number EVOB_ID assigned to the enhanced video object data EVOB and the ID number C_ID set in each cell.
本実施形態において情報記憶媒体に記録する映像情報及びその管理情報として、アドバンストコンテンツADVCTとスタンダードコンテンツSTDCTの2種類のコンテンツを設定する。アドバンストコンテンツADVCTを持たせることにより柔軟かつ多様な表現力と、ネットワークアクションの映像関連情報の加工容易性と加工後情報の送信容易性を確保したいというユーザ要求に応えるともに、同時にスタンダードコンテンツSTDCTを持たせることにより、従来のDVD-Videoとのデータの互換性を確保するとともにネットワーク接続を前提としない安形情報再生装置でも本実施形態の映像情報が再生できるようにしているところに大きな特徴がある。 In this embodiment, two types of content, advanced content ADVCT and standard content STDCT, are set as video information to be recorded on the information storage medium and its management information. By providing advanced content ADVCT, it meets the user's request to ensure flexible and diverse expressive power, ease of processing of network-related video related information and easy transmission of post-processing information, and also has standard content STDCT As a result, the compatibility of data with the conventional DVD-Video is ensured and the video information of this embodiment can be played back even with a safe information playback device that does not assume network connection. .
図5に示すように各コンテンツが記録された情報記憶媒体として、図5に示すように3種類のカテゴリーを持つ情報記憶媒体を設定する。すなわち、図5(a)に示すように、カテゴリー1に対応した情報記憶媒体内に記録されるデータとしては、スタンダードコンテンツSTDCTの情報のみが記録された媒体を設定する。このカテゴリー1に対応した情報記憶媒体は、ネットワーク接続を前提としない安形情報再生装置とネットワーク接続を前提とした高級情報再生装置のいずれでも再生することができる。
As shown in FIG. 5, information storage media having three types of categories are set as shown in FIG. That is, as shown in FIG. 5 (a), as data recorded in the information storage medium corresponding to
カテゴリー2に対応した情報記録媒体内に記録されるデータとして、図5(b)に示すようにアドバンストコンテンツADVCTのみが記録されている情報記憶媒体も設定することが可能となる。この場合にはネットワーク接続を前提とした高機能な情報再生装置のみに再生が可能となる。更に図5(c)のように、同じ映像情報をアドバンストコンテンツADVCTとスタンダードコンテンツとSTDCTの両方の形態でそれぞれ記録するカテゴリー3に対応した情報記憶媒体を認めるところに本実施形態の大きな特徴がある。これによりカテゴリー3に対応した情報記憶媒体を用いると、ネットワーク接続機能を持つ高級な情報再生装置ではアドバンストコンテンツADVCTを再生することができるとともにネットワーク接続を前提としない安形情報再生装置では、スタンダードコンテンツSTDCTを再生することができるため、どのような機種にも最適なコンテンツをユーザに表示(提供)することが可能となる。
As data recorded in the information recording medium corresponding to
<カテゴリ1のディスク(Category1 Disc)>
図5(a)に示すカテゴリー1に対応した情報記憶媒体においては、メニュー画面を構成する1個のビデオマネージャVMGと映像情報が管理される1以上のスタンダードビデオタイトルセットSVTSとから構成されるスタンダードコンテンツSTDCTが記録されている。
<
In the information storage medium corresponding to
上記情報記憶媒体には、アドバンストコンテンツADVCTの情報は記録されていない。 Information on the advanced content ADVCT is not recorded on the information storage medium.
<カテゴリ2のディスク(Category2 Disc)>
図5(b)に示すカテゴリー2に対応した情報記憶媒体においては、アドバンストコンテンツADVCTのみが記録され、スタンダードコンテンツSTDCTは記録されない。
<
In the information storage medium corresponding to
<カテゴリ3のディスク(Category3 Disc)>
図5(c)に示すカテゴリー3に対応した情報記憶媒体においては、アドバンストコンテンツADVCTとスタンダードコンテンツSTDCTが記録される。カテゴリー3に対応した情報記憶媒体内には、後述するプライマリービデオセットPRMVSが定義される。前記プライマリービデオセットPRMVS内において、情報記憶媒体挿入直後に表示する画面に対応したファーストプレイドメインFP_DOMもメニューが表示されるビデオマネージャメニュードメインVMGM_DOMも両方のドメインは、前記プライマリービデオセットPRMVS内には定義されない。しかし、前記プライマリービデオセットPRMVS以外の領域において、ファーストプレイドメインFP_DOMとビデオマネージャメニュードメインVMGM_DOMは、前記カテゴリー3に対応した情報記憶媒体内に存在してもよい。更に情報再生装置において、前記ファーストプレイドメインFP_DOMあるいはビデオマネージャドメインVMGM_DOMへの遷移を支持するナビゲーションコマンドは無視しなければならない。情報記憶媒体挿入直後に表示する画面に対応したファーストプレイドメインFP_DOMとビデオマネージャドメインVMGM_DOMは基本的にスタンダードコンテンツSTDCTにおけるメニュー操作の時に必要となる。しかし本実施形態では、図9もしくは、図6に示すようにアドバンスドコンテンツADVCTでメニュー処理を行い、必要に応じてスタンダードコンテンツSTDCT内の映像情報が記録されているスタンダードビデオタイトルセットSVTSを参照している。このように、情報記憶媒体挿入直後に表示されているメニューのファーストプレイドメインFP_DOMとビデオマネージャドメインVMGM_DOMへの遷移を禁止することで、常にアドバンストコンテンツADVCT上でのメニュー処理を確保でき、ユーザへの混乱を避けることができる。という効果を持っている。前期カテゴリー3に対応した情報記憶媒体はスタンダードコンテンツSTDCTを含むが、この情報記憶媒体は図5(b)で示したカテゴリー2に対応した情報記憶媒体のルールに従う。
<
In the information storage medium corresponding to
<プライマリビデオセット(Primary Video Set)>
図5(c)に示した、プライマリービデオセットPRMVSの内容について以下に示す。アドバンストコンテンツADVCT内におけるプライマリービデオセットPRMVSは、アドバンストビデオタイトルセットADVTSとスタンダードビデオタイトルセットSVTSと、ビデオマネージャVMGにより構成される。これらのビデオタイトルセットは主にスタンダードコンテンツSTDCTに使われるが、基本的にはアドバンストビデオタイトルセットADVTSはアドバンストコンテンツADVCTにおいてのみ使われ、スタンダードビデオタイトルセットSVTSはアドバンストコンテンツADVCT内において使うこともできる。アドバンストコンテンツADVCT内において、プライマリービデオセットPRMVS内でのビデオマネージャVMGにおいては存在してもよい。しかし、アドバンストコンテンツADVCTを使用している最中に、前述したビデオマネージャメニュードメインVMGM_DOMやファーストプレイドメインFP_DOMへの遷移することは禁止されている。情報記憶媒体挿入直後に表示する画面に対応したファーストプレイドメインFP_DOMとビデオマネージャドメインVMGM_DOMは基本的にスタンダードコンテンツSTDCTにおけるメニュー操作の時に必要となる。しかし本実施形態では、図9もしくは、図6に示すようにアドバンスドコンテンツADVCTでメニュー処理を行い、必要に応じてスタンダードコンテンツSTDCT内の映像情報が記録されているスタンダードビデオタイトルセットSVTSを参照している。このように、情報記憶媒体挿入直後に表示されているメニューのファーストプレイドメインFP_DOMとビデオマネージャドメインVMGM_DOMへの遷移を禁止することで、常にアドバンストコンテンツADVCT上でのメニュー処理を確保でき、ユーザへの混乱を避けることができる。という効果を持っている。前記プライマリービデオセットPRMVSのデータは、カテゴリー3に対応した情報記憶媒体内に記録される。記録されるデータ構造として前述したHVDVD_TSディレクトリ内に配置されるが、それに限らず前記プライマリービデオセットPRMVSはパーシステントストレージ内に記録されてもよい。
<Primary Video Set>
The contents of the primary video set PRMVS shown in FIG. The primary video set PRMVS in the advanced content ADVCT includes an advanced video title set ADVTS, a standard video title set SVTS, and a video manager VMG. These video title sets are mainly used for the standard content STDCT, but basically the advanced video title set ADVTS is used only in the advanced content ADVCT, and the standard video title set SVTS can also be used in the advanced content ADVCT. In the advanced content ADVCT, it may exist in the video manager VMG in the primary video set PRMVS. However, the transition to the video manager menu domain VMGM_DOM or the first play domain FP_DOM described above is prohibited while using the advanced content ADVCT. The first play domain FP_DOM and the video manager domain VMGM_DOM corresponding to the screen to be displayed immediately after the information storage medium is inserted are basically required for menu operations in the standard content STDCT. However, in the present embodiment, as shown in FIG. 9 or FIG. 6, the menu processing is performed by the advanced content ADVCT, and the standard video title set SVTS in which the video information in the standard content STDCT is recorded is referred to as necessary. Yes. In this way, by prohibiting the transition of the menu displayed immediately after insertion of the information storage medium to the first play domain FP_DOM and the video manager domain VMGM_DOM, menu processing on the advanced content ADVCT can be secured at all times. Can avoid confusion. Has the effect. The data of the primary video set PRMVS is recorded in an information storage medium corresponding to
<コンテンツの種類(Content Type)>
少なくとも、前記プライマリービデオセットPRMVSと少なくとも1個のプレイリストPLLST(詳細は後述する)は、前記カテゴリー2又はカテゴリー3に対応した情報記憶媒体内に記録されなければならない。図5(b)及び図5(c)に記載されたアドバンストコンテンツADVCTに関係する他の情報は、前記情報記憶媒体に記録することもできるが他にネットワークを経由してサーバから配信を受けることもできる。
<Content Type>
At least the primary video set PRMVS and at least one playlist PLLST (details will be described later) must be recorded in an information storage medium corresponding to the
<ボリュームスペースの構造(Structure of Volume Space)>
図5(c)を用い、情報記憶媒体内に記録されるアドバンストコンテンツADVCTとスタンダードコンテンツSTDCTの記録場所について説明を行う。以下に説明する部分において、アドバンストコンテンツADVCTのみの記録場所が設定されているものが図5(b)に対応し、スタンダードコンテンツSTDCTのみの記録場所が設定されているものが図5(a)に示すカテゴリー1に対応した情報記憶媒体になる。図5(c)に示すように情報記憶媒体上に各コンテンツを記録する空間をボリュームスペースとして定義し前記ボリュームスペース内では全ての場所に論理セクタ番号LSNが付与されている。本実施形態において、ボリュームスペース内は以下の3つの領域から構成されている。
<Structure of Volume Space>
The recording location of the advanced content ADVCT and standard content STDCT recorded in the information storage medium will be described with reference to FIG. In the portion described below, the recording location for only the advanced content ADVCT corresponds to FIG. 5B, and the recording location for only the standard content STDCT is set in FIG. 5A. The information storage medium corresponds to the
1) ボリュームとファイル構造が記載されている場所(ファイルシステム管理情報記録領域)
…この領域は図5(c)には記載されていないがファイルシステムの管理情報を記録する領域が定義されている。本実施形態では、UDF(Uniform Disc Format)に準拠しファイルシステムが構築されている。上記領域はそのファイルシステムの管理情報が記録される領域を示している。
1) Location where the volume and file structure are written (file system management information recording area)
This area is not described in FIG. 5C, but an area for recording file system management information is defined. In the present embodiment, a file system is constructed in conformity with UDF (Uniform Disc Format). The area indicates an area where management information of the file system is recorded.
2) 1個のHD_DVD-Videoゾーン
…上記の領域に図5(c)に記載された本実施形態におけるデータが記録されている。この領域はアドバンストコンテンツADVCTを記録する領域とスタンダードコンテンツSTDCTが記録される領域から構成されている。
2) One HD_DVD-Video zone: The data in this embodiment described in FIG. 5C is recorded in the above-mentioned area. This area is composed of an area for recording advanced content ADVCT and an area for recording standard content STDCT.
3) 他のDVD関連情報記録領域
…本実施形態のHD_DVD-Videoで使用する以外のDVD関連の情報が記録される領域であり、例えばHD_DVDのビデオレコーディング規格に関係した情報や、現行DVD-Videoや現行DVD-Audioに関する情報をこの領域に記録することができる。
3) Other DVD-related information recording area: This is an area in which DVD-related information other than that used in HD_DVD-Video of this embodiment is recorded. For example, information related to the HD_DVD video recording standard and current DVD-Video And information about the current DVD-Audio can be recorded in this area.
<HD_DVD-Video領域に適用されるルール(Rules Applied for HDDVD-Video Zone)>
上記2番目に記載し、図5(c)に記載されたHD_DVD-Video領域において、本実施形態では以下の規則を設定する。
<Rules Applied for HDDVD-Video Zone>
In the HD_DVD-Video area described second and described in FIG. 5C, the following rules are set in this embodiment.
1) カテゴリー1とカテゴリー3に準拠した情報記録媒体では、スタンダードコンテンツSTDCTの記録領域内には1個のビデオマネージャVMGの情報と1から1以上511以下のビデオタイトルセットVTSを記録することができる。カテゴリー2に対応した情報記憶媒体では前記スタンダードコンテンツSTDCTの記録領域を設定することはできない。
1) In an information recording medium compliant with
2) ビデオマネージャVMGはカテゴリー1に対応した情報記憶媒体においてビデオマネージャVMGは、HD_DVD-Video記録領域の中で最初の場所に記録しなければならない。
2) In the information storage medium corresponding to
3) ビデオマネージャVMGは2以上最大102個のファイルから構成されなければならない。 3) The video manager VMG must be composed of 2 or more and a maximum of 102 files.
4) アドバンストビデオタイトルセットADVTSを除く各ビデオタイトルセットVTSは、少なくとも3以上200以下のファイルから構成されなければならない。 4) Each video title set VTS except the advanced video title set ADVTS must be composed of at least 3 and 200 files.
5) アドバンストコンテンツADVCT記録領域は、アドバンストビデオタイトルセットADVTSからなるアドバンストコンテンツADVCTの情報が記録されたファイルから構成される。アドバンストコンテンツADVCT記録領域内で記録されるファイル数の最大数は512×2047個とする。 5) The advanced content ADVCT recording area is composed of a file in which information of the advanced content ADVCT consisting of the advanced video title set ADVTS is recorded. The maximum number of files recorded in the advanced content ADVCT recording area is 512 × 2047.
6) アドバンストビデオタイトルセットADVTSは、3以上2999以下のファイルから構成されなければならない。 6) The advanced video title set ADVTS must consist of 3 to 2999 files.
図6を用いアドバンストコンテンツADVCTの再生時とスタンダードコンテンツSTDCTの再生時における遷移関係の説明を行う。図5(c)に示すカテゴリー3に対応した情報記憶媒体において、アドバンストコンテンツADVCTとスタンダードコンテンツSTDCTはそれぞれ独立に再生することが可能な構造になっている。インターネット接続を持った高級な情報再生装置にカテゴリー3に対応した情報記憶媒体を挿入すると、前記再生装置は初期状態INSTTの段階でアドバンストコンテンツADVCTの中に含まれるアドバンストナビゲーションADVNVを読みに行く。その後、アドバンストコンテンツ再生状態ADVPSへ遷移する。この処理状況は図5(b)に示したカテゴリー2に対応した情報記憶媒体が挿入された場合にも同じ処理がなされる。図6のアドバンストコンテンツ再生状態ADVPSにおいて、マークアップMRKUPやスクリプトSCRPTに対応したコマンドMSCMDが実行されることにより再生状況がスタンダードコンテンツ再生状態STDPSへ遷移することができる。またスタンダードコンテンツ再生状態STDPSにおいては、スタンダードコンテンツSTDCT内に設定されたナビゲーションコマンド内のコマンドNCCMDが実行されることによりアドバンストコンテンツ再生状態ADVPSへ戻ることが可能となる。
The transition relationship between the advanced content ADVCT playback and the standard content STDCT playback will be described with reference to FIG. In the information storage medium corresponding to
スタンダードコンテンツSTDCTにおいて現行のDVD-Videoと同様、例えば表示アングル番号や再生音声番号などシステム的に設定された情報が記録されているシステムパラメータが定義されているが、本実施形態においては、アドバンストコンテンツ再生状態ADVPSにおいてもアドバンストコンテンツADVCTから前記のシステムパラメータに設定するデータを再生、あるいは前記システムパラメータの値を変更することが可能となっている。それにより従来のDVD-Videoの再生との互換性を確保できる。アドバンストコンテンツ再生状態ADVPSとスタンダードコンテンツ再生状態STDPS間のどちらの方向の遷移が行われていても、本実施形態においては前記システムパラメータの設定値は遷移をされてもシステムパラメータの値の継続性が保たれる。 As with the current DVD-Video, standard content STDCT defines system parameters that record system-set information such as the display angle number and playback audio number. In this embodiment, advanced content is defined. Even in the reproduction state ADVPS, it is possible to reproduce the data set in the system parameter from the advanced content ADVCT or change the value of the system parameter. This ensures compatibility with conventional DVD-Video playback. Regardless of which direction of transition is made between the advanced content playback state ADVPS and the standard content playback state STDPS, in this embodiment, the system parameter setting value does not change even if the system parameter setting value is changed. Kept.
図5(c)に示したカテゴリー3に対応した情報記憶媒体に対し、ユーザの好みでアドバンストコンテンツADVCTとスタンダードコンテンツSTDCT間で任意の遷移を行った場合、このようにシステムパラメータの値に継続性を持つことにより、例えば表示言語が遷移間でも同じに保たれユーザの再生時の利便性を確保することができる。
When an arbitrary transition is made between the advanced content ADVCT and the standard content STDCT according to the user's preference for the information storage medium corresponding to
図5に示した3種類の情報記憶媒体を装着した時の本実施形態における再生装置の媒体識別処理方法について図7に示す。 FIG. 7 shows a medium identification processing method of the reproducing apparatus in this embodiment when the three types of information storage media shown in FIG. 5 are loaded.
ネットワーク接続機能を持った高級な情報再生装置に情報記憶媒体を装着すると、情報再生装置はHD_DVDに対応した情報記憶媒体か否かを示す(ステップS21)。HD_DVDに対応した情報記憶媒体の場合には図11に示すルートディレクトリの直下にあるアドバンストコンテンツディレクトリADVCTの中に記録されているプレイリストファイルPLLSTを探しに行く。プレイリストファイルPLLSTが存在した場合には、前記情報記憶媒体はカテゴリー2もしくはカテゴリー3に対応していると判断する(ステップS22、S23)。もしプレイリストファイルPLLSTが存在しない場合には、スタンダードコンテンツSTDCT内のビデオマネージャインフォメーションVMGI内に記録されているビデオマネージャID番号VMGM_IDのチェックを行う(ステップS24)。もし、カテゴリー1に対応した情報記憶媒体の場合にはビデオマネージャID番号VMGM_IDが特定なデータとして記録されており、ビデオマネージャカテゴリーVMG_CAT内の情報からカテゴリー1に対応したスタンダードコンテンツSTDCTのみが記録されていることを識別することができる(ステップS24、S25)。もし、装着された情報記憶媒体が図5に記載されたいずれのカテゴリーにも属さない情報記憶媒体の場合には各再生装置の対応処理に任せる(ステップS26)。
When an information storage medium is mounted on a high-quality information reproducing apparatus having a network connection function, the information reproducing apparatus indicates whether or not the information recording medium is compatible with HD_DVD (step S21). In the case of an information storage medium compatible with HD_DVD, the playlist file PLLST recorded in the advanced content directory ADVCT immediately below the root directory shown in FIG. 11 is searched. If the playlist file PLLST exists, it is determined that the information storage medium corresponds to
本実施形態では、映像の表示機能を持たず音声情報(オーディオ)のみを再生する再生装置も対応する。前記オーディオのみの情報再生装置におけるスタートアップシーケンスを図8に示す。 In the present embodiment, a playback device that does not have a video display function and plays back only audio information (audio) is also supported. FIG. 8 shows a startup sequence in the audio-only information reproducing apparatus.
前記情報再生装置に情報記憶媒体を装着すると、まずHD_DVDに対応した情報記憶媒体か否かを判定する(ステップS31)。本実施形態におけるHD_DVDに対応した情報記憶媒体でない場合には、ステップS34に示すように情報再生装置に依存した処理方法に任せる。装着した情報記憶媒体が本実施形態のHD_DVDに対応した情報記憶媒体の場合には、再生装置はルートディレクトリの直下にあるアドバンストコンテンツディレクトリADVCTに記録されたプレイリストファイルPLLSTの有無を確認する。もし、プレイリストファイルPLLSTが存在した場合には音声のみの情報再生を行う再生装置として音声情報の再生を行う(ステップS32)。この時にも前記情報再生装置は必ずプレイリストファイルPLLSTを経由し情報の再生を行う(ステップS33)。 When an information storage medium is loaded in the information reproducing apparatus, it is first determined whether or not the information storage medium is compatible with HD_DVD (step S31). If the information storage medium is not compatible with HD_DVD in this embodiment, the processing method depends on the information reproducing apparatus as shown in step S34. When the mounted information storage medium is an information storage medium compatible with HD_DVD of the present embodiment, the playback device checks whether there is a playlist file PLLST recorded in the advanced content directory ADVCT immediately below the root directory. If the playlist file PLLST is present, the audio information is reproduced as a reproduction apparatus that reproduces only audio information (step S32). Also at this time, the information reproducing apparatus always reproduces information via the playlist file PLLST (step S33).
図9を用い本実施形態におけるスタンダードコンテンツSTDCT内のエンハンストビデオオブジェクトデータEVOBとアドバンストコンテンツADVCTのエンハンストビデオオブジェクトデータEVOBに対する管理方法の違い(コンテンツへのデータアクセスの違いなど)について説明を行う。 Differences in management methods (such as differences in data access to content) between the enhanced video object data EVOB in the standard content STDCT and the enhanced video object data EVOB in the advanced content ADVCT in this embodiment will be described with reference to FIG.
本実施形態においてスタンダードコンテンツSTDCTでの管理情報であるスタンダードビデオタイトルセットインフォメーションSTVTSI上では、各エンハンストビデオオブジェクトデータEVOBへのアクセス情報として論理空間上のアドレス情報である論理セクタ番号LSNで指定されている。このように、アドレス情報で管理することにより、現行のDVD-Video規格との間の互換性を確保している。それに対し、アドバンストコンテンツADVCTにおけるエンハンストビデオオブジェクトデータEVOBの管理方法がアドレス情報ではなく、時間情報により管理しているところに大きな特徴がある。それにより、現行の録画再生が可能なビデオレコーディング規格との互換性を確保できるだけでなく編集の容易性を確保できる。すなわち、アドバンストコンテンツADVCT上での再生管理情報を表すプレイリストPLLSTでは、再生位置アドバンストビデオオブジェクトデータEVOB上の再生範囲を時間情報で設定している。本実施形態におけるアドバンストコンテンツADVCTにおいては、プレイリストPLLSTで指定された時間情報をタイムマップインフォメーションTMAPIによりアドレス情報に変換することができる。前記タイムマップインフォメーションTMAPIは指定された時間情報から情報記憶媒体上の論理アドレス位置を示す論理セクタ番号LSNに変換するための情報である。前記タイムマップインフォメーションTMAPIは前記プレイリストPLLSTとは別位置に記録されている。更にスタンダードコンテンツSTDCTのスタンダードビデオタイトルセットインフォメーションSTVTSIに対応するものとして、アドバンストコンテンツADVCTではアドバンストビデオタイトルセットインフォメーションADVTSIが存在する。このアドバンストビデオタイトルセットインフォメーションADVTSI内には各エンハンストビデオオブジェクトデータEVOBの個々の属性情報が記録されているエンハンストビデオオブジェクトインフォメーションEVOBI情報が記録されている。このエンハンストビデオオブジェクトインフォメーションEVOBI情報が属性情報の管理として個々のエンハンストビデオオブジェクトデータEVOBを参照かつ管理している。このアドバンストビデオオブジェクトインフォメーションEVOBI#3がスタンダードコンテーツSTDCT内のエンハンストビデオオブジェクトデータEVOBの属性を管理及び参照することによりアドバンストコンテンツADVCTの再生を管理するプレイリストPLLST内でスタンダードコンテンツSTDCT内のエンハンストビデオオブジェクトデータEVOBの再生をも指定することができる。
In this embodiment, on the standard video title set information STVTSI which is management information in the standard content STDCT, it is specified by the logical sector number LSN which is address information on the logical space as access information to each enhanced video object data EVOB. . In this manner, compatibility with the current DVD-Video standard is ensured by managing the address information. On the other hand, the management method of the enhanced video object data EVOB in the advanced content ADVCT is characterized in that it is managed not by address information but by time information. As a result, compatibility with the current video recording standard capable of recording and playback can be ensured as well as easy editing. That is, in the playlist PLLST representing the playback management information on the advanced content ADVCT, the playback range on the playback position advanced video object data EVOB is set by time information. In the advanced content ADVCT in this embodiment, the time information specified by the playlist PLLST can be converted into address information by the time map information TMAPI. The time map information TMAPI is information for converting specified time information into a logical sector number LSN indicating a logical address position on the information storage medium. The time map information TMAPI is recorded at a different position from the playlist PLLST. Further, advanced video title set information ADVTSI exists in advanced content ADVCT as corresponding to standard video title set information STVTSI of standard content STDCT. In this advanced video title set information ADVTSI, enhanced video object information EVOBI information in which individual attribute information of each enhanced video object data EVOB is recorded. This enhanced video object information EVOBI information refers to and manages individual enhanced video object data EVOB as management of attribute information. The advanced video object
<アドバンストコンテンツによるスタンダードコンテンツの利用(Utilization of Standard Content by Advanced Content)>
上述したようにアドバンストコンテンツADVCTから、スタンダードコンテンツSTDCTの一部を利用できるようになっていることに本実施形態の特徴がある。
<Utilization of Standard Content by Advanced Content>
As described above, a feature of this embodiment is that a part of the standard content STDCT can be used from the advanced content ADVCT.
例えば図9に示すように、アドバンストコンテンツADVCT内のタイムマップインフォメーションTMAPI#3を利用し、アドバンストビデオタイトルセットインフォメーションADVTSI内のエンハンストビデオオブジェクトインフォメーションEVOBI#3が、スタンダードコンテンツSTDCT内のエンハンストビデオオブジェクデータEVOB#3を参照し、前記エンハンストビデオオブジェクトデータEVOB#3を再生できるようになっている。また図9に示すようにアドバンストコンテンツ内のエンハンストビデオオブジェクトインフォメーションEVOBI#3から参照されたエンハンストビデオオブジェクトデータEVOB#3は、スタンダードビデオタイトルセットインフォメーションSTVTSIからも参照可能である。このように本実施形態において同一のスタンダードコンテンツSTDCT内のエンハンストビデオオブジェクトデータEVOB#3が複数のところから参照可能とすることにより、兼用して利用でき情報記憶媒体上に記録するデータの効率・向上が行える。
For example, as shown in FIG. 9, using the time map
しかしながら、このエンハンストビデオオブジェクトデータEVOB#3の中にはハイライトインフォメーションHLIや、プレゼンテーションコントロールインフォメーションPCIなどの情報が含まれているが、これらの情報に対しては、アドバンストコンテンツADVCTはサポートせず、これらハイライトインフォメーションHLIやプレゼンテーションコントロールインフォメーションPCIで規定された情報はプレイリストPLLSTに基づくアドバンストコンテンツADVCT再生時には無視される。
However, this enhanced video object
<アドバンストビデオタイトルセット(Advanced VTS)>
図9に示すアドバンストビデオタイトルセットADVTSについて説明を行う。前記アドバンストビデオタイトルセットADVTSは、アドバンストコンテンツADVCTに対するビデオタイトルセットとして利用される。図9に示したアドバンストビデオタイトルセットADVTSとスタンダードビデオタイトルセットSVTSの違いを以下に示す。
<Advanced Video Title Set (Advanced VTS)>
The advanced video title set ADVTS shown in FIG. 9 will be described. The advanced video title set ADVTS is used as a video title set for the advanced content ADVCT. The difference between the advanced video title set ADVTS and the standard video title set SVTS shown in FIG. 9 is shown below.
1) アドバンストコンテンツADVCT内エンハンストビデオオブジェクトデータEVOBサポート情報
1個のメインビデオストリームMANVDを持つことができ、最大8個までのメインオーディオストリームMANADと1個のサブビデオストリームSUBVDと最大8個までのサブオーディオストリームSUBADと最大32個までのサブピクチャーストリーム(副映像)SUBPTと1個のアドバンストストリーム(後述するアドバンストアプリケーションADAPLが記録されるストリームデータ)を持つことができる。
1) Advanced Content ADVCT Enhanced Video Object Data EVOB Support Information Can have one main video stream MANVD, up to 8 main audio streams MANAD, 1 sub video stream SUBVD, and up to 8 subs It can have an audio stream SUBAD, up to 32 sub-picture streams (sub-pictures) SUBPT, and one advanced stream (stream data in which an advanced application ADAPL to be described later is recorded).
2) エンハンストビデオオブジェクトセットEVOBSのインテグレーション
図4に示すようにスタンダードコンテンツSTDTCにおいてはメニュー画面を表すビデオマネージャVMG内のエンハンストビデオオブジェクトデータEVOBと再生する映像そのものを表すスタンダードビデオタイトルセットSVTS内のエンハンストビデオオブジェクトデータEVOBが完全に分離され、同時に動画とメニュー画面を同時に表示することはできなかった。それに対して本実施形態におけるアドバンストビデオタイトルセットADVCTでは、メニュー画面と動画を表す映像画面と混合して管理/表示することができる。
2) Integration of enhanced video object set EVOBS As shown in FIG. 4, in standard content STDTC, enhanced video object data EVOB in the video manager VMG representing the menu screen and enhanced video in the standard video title set SVTS representing the video to be played back. The object data EVOB was completely separated, and it was not possible to display the movie and the menu screen at the same time. On the other hand, in the advanced video title set ADVCT in the present embodiment, the menu screen and the video screen representing the moving image can be mixed and managed / displayed.
3) 映像に対する管理情報の階層化の廃止
現行のDVD-VideoおよびスタンダードコンテンツSTDCTにおいては、映像の管理単位としてプログラムチェーンPGC/パートオブタイトルPTT/セルの階層構造を取っていたが、本実施形態におけるアドバンストコンテンツADVCTの管理方法としてはこのような階層構造を取らない。また、現行DVD-VideoとおよびスタンダードコンテンツSTDCTでは、ジャンプ処理など特殊処理を行うためのナビゲーションコマンドや、ユーザオペレーション処理を行っていたが、本実施形態におけるアドバンストコンテンツADVCTでは、それらの処理も行わない。
3) Abolition of hierarchy of management information for video In the current DVD-Video and standard content STDCT, the hierarchical structure of the program chain PGC / part of title PTT / cell was adopted as the video management unit. The advanced content ADVCT management method in Japan does not take such a hierarchical structure. In addition, in the current DVD-Video and standard content STDCT, navigation commands for performing special processing such as jump processing and user operation processing were performed. However, in the advanced content ADVCT in this embodiment, such processing is not performed. .
4) 新たなタイムマップインフォメーションTMAPIの導入
後述するコンティギュアスブロックにおいて1個のタイムマップインフォメーションTMAPIは、1個のエンハンストビデオオブジェクトデータEVOBに対応して各タイムマップインフォメーションTMAPIはそれぞれ1ファイルとして情報記憶媒体上に記録される。インターリーブドブロックの場合には、そのインターリーブドブロック内のそれぞれのストリームに対応した複数のエンハンストビデオオブジェクトデータEVOBが含まれるが、個々のエンハンストビデオオブジェクトデータEVOBに対応してタイムマップインフォメーションTMAPIが設定され、1個のインターリーブドブロック単位でそれら複数のタイムマップインフォメーションTMAPIが1個のファイル内に記録される。さらに、従来のDVD-Video及びスタンダードコンテンツSTDCTで定義されるナビゲーションパックNV_PCK内の情報は簡素化され、記録される。
4) Introduction of new time map information TMAPI One time map information TMAPI is stored as one file corresponding to one piece of enhanced video object data EVOB in the continuous block described later. Recorded on the medium. In the case of an interleaved block, a plurality of enhanced video object data EVOB corresponding to each stream in the interleaved block is included, but time map information TMAPI is set corresponding to each enhanced video object data EVOB. The plurality of time map information TMAPI is recorded in one file in units of one interleaved block. Furthermore, information in the navigation pack NV_PCK defined by the conventional DVD-Video and standard content STDCT is simplified and recorded.
<アドバンストビデオタイトルセットの構造(Structure of Advanced Video Title Set (Advanced VTS))>
図9に示したアドバンストコンテンツADVCTにおけるアドバンストビデオタイトルセットADVTSの中のデータ構造について以下に説明を行う。
<Structure of Advanced Video Title Set (Advanced VTS)>
The data structure in the advanced video title set ADVTS in the advanced content ADVCT shown in FIG. 9 will be described below.
本実施形態においてアドバンストビデオタイトルセットADVTSは、映像情報そのものを表す1個のタイトルから1個のアドバンストビデオタイトルセットADVTSが成り立っている。本実施形態においてアドバンストビデオタイトルセットADVTSは、制御情報が記録されているアドバンストビデオタイトルセットインフォメーションADVTSIと、映像そのものを表す映像のタイトルが入っているエンハンストビデオオブジェクトセットVTSTT_EVOBSと、図9に示すようなタイムマップインフォメーションTMAPIが記録されるビデオタイトルセットタイムマップインフォメーションVTS_TMAPと、前記アドバンストビデオタイトルセットADVTSのバックアップ情報ADVTSI_BUPと前記タイムマップインフォメーションのバックアップVTS_TMAP_BUPから構成される。それらは、前記記載した順番に従い情報記憶媒体上に連続して記録されなければならない。本実施形態におけるアドバンストビデオタイトルセットADVTSが従うべきルールを以下に説明する。 In this embodiment, the advanced video title set ADVTS is composed of one advanced video title set ADVTS from one title representing the video information itself. In this embodiment, the advanced video title set ADVTS includes advanced video title set information ADVTSI in which control information is recorded, an enhanced video object set VTSTT_EVOBS containing a video title representing the video itself, as shown in FIG. It consists of video title set time map information VTS_TMAP in which time map information TMAPI is recorded, backup information ADVTSI_BUP of the advanced video title set ADVTS, and backup VTS_TMAP_BUP of the time map information. They must be recorded continuously on the information storage medium according to the order described above. The rules to be followed by the advanced video title set ADVTS in this embodiment will be described below.
1) 制御情報であるアドバンストビデオタイトルセットインフォメーションADVTSIとそのバックアップ情報ADVTSI_BUPは、それぞれ1個ずつのファイルとして情報記憶媒体に記録される。 1) Advanced video title set information ADVTSI and its backup information ADVTSI_BUP, which are control information, are recorded as one file on the information storage medium.
2) アドバンストビデオタイトルセットインフォメーションADVTSIとそのバックアップ情報ADVTSI_BUPは同じ1個のECCブロック内に共存してはならない。アドバンストビデオタイトルセットインフォメーションADVTSIとそのバックアップ情報ADVTSI_BUPが連続記録される場合、アドバンストビデオタイトルセットインフォメーションADVTSI内の最後の情報が1個のECCブロックの途中に来た場合に、同一ECCブロック内の残りの部分にパディング情報を入れ、次に来るバックアップ情報ADVTSI_BUPとは別のECCブロック内に配置されるように工夫する必要がある。それにより、アドバンストビデオタイトルセットインフォメーションADVTSIと次に来るバックアップ情報ADVTSI_BUPとの間の境界部分でのECCブロックがエラーにより読めなくてもどちらか一方が再生でき、再生時の信頼性が向上する。 2) Advanced video title set information ADVTSI and its backup information ADVTSI_BUP must not coexist in the same ECC block. When advanced video title set information ADVTSI and its backup information ADVTSI_BUP are recorded continuously, when the last information in advanced video title set information ADVTSI comes in the middle of one ECC block, the remaining information in the same ECC block It is necessary to devise so that padding information is put in the part and arranged in a different ECC block from the next backup information ADVTSI_BUP. As a result, even if the ECC block at the boundary between the advanced video title set information ADVTSI and the next backup information ADVTSI_BUP cannot be read due to an error, one of them can be reproduced, and the reliability during reproduction is improved.
3) 各ビデオタイトルセットタイムマップインフォメーションVTS_TMAPとそのバックアップ情報VTS_TMAP_BUPは、それぞれ1個以上最大999以下のファイル内にそれぞれ記録されなければならない。 3) Each video title set time map information VTS_TMAP and its backup information VTS_TMAP_BUP must be recorded in one file or more and a maximum of 999 files respectively.
4) 各ビデオタイトルセットタイムマップインフォメーションVTS_TMAPとそのバックアップ情報VTS_TMAP_BUPは、1個の同一ECCブロック内に共存記録されてはならない。すなわち、2)と同様、両者の境界部分が1個のECCブロック内に配置されそうになった場合には、ビデオタイトルセットタイムマップインフォメーションVTS_TMAPの最後の部分が1ECCブロックの途中で終わった場合には、パディングデータを記録し、次のバックアップVTS_TMAP_BUPが次のECCブロックの先頭位置から記録されるように配置する。それにより再生時の信頼性を確保することができる。 4) Each video title set time map information VTS_TMAP and its backup information VTS_TMAP_BUP must not be recorded together in one ECC block. That is, as in 2), when the boundary between the two is likely to be arranged in one ECC block, the last part of the video title set time map information VTS_TMAP ends in the middle of one ECC block. Records padding data and arranges so that the next backup VTS_TMAP_BUP is recorded from the head position of the next ECC block. Thereby, the reliability at the time of reproduction can be ensured.
5) 各ビデオタイトルセットタイムマップインフォメーションVTS_TMAPを構成する複数のファイルは、情報記憶媒体上において連続した場所に記録されなければならない。それにより、光学ヘッドの不必要なジャンプアクセス処理を不要とし、1回の連続再生で前記ビデオタイトルセットタイムマップインフォメーションVTS_TMAPを再生することができ、再生処理の容易性と高速性が図られる。 5) A plurality of files constituting each video title set time map information VTS_TMAP must be recorded in continuous locations on the information storage medium. Thereby, unnecessary jump access processing of the optical head is not required, and the video title set time map information VTS_TMAP can be played back by one continuous playback, so that the playback processing is easy and fast.
6) 各ビデオタイトルセットタイムマップインフォメーションVTS_TMAPのバックアップVTS_TMAP_BUPを構成する複数のファイルは、情報記憶媒体上の連続した位置に記録されなければならない。それにより、上記5)と同様、再生処理の簡素化と高速化が図れる。 6) A plurality of files constituting the backup VTS_TMAP_BUP of each video title set time map information VTS_TMAP must be recorded at consecutive positions on the information storage medium. Thereby, similar to the above 5), the reproduction process can be simplified and speeded up.
7) タイトルが記録されたアドバンストビデオタイトルセットのエンハンストビデオオブジェクトセットVTSTT_EVOBSは、1個以上最大999個以下のファイルとして情報記憶媒体上に記録されなければならない。 7) The enhanced video object set VTSTT_EVOBS of the advanced video title set in which the title is recorded must be recorded on the information storage medium as one or more files and a maximum of 999 files.
8) アドバンストビデオタイトルセットのタイトルが記録されたエンハンストビデオオブジェクトセットVTSTT_EVOBSが記録された複数のファイルは、情報記憶媒体上で連続した位置に記録されなければならない。それにより、エンハンストビデオタイトルセットのタイトルが記録されたエンハンストビデオオブジェクトセットVTSTT_EVOBSを1度の連続再生で再生することができ、再生時の連続性を保証することができる。 8) A plurality of files in which the enhanced video object set VTSTT_EVOBS in which the title of the advanced video title set is recorded must be recorded at consecutive positions on the information storage medium. Thereby, the enhanced video object set VTSTT_EVOBS in which the title of the enhanced video title set is recorded can be reproduced by one continuous reproduction, and the continuity at the time of reproduction can be guaranteed.
9) アドバンストビデオタイトルセットインフォメーションADVTSIのバックアップADVTSI_BUPは、アドバンストビデオタイトルセットインフォメーションADVTSIと完全に一致した内容を持たなければならない。 9) The backup ADVTSI_BUP of the advanced video title set information ADVTSI must have exactly the same content as the advanced video title set information ADVTSI.
<エンハンストビデオオブジェクトセットの構造(Structure of Enhanced Video Object Set)>
以下に図9に示したアドバンストコンテンツADVCT内のエンハンストビデオオブジェクトデータEVOBのデータ構造について説明を行う。本実施形態では、前記エンハンストビデオオブジェクトデータEVOBの集合体をエンハンストビデオオブジェクトセットEVOBSと呼び、それらのデータはビデオデータ、オーディオデータ、サブピクチャーデータなどから構成される。アドバンストコンテンツADVCT内でのエンハンストビデオオブジェクトセットEVOBSに関しては、本実施形態では以下のルールが適用される。
<Structure of Enhanced Video Object Set>
The data structure of the enhanced video object data EVOB in the advanced content ADVCT shown in FIG. 9 will be described below. In the present embodiment, the aggregate of the enhanced video object data EVOB is called an enhanced video object set EVOBS, and these data are composed of video data, audio data, sub-picture data, and the like. Regarding the enhanced video object set EVOBS in the advanced content ADVCT, the following rules are applied in the present embodiment.
1) 各エンハンストビデオオブジェクトデータEVOBは後述するコンティギュアスブロック又はインターリーブドブロック内に記録される。 1) Each enhanced video object data EVOB is recorded in a continuous block or an interleaved block which will be described later.
2) 1個のエンハンストビデオオブジェクトセットEVOBSは、1以上のエンハンストビデオオブジェクトデータEVOBから構成される。前記、エンハンストビデオオブジェクトデータのID番号EVOB_IDは、情報記憶媒体上に記録された各エンハンストビデオオブジェクトデータEVOBの配置順に設定される。すなわち、各論理空間上でのエンハンストビデオオブジェクトデータEVOBが記録されたアドレスを表すロジカルセクタ番号LSNの若い順に前記ID番号EVOB_IDが付けられ、最初の番号は1として設定される。又、前記エンハンストビデオオブジェクトデータのID番号EVOB_IDは、アドバンストタイトルセットインフォメーションADVTSIで記述されるエンハンストビデオオブジェクトインフォメーションEVOBIの番号と一致する。すなわち図9示すように、エンハンストビデオオブジェクトデータEVOB#1はID番号EVOB_IDが“1”と設定され、エンハンストビデオオブジェクトデータEVOB#2のID番号EVOB_IDは“2”として設定され、それらを制御するエンハンストビデオオブジェクトインフォメーションEVOBI#1の番号が“1”、またエンハンストビデオオブジェクトデータEVOB#2を管理するエンハンストビデオオブジェクトインフォメーションEVOBI#2の番号も“2”と設定される。
2) One enhanced video object set EVOBS is composed of one or more enhanced video object data EVOB. The ID number EVOB_ID of the enhanced video object data is set in the arrangement order of the enhanced video object data EVOB recorded on the information storage medium. That is, the ID number EVOB_ID is assigned in ascending order of the logical sector number LSN representing the address where the enhanced video object data EVOB is recorded in each logical space, and the first number is set as 1. The ID number EVOB_ID of the enhanced video object data matches the number of the enhanced video object information EVOBI described in the advanced title set information ADVTSI. That is, as shown in FIG. 9, the enhanced video object
3) もし、エンハンストビデオオブジェクトデータEVOBがコンティギュアスブロック内に記録された場合には、各エンハンストビデオオブジェクトデータEVOBは、それぞれ対応した1個のタイムマップファイルを持つ。すなわち図9に示すように、エンハンストビデオオブジェクトデータ#1の時間を管理する部分としてタイムマップインフォメーションTMAPI#1が存在し、このタイムマップインフォメーションTMAPI#1が1個のタイムマップファイルとして情報記憶媒体上に記録される。複数のエンハンストビデオオブジェクトデータEVOBがインターリーブドブロックを構成する場合には、1個のインターリーブドブロックに対応して1個のタイムマップファイルが情報記憶媒体上に記録される。
3) If the enhanced video object data EVOB is recorded in the continuous block, each enhanced video object data EVOB has a corresponding one time map file. That is, as shown in FIG. 9, time map
<表示オブジェクト間の関係(Relation among Presentation Objects)>
本実施形態におけるアドバンストコンテンツADVCTでは、図10に示すオブジェクト情報を使用する。各オブジェクト情報のデータタイプ及びオブジェクト記録場所、デコーダー再生処理部の対応は図10に示すような状況になっている。まず始めにオブジェクトの記録場所としてネットワーク経由と、パーシステントストレージPRSTRについて説明を行う。
<Relation among Presentation Objects>
In the advanced content ADVCT in this embodiment, the object information shown in FIG. 10 is used. The correspondence between the data type of each object information, the object recording location, and the decoder reproduction processing unit is as shown in FIG. First, a description will be given of the object storage location via the network and persistent storage PRSTR.
<ネットワークサーバ(Network Server)>
図10オブジェクトの記録場所に関するネットワーク経由について説明を行う。
<Network Server>
FIG. 10 A description will be given of the network connection regarding the object recording location.
本実施形態において、アドバンストコンテンツADVCTを再生するためのオブジェクトの記録場所としてネットワークサーバNTSRVからネットワークを経由して転送されたオブジェクトデータの再生を前提としている。従って本実施形態における高機能なプレーヤは、ネットワークアクセスを前提としている。ネットワーク経由でデータを転送する場合のオブジェクトが記録されている場所を表すネットワークサーバNTSRVは、通常再生時の情報記憶媒体DISCのアドバンストコンテンツADVCT内でアクセスすべきサーバが指定されており、そのサーバ設定はアドバンストコンテンツADVCTを作成したコンテンツプロバイダにより設定される。前記ネットワークサーバNTSRVは通常インターネット上にネットワークサーバNTSRVが設定されている。 In the present embodiment, it is assumed that object data transferred from the network server NTSRV via the network as a recording location of an object for reproducing the advanced content ADVCT is assumed. Therefore, the high-functional player in this embodiment is premised on network access. The network server NTSRV, which represents the location where objects are transferred when transferring data over the network, specifies the server to be accessed in the advanced content ADVCT of the information storage medium DISC during normal playback. Is set by the content provider that created the advanced content ADVCT. The network server NTSRV is usually set up on the Internet.
<ネットワークサーバ上のデータカテゴリー(Data Categories on Network Server)>
本実施形態におけるアドバンストコンテンツADVCTが記録されたファイルが、前記ネットワークサーバNTSRV内に事前に記録されている。事前に設定されたアプリケーション処理コマンドAPIにより、アドバンストナビゲーションADVNVがファイルキャッシュFLCCH(データキャッシュDTCCH)又は後述するパーシステントストレージPRSTR上にダウンロードされる。本実施形態においては、前記ネットワークサーバNTSRVからプライマリービデオセットPRMVSをプライマリービデオセットプレーヤにより、直接再生はできないようになっている。前記プライマリービデオセットPRMVSは、パーシステントストレージPRSTRに1度記録され、後述するパーシステントストレージPRSTR経由でデータ再生が行われる。セカンダリーエンハンストビデオオブジェクトデータS-EVOBは、ストリーミングバッファを利用しネットワークサーバNTSRVから直接セカンダリービデオプレーヤSCDVPにより再生することができる。図10に示したパーシステントストレージPRSTRについて以下に説明を行う。
<Data Categories on Network Server>
A file in which the advanced content ADVCT in this embodiment is recorded is recorded in advance in the network server NTSRV. The advanced navigation ADVNV is downloaded onto the file cache FLCCH (data cache DTCCH) or the persistent storage PRSTR described later by the application processing command API set in advance. In the present embodiment, the primary video set PRMVS cannot be directly reproduced from the network server NTSRV by the primary video set player. The primary video set PRMVS is recorded once in the persistent storage PRSTR, and data reproduction is performed via the persistent storage PRSTR described later. The secondary enhanced video object data S-EVOB can be reproduced directly by the secondary video player SCDVP from the network server NTSRV using a streaming buffer. The persistent storage PRSTR shown in FIG. 10 will be described below.
<パーシステントストレージ/パーシステントストレージ上のデータカテゴリー(Persistent Storage/Data Categories on Persistent Storage)>
本実施形態において、パーシステントストレージPRSTRについては2種類定義する。1つ目としては、固定されたパーシステントストレージPRSTRと呼ばれ、本実施形態における情報記録再生装置1(プレーヤ)においては、前記パーシステントストレージPRSTRを必須で持つことを義務づけられている。前記固定されたパーシステントストレージPRSTRとして最も多く使われる具体的な記録媒体として本実施形態ではフラッシュメモリを想定している。本実施形態において前記固定されたパーシステントストレージPRSTRの容量は64MB以上あることを前提とする。前記のようにパーシステントストレージPRSTRの最低許容されるメモリ容量を設定することにより、情報記録再生装置1の具体的な詳細構成に依らずアドバンストコンテンツADVCTの再生安定性を保証できる。図10で示すようにオブジェクトの記録場所としてファイルキャッシュFLCCH(データキャッシュDTCCH)が指定されている。前記ファイルキャッシュFLCCH(データキャッシュDTCCH)は、例えばDRAMやSRAMのような比較的容量の少ないキャッシュメモリを表している。また本実施形態における固定されたパーシステントストレージPRSTRはフラッシュメモリを内蔵し、そのメモリ自身は情報再生装置からの取出しが不可能な形として設定する。しかし本実施形態はそれに限らず、例えば前記固定型パーシステントストレージPRSTRに可搬形のフラッシュメモリを使用することもできる。
<Persistent Storage / Data Categories on Persistent Storage>
In this embodiment, two types of persistent storage PRSTR are defined. The first is called a fixed persistent storage PRSTR, and the information recording / reproducing apparatus 1 (player) in the present embodiment is obliged to have the persistent storage PRSTR. In this embodiment, a flash memory is assumed as a specific recording medium most frequently used as the fixed persistent storage PRSTR. In the present embodiment, it is assumed that the capacity of the fixed persistent storage PRSTR is 64 MB or more. By setting the minimum allowable memory capacity of the persistent storage PRSTR as described above, it is possible to guarantee the playback stability of the advanced content ADVCT regardless of the specific detailed configuration of the information recording /
本実施形態における他のパーシステントストレージPRSTRのタイプは付加的なパーシステントストレージPRSTRと呼ぶ。前記付加的なパーシステントストレージPRSTRはリムーバブルなストレージデバイスであり、例えばUSBメモリや可搬形HDD、またはメモリカードなどで実現することができる。 Another type of persistent storage PRSTR in this embodiment is referred to as additional persistent storage PRSTR. The additional persistent storage PRSTR is a removable storage device, and can be realized by, for example, a USB memory, a portable HDD, or a memory card.
本実施形態では固定的なパーシステムテントストレージPRSTRとしての例としてフラッシュメモリ、また付加的なパーシステントストレージPRSTRとして、USBメモリ、可搬形HDD、メモリカードなどを挙げたが、本実施形態はそれに限らず他の記録媒体を使うことも可能である。 In this embodiment, a flash memory is used as an example of a fixed persistent system tent storage PRSTR, and a USB memory, a portable HDD, a memory card, etc. are given as an additional persistent storage PRSTR. However, this embodiment is not limited thereto. It is possible to use other recording media.
本実施形態においては、それらのパーシステントストレージPRSTRに対してはデータ処理コマンドAPI(アプリケーションインタフェース)を利用してデータ出し入れなどの処理を行う。特定のアドバンストコンテンツADVCTが記録されたファイルは、前記パーシステントストレージPRSTR内に記録することができる。アドバンストナビゲーションADVNVはデータソースからアドバンストナビゲーションADVNVが記録されたファイルを、前記パーシステントストレージPRSTRやファイルキャッシュFLCCH(データキャッシュDTCCH)などにコピーすることができる。プライマリービデオプレーヤPRMVPはプライマリービデオセットPRMVSを前記パーシステントストレージPRSTRから直接読取り、表示することができる。またセカンダリービデオプレーヤSCDVPは、セカンダリービデオセットSCDVSを前記パーシステントストレージPRSTRから直接読取り、表示することができる。 In the present embodiment, such persistent storage PRSTR is processed using data processing command API (application interface). A file in which specific advanced content ADVCT is recorded can be recorded in the persistent storage PRSTR. The advanced navigation ADVNV can copy the file in which the advanced navigation ADVNV is recorded from the data source to the persistent storage PRSTR, the file cache FLCCH (data cache DTCCH) or the like. The primary video player PRMVP can read and display the primary video set PRMVS directly from the persistent storage PRSTR. The secondary video player SCDVP can directly read and display the secondary video set SCDVS from the persistent storage PRSTR.
<表示オブジェクトに関する事項(Notes concerning Presentation Objects)>
本実施形態において情報記憶媒体や前記パーシステントストレージPRSTR、またはネットワークサーバNTSRVに記録されたアドバンストアプリケーションADAPLやアドバンストサブタイトルADSBTの情報は必ず一度ファイルキャッシュ内に記録された後データ処理される。本実施形態のようにアドバンストアプリケーションADAPLや、アドバンストサブタイトルADSBTをファイルキャッシュFLCCH(データキャッシュDTCCH)に一度取込むことにより表示処理や制御処理の高速化を保証することができる。
<Notes concerning Presentation Objects>
In this embodiment, information on the advanced application ADAPL and advanced subtitle ADSBT recorded in the information storage medium, the persistent storage PRSTR, or the network server NTSRV is always recorded in the file cache and then processed. As in this embodiment, the advanced application ADAPL and the advanced subtitle ADSBT are fetched into the file cache FLCCH (data cache DTCCH) once, thereby ensuring high-speed display processing and control processing.
図10に示す再生処理部であるプライマリービデオプレーヤPRMVPとセカンダリービデオプレーヤSCDVPについては後述するが、プライマリービデオプレーヤPRMVP内にはメインビデオデコーダーMVDEC、メインオーディオデコーダーMADEC、サブビデオデコーダーSVDEC、サブオーディオデコーダーとSADECとサブピクチャーデコーダーSPDECを持ち、セカンダリービデオプレーヤSCDVPは、メインビデオデコーダーMADEC、メインオーディオデコーダーMADEC、サブビデオデコーダーSVDECとサブオーディオデコーダーSADECを前記のプライマリービデオプレーヤPRMVP内の各種デコーダーと兼用する。またアドバンストアプリケーションプレゼンテーションエンジンAAPENとアドバンストサブタイトルプレーヤASBPLについても後述する。 The primary video player PRMVP and the secondary video player SCDVP, which are the playback processing units shown in FIG. 10, will be described later. In the primary video player PRMVP, a main video decoder MVDEC, a main audio decoder MADEC, a sub video decoder SVDEC, a sub audio decoder, The secondary video player SCDVP has a main video decoder MADEC, a main audio decoder MADEC, a sub video decoder SVDEC, and a sub audio decoder SADEC also as various decoders in the primary video player PRMVP. The advanced application presentation engine AAPEN and the advanced subtitle player ASBPL will also be described later.
<プライマリービデオセット(Primary Video Set)>
本実施形態において1枚の情報記憶媒体DISC内に、唯一1個のプライマリービデオセットPRMVSが存在する。このプライマリービデオセットPRMVSは、その管理情報と1以上のエンハンストビデオオブジェクトEVOBファイルと、タイムマップTMAPファイルから構成され、それぞれの組で一致したファイル名が使われる。
<Primary Video Set>
In the present embodiment, there is only one primary video set PRMVS in one information storage medium DISC. The primary video set PRMVS is composed of the management information, one or more enhanced video object EVOB files, and a time map TMAP file, and the file names that match in each set are used.
<プライマリービデオセット(Primary Video Set)>(続き)
プライマリービデオセットPRMVSは、プライマリーオーディオビデオPRMAVのフォーマットを含む。プライマリービデオセットPRMVSのデータ構造は、アドバンストビデオタイトルセットインフォメーションADVTSI、タイムマップTMAP及びプライマリーエンハンストビデオオブジェクトデータP-EVOBなどから構成されている。プライマリービデオセットPRMVSはプライマリービデオプレーヤPRMVPにより再生される。
<Primary Video Set> (continued)
The primary video set PRMVS includes the format of the primary audio video PRMAV. The data structure of the primary video set PRMVS includes advanced video title set information ADVTSI, a time map TMAP, primary enhanced video object data P-EVOB, and the like. The primary video set PRMVS is reproduced by the primary video player PRMVP.
図10に示すプライマリービデオセットPRMVSのデータ中身について説明を行う。 The data contents of the primary video set PRMVS shown in FIG. 10 will be described.
本実施形態においてプライマリービデオセットPRMVSは主に情報記憶媒体に記録されたメインの映像データを意味する。このプライマリービデオセットPRMVSのデータタイプとしてプライマリーオーディオPRMAVがあり、メインビデオMANVDとメインオーディオMANADと副映像SUBPTは従来のDVD-Videoや、本実施形態におけるスタンダードコンテンツSTDCTのビデオ情報、オーディオ情報、副映像と同じものを意味する。本実施形態におけるアドバンストコンテンツADVCTでは新たに同時に二つまでの画面を表示することが可能となっている。すなわち、メインビデオMANVDと同時に再生が可能な映像としてサブビデオSUBVDが定義され、また同様、メインオーディオMANADと同時に出力が可能なサブオーディオSUBADが新たに定義されている。 In the present embodiment, the primary video set PRMVS mainly means main video data recorded on an information storage medium. There is primary audio PRMAV as the data type of this primary video set PRMVS, and main video MANVD, main audio MANAD, and sub-picture SUBPT are video information, audio information, and sub-picture of conventional DVD-Video and standard content STDCT in this embodiment. Means the same thing. In the advanced content ADVCT in this embodiment, it is possible to newly display up to two screens simultaneously. That is, the sub video SUBVD is defined as a video that can be reproduced simultaneously with the main video MANVD, and similarly, the sub audio SUBAD that can be output simultaneously with the main audio MANAD is newly defined.
本実施形態において、サブオーディオSUBADの使い方として以下の2種類を考えることができる。 In the present embodiment, the following two types of sub audio SUBAD can be considered.
1) 同時にメインビデオMANVDとサブビデオSUBVDが表示される場合、前記サブビデオSUBVDの音声情報をサブオーディオSUBADで出力する方法
2) 画面にはメインビデオMANVDのみが再生・表示され、それに対応したメインビデオMANVDの映像に対応した音声であるメインオーディオMANADが出力されている時に、例えば監督のコメントを音声で重ねて表示をする場合、前記サブオーディオSUBADを監督のコメントとしてメインオーディオMANADに重ねて表示する
<セカンダリービデオセット(Secondary Video Set)>
セカンダリービデオセットSCDVSは、プライマリービデオセットPRMVS内のメインオーディオMANADに対する置換えとして使用される場合と、プライマリービデオセットPRMVSの付加情報もしくは、代替情報として使われる使い方がある。また本実施形態ではそれに限らず、セカンダリービデオセットSCDVSをサブスティテュートオーディオSBTADのメインオーディオMANADの置換えあるいは、セカンダリーオーディオビデオSCDAVの追加(重ねた状態での表示)あるいは、置換えとして使うこともできる。本実施形態においてセカンダリービデオセットSCDVSのコンテンツは、前述したようなネットワークサーバNTSRVからネットワーク経由でダウンロードすることもできるし、前述したパーシステントストレージPRSTRに記録され、利用されるか、あるいは、本発明の情報記憶媒体DISCに事前に記録されることもできる。もし、前記セカンダリービデオセットSCDVSの情報が本発明情報記憶媒体DISC内に記録されている場合には、前記セカンダリービデオセットSCDVSのファイルがファイルキャッシュFLCCH(データキャッシュDTCCH)又はパーシステントストレージPRSTRに一度記録され、その後ファイルキャッシュ又はパーシステントストレージPRSTRから再生される形態を取る。また前記セカンダリービデオセットSCDVSの情報は、プライマリービデオセットPRMVSの一部のデータと同時に再生することもできる。本実施形態において、情報記憶媒体DISCに記録されたプライマリービデオセットPRMVSを直接アクセスし表示することができるが、本実施形態における情報記憶媒体DISCに記録されたセカンダリービデオセットSCDVSは直接再生することはできない。また本実施形態において、プライマリービデオセットPRMVS内の情報は、前述したパーシステントストレージPRSTRに記録され、パーシステントストレージPRSTRから直接プライマリービデオセットPRMVSを再生することができる。すなわち、前記セカンダリービデオセットSCDVSがネットワークサーバNTSRV上に記録されている場合には、前記セカンダリービデオセットSCDVSの内容を全てファイルキャッシュFLCCH(データキャッシュDTCCH)かパーシステントストレージPRSTRに1度転送した後、再生するようになっている。また本実施形態においてはそれに限らず、ネットワークサーバNTSRV上に記録されたセカンダリービデオセットSCDVSをストリーミングバッファがオーバーフローさせない範囲で適宜部分的にセカンダリービデオセットSCDVSの一部をストリーミングバッファに格納し、そこから再生することもできる。
1) When the main video MANVD and the sub video SUBVD are displayed at the same time, the audio information of the sub video SUBVD is output as the sub audio SUBAD. 2) Only the main video MANVD is played back and displayed on the screen. When the main audio MANAD, which is the audio corresponding to the video of the video MANVD, is being output, for example, when the director's comment is superimposed and displayed as a voice, the sub audio SUBAD is superimposed on the main audio MANAD as the director's comment. <Secondary Video Set>
The secondary video set SCDVS can be used as a replacement for the main audio MANAD in the primary video set PRMVS and can be used as additional information or alternative information for the primary video set PRMVS. In the present embodiment, the secondary video set SCDVS can be used as a substitute for the main audio MANAD of the substitute audio SBTAD, or as a secondary audio video SCDAV (displayed in an overlapped state) or as a substitute. In this embodiment, the content of the secondary video set SCDVS can be downloaded from the network server NTSRV as described above via the network, and is recorded and used in the persistent storage PRSTR described above, or It can also be recorded in advance on the information storage medium DISC. If the information of the secondary video set SCDVS is recorded in the information storage medium DISC of the present invention, the file of the secondary video set SCDVS is once recorded in the file cache FLCCH (data cache DTCCH) or the persistent storage PRSTR. And then replayed from the file cache or persistent storage PRSTR. The information of the secondary video set SCDVS can be reproduced simultaneously with a part of the data of the primary video set PRMVS. In the present embodiment, the primary video set PRMVS recorded on the information storage medium DISC can be directly accessed and displayed, but the secondary video set SCDVS recorded on the information storage medium DISC in the present embodiment cannot be directly reproduced. . In the present embodiment, information in the primary video set PRMVS is recorded in the persistent storage PRSTR described above, and the primary video set PRMVS can be directly reproduced from the persistent storage PRSTR. That is, when the secondary video set SCDVS is recorded on the network server NTSRV, after all the contents of the secondary video set SCDVS are transferred once to the file cache FLCCH (data cache DTCCH) or persistent storage PRSTR, It comes to play. Further, in the present embodiment, the secondary video set SCDVS recorded on the network server NTSRV is not limited to this, and a part of the secondary video set SCDVS is stored in the streaming buffer as appropriate in a range in which the streaming buffer does not overflow. It can also be played.
<セカンダリービデオセット(Secondary Video Set)>(続き)
セカンダリービデオセットSCDVSは、サブスティテュートオーディオSBTADとセカンダリーオーディオビデオSCDAVの2種類のタイプのオブジェクトが含まれる。セカンダリービデオセットSCDVSは、情報記憶媒体DISC、ネットワークサーバNTSRV、パーシステントストレージPRSTRやファイルキャッシュから情報を読取ることが可能である。セカンダリービデオセットSCDVSのデータ構造は、アドバンストビデオタイトルセットADVTSを簡素化し、一部修正したものである。セカンダリービデオセットSCDVSはタイムマップTMAPとセカンダリーエンハンストビデオオブジェクトデータS-EVOBからなる。セカンダリービデオセットSCDVSは、セカンダリービデオプレーヤSCDVPにより再生される。
<Secondary Video Set> (continued)
The secondary video set SCDVS includes two types of objects, a substitute audio SBTAD and a secondary audio video SCDAV. The secondary video set SCDVS can read information from the information storage medium DISC, the network server NTSRV, the persistent storage PRSTR, and the file cache. The data structure of the secondary video set SCDVS is obtained by simplifying and partially modifying the advanced video title set ADVTS. The secondary video set SCDVS includes a time map TMAP and secondary enhanced video object data S-EVOB. The secondary video set SCDVS is reproduced by the secondary video player SCDVP.
図10に示すセカンダリービデオセットSCDVSのデータ中身について説明を行う。 The data contents of the secondary video set SCDVS shown in FIG. 10 will be described.
基本的にはセカンダリービデオセットSCDVSはパーシステントストレージPRSTRやネットワークを経由し、本実施形態に示す情報記憶媒体以外から情報を取込み、前記説明したプライマリービデオセットPRMVSと一部置換えて表示するデータのことを示している。すなわち、図10に示すメインオーディオデコーダーMADECはプライマリービデオプレーヤPRMVPとセカンダリービデオプレーヤSCDVPのメインオーディオデコーダーMADECは共通のものを示し、セカンダリービデオプレーヤSCDVPでのメインオーディオデコーダーMADECを使い、セカンダリービデオセットSCDVSのコンテンツを再生する時には、プライマリービデオプレーヤPRMVPによるプライマリービデオセットPRMVSのサブオーディオSUBADは再生されず、セカンダリービデオセットSCDVSのデータで置換えられて表示される。セカンダリービデオセットSCDVSにはサブスティテュートオーディオビデオSBTAV、サブスティテュートオーディオSBTADとセカンダリーオーディオビデオSCDAVの3種類が存在する。サブスティテュートオーディオSBTAD内のメインオーディオMANADは基本的にプライマリービデオセットPRMVS内のメインオーディオMANADと置換えられる時に利用される。前記サブスティテュートオーディオSBTADは、1個のメインオーディオストリームMANADから構成される。例えば、プライマリービデオセットPRMVSとして予め情報記憶媒体DISCに記録されたメインオーディオMANADが、メインビデオMANVDのビデオ映像に対し日本語と英語が記録されている場合、メインオーディオMANADではユーザ表示する時に日本語か英語の音声しか表示することができない。それに対して、例えば中国語を母国語としているユーザでは、ネットワーク経由でネットワークサーバNTSRV内に記録されている中国語の音声情報をネットワークダウンロードし、前記日本語又は英語で表示する代わりに、プライマリービデオセットPRMVSのメインビデオMANVD再生時の音声をセカンダリービデオセットSCDVSのメインオーディオMANADとして中国語に置き換えて音声出力することが本実施形態により可能となる。 Basically, the secondary video set SCDVS is the data to be displayed by replacing the primary video set PRMVS described above by fetching information from other than the information storage medium shown in this embodiment via the persistent storage PRSTR and the network. Is shown. That is, the main audio decoder MADEC shown in FIG. 10 shows the common main audio decoder MADEC of the primary video player PRMVP and the secondary video player SCDVP, and the main audio decoder MADEC in the secondary video player SCDVP is used to change the secondary video set SCDVS. When the content is reproduced, the sub audio SUBAD of the primary video set PRMVS by the primary video player PRMVP is not reproduced, but is replaced with the data of the secondary video set SCDVS and displayed. There are three types of secondary video set SCDVS: substitute audio video SBTAV, substitute audio SBTAD, and secondary audio video SCDAV. The main audio MANAD in the substitute audio SBTAD is basically used when it is replaced with the main audio MANAD in the primary video set PRMVS. The substitute audio SBTAD is composed of one main audio stream MANAD. For example, if the main audio MANAD previously recorded on the information storage medium DISC as the primary video set PRMVS is recorded in Japanese and English for the video image of the main video MANVD, the main audio MANAD will display Japanese when the user displays it. Or can only display English audio. On the other hand, for a user whose native language is Chinese, for example, instead of downloading the Chinese voice information recorded in the network server NTSRV via the network and displaying the information in Japanese or English, the primary video is used. According to the present embodiment, it is possible to replace the audio during reproduction of the main video MANVD of the set PRMVS with Chinese as the main audio MANAD of the secondary video set SCDVS and output the audio.
同様にサブスティテュートオーディオビデオSBTAV内のメインビデオMANVDとメインオーディオMANADは基本的にプライマリービデオセットPRMVS内のメインビデオMANVDとメインオーディオMANADとを同時に置換えられる時に利用される。前記サブスティテュートオーディオビデオSBTAVは、1個のメインビデオストリームMANVDと1個のメインオーディオストリームMANADから構成される。例えば、プライマリービデオセットPRMVSとして図15に示す上映予告41がメインビデオストリームMANVDとメインオーディオストリームMANADの形で予め情報記憶媒体DISCに記録された場合、前記情報記憶媒体DISC発売日から大幅に日付が経過し前記上映予告41の内容を変更したい時にネットワークサーバNTSRVから前記サブスティテュートオーディオビデオSBTAV内のメインビデオMANVDとメインオーディオMANADを同時に置き換えてユーザに表示する時に利用できる。それに対して、セカンダリービデオセットSCDVSのサブオーディオSUBADは、例えば前述したようなプライマリービデオセットPRMVSのメインビデオMANVDと同期して出力されるメインオーディオMANADにかぶせて、例えば監督のコメント情報を同時に表示させるなど、2画面で表示する時のセカンダリーオーディオビデオのSCDAVのサブビデオSUBVDの画面に同期した音声を表示する時にセカンダリービデオセットSCDVSのサブオーディオSUBADを使用することができる。
Similarly, the main video MANVD and the main audio MANAD in the substitute audio video SBTAV are basically used when the main video MANVD and the main audio MANAD in the primary video set PRMVS can be replaced simultaneously. The substitute audio video SBTAV is composed of one main video stream MANVD and one main audio stream MANAD. For example, when the
<セカンダリーオーディオセット(Secondary Audio Video)>
本実施形態においてセカンダリーオーディオビデオSCDAVは、1個以下(0を含む)のサブビデオUBVDと1個以下の(0を含む)サブオーディオSUBADを含む。本実施形態において、セカンダリーオーディオビデオSCDAVはプライマリービデオセットPRMAVに重ねて(追加して)表示するために使われている。また、本実施形態において前記セカンダリーオーディオビデオSCDAVはプライマリービデオセットPRMVS内のサブビデオSUBVDとサブオーディオSUBADとの置換えとして使うこともできる。
<Secondary Audio Video>
In the present embodiment, the secondary audio video SCDAV includes one or less (including 0) sub-video UBVD and one or less (including 0) sub-audio SUBAD. In the present embodiment, the secondary audio video SCDAV is used to be superimposed (added) on the primary video set PRMAV. In the present embodiment, the secondary audio video SCDAV can also be used as a replacement for the sub video SUBVD and sub audio SUBAD in the primary video set PRMVS.
<セカンダリーオーディオセット(Secondary Audio Video)>(続き)
セカンダリーオーディオビデオSCDAVは、プライマリーオーディオビデオPRMAVのサブビデオSUBVDとサブオーディオSUBADの置換えとして使用される。セカンダリーオーディオビデオSCDAVは、次のような条件が含まれている。
<Secondary Audio Video> (continued)
The secondary audio video SCDAV is used as a replacement for the sub video SUBVD and the sub audio SUBAD of the primary audio video PRMAV. The secondary audio video SCDAV includes the following conditions.
1) サブビデオSUBVDストリームのみを持つ
2) サブビデオSUBVDとサブオーディオSUBADが共に含まれる場合
3) サブオーディオSUBADが単独で存在する
前記、セカンダリーオーディオビデオSCDAV内のストリーム再生時において、プライマリーオーディオビデオPRMAV内のサブビデオSUBVDやサブオーディオSUBADを再生することはできない。前記セカンダリーオーディオビデオSCDAVはセカンダリービデオセットSCDVSに含まれる。
1) Only the sub video SUBVD stream is included 2) When both the sub video SUBVD and the sub audio SUBAD are included 3) The sub audio SUBAD exists alone When the stream in the secondary audio video SCDAV is played, the primary audio video PRMAV The sub video SUBVD and sub audio SUBAD cannot be reproduced. The secondary audio video SCDAV is included in the secondary video set SCDVS.
<アドバンストアプリケーション(Advanced Application)>
図10におけるアドバンストアプリケーションADAPL内の情報には、マークアップMRKUP、スクリプトSCRPT、静止画IMAGE、イフェクトオーディオEFTAD、フォントFONTなどが含まれる。前述したようにこれらのアドバンストアプリケーションADAPLの情報は、一度ファイルキャッシュに蓄えられ使用される。ファイルキャッシュFLCCH(データキャッシュDTCCH)へのダウンロードに関する情報は後述するマニュフェストファイルMNFSTの中に記録される。また前記アドバンストアプリケーションADAPLのダウンロードタイミングなどの情報は、プレイリストPLLST内のリソースインフォメーションRESRCI内に記述されている。また本実施形態では前記マニュフェストファイル内MNFSTには、初期に実行されるマークアップMRKUP情報に関するローディングに関する情報や、スクリプトファイルSCRPTに記録された情報をファイルキャッシュFLCCH(データキャッシュDTCCH)にローディングする時に必要な情報なども記録されている。
<Advanced Application>
The information in the advanced application ADAPL in FIG. 10 includes markup MRKUP, script SCRPT, still image IMAGE, effect audio EFTAD, font FONT, and the like. As described above, the information of these advanced applications ADAPL is once stored in the file cache and used. Information related to downloading to the file cache FLCCH (data cache DTCCH) is recorded in a manifest file MNFST described later. Information such as the download timing of the advanced application ADAPL is described in the resource information RESRCI in the playlist PLLST. In the present embodiment, the MNFST in the manifest file is necessary when loading information related to the markup MRKUP information to be executed initially and information recorded in the script file SCRPT into the file cache FLCCH (data cache DTCCH). Other information is also recorded.
<アドバンストアプリケーション(Advanced Application)>(続き)
アドバンストアプリケーションADAPLは、以下に述べる3つの機能を持っている。
<Advanced Application> (continued)
The advanced application ADAPL has the following three functions.
最初の機能はアドバンストコンテンツADVCTの再生遷移に対する制御機能(例えば異なる画面間のジャンプ制御など)であり、2番目の機能としてメニューボタンなどのグラフィカルな表示を実現することである。そして3番目の機能としては音声再生時のイフェクト制御機能である。アドバンストナビゲーションADVNVのファイルは、アドバンストアプリケーションADAPLの実現において、マニュフェストMNFST、スクリプトSCRPT及びマークアップMRKUPなどからなる。アドバンストエレメントADVELファイル内の情報は静止画IMAGEやフォントFONTなどに関する情報であり、前記2番目の機能のグラフィカル表示やオーディオ表示の時の表示アイコンや表示オーディオとして使用される。 The first function is a control function (for example, jump control between different screens) for playback transition of the advanced content ADVCT, and the second function is to realize a graphical display such as a menu button. The third function is an effect control function during audio reproduction. The file of the advanced navigation ADVNV includes a manifest MNFST, a script SCRPT, a markup MRKUP, and the like in the realization of the advanced application ADAPL. Information in the advanced element ADVEL file is information relating to the still image IMAGE, font FONT, and the like, and is used as a display icon or display audio at the time of graphical display or audio display of the second function.
<アドバンストサブタイトル(Advanced Subtitle)>
アドバンストサブタイトルADSBTもアドバンストアプリケーションADAPLと同様、一度ファイルキャッシュFLCCH(データキャッシュDTCCH)に保存された後使用される。アドバンストサブタイトルADSBTの情報は情報記憶媒体DISCやパーシステントストレージPRSTR、あるいはネットワークから取込むことができる。本実施形態におけるアドバンストサブタイトルADSBTは基本的に、従来の映像に対する置換えされた字幕やテロップもしくは絵文字や静止画などのイメージが記録される。字幕の置換えとしては基本的には前記イメージ以外にはテキストがベースとなっているが、フォントFONTが変わって表示することもできる。これらアドバンストサブタイトルADSBTはネットワークサーバNTSRVからダウンロードして追加でき、例えば情報記憶媒体DISCに入っているプライマリービデオセットPRMVS内のメインビデオMANVDを再生しながら新しい字幕や、その映像に対する説明文を流す為に使うこともできる。前述したように例えばプライマリービデオセットPRMVS内の字幕として日本語と英語のみの字幕が副映像SUBPTに入っていた場合、中国語を母国語としているユーザがネットワークダウンロードにより、中国語の字幕をアドバンストサブタイトルADSBTとしてネットワークサーバNTSRVから読取り、表示するなどの使用方法がある。この場合のデータタイプはアドバンストサブタイトルADSBTやフォントFONTに対するマークアップMRKUPSのタイプとして設定される。
<Advanced Subtitle>
As with the advanced application ADAPL, the advanced subtitle ADSBT is used once stored in the file cache FLCCH (data cache DTCCH). The information of the advanced subtitle ADSBT can be taken from the information storage medium DISC, persistent storage PRSTR, or network. The advanced subtitle ADSBT in the present embodiment basically records images such as subtitles, telops, pictographs, and still images that are replaced with conventional videos. The subtitle replacement is basically based on text other than the image, but the font FONT can be changed and displayed. These advanced subtitles ADSBT can be downloaded and added from the network server NTSRV, for example, to play new subtitles and explanatory text for the video while playing the main video MANVD in the primary video set PRMVS in the information storage medium DISC It can also be used. As described above, for example, if subtitles in Japanese and English only are included in the sub-video SUBPT as subtitles in the primary video set PRMVS, Chinese subtitles are advanced subtitles by network download by users who are native speakers of Chinese There are usage methods such as reading and displaying from the network server NTSRV as ADSBT. The data type in this case is set as the markup MRKUPS type for the advanced subtitle ADSBT and font FONT.
<アドバンストサブタイトル(Advanced Subtitle)>(続き)
本実施形態において前記アドバンストサブタイトルADSBTは、プライマリービデオセットPRMVSのメインビデオMANVDと同期して表示されるサブタイトル(字幕など)として使用することができる。前記アドバンストサブタイトルADSBTは、プライマリービデオセットPRMVS内の副映像SUBPTに対する同時表示(追加表示処理)として使うこともできるし、前記プライマリービデオセットPRMVSの副映像SUBPTの置換えとして利用することもできる。前記アドバンストサブタイトルADSBTは、アドバンストサブタイトルADSBTに対する1個のマニュフェストファイルMNFSTSと、アドバンストサブタイトルADSBTの1個のマークアップファイルMRKUPSとそして1個のフォントファイルFONTSから構成される。前記アドバンストサブタイトルADSBTのマークアップファイルMRKUPSは、アドバンストアプリケーションADAPLのマークアップMRKUPのサブセットとして存在している。
<Advanced Subtitle> (continued)
In the present embodiment, the advanced subtitle ADSBT can be used as a subtitle (caption etc.) displayed in synchronization with the main video MANVD of the primary video set PRMVS. The advanced subtitle ADSBT can be used for simultaneous display (additional display processing) for the sub video SUBPT in the primary video set PRMVS, or can be used as a replacement for the sub video SUBPT of the primary video set PRMVS. The advanced subtitle ADSBT is composed of one manifest file MNFSTS for the advanced subtitle ADSBT, one markup file MRKUPS of the advanced subtitle ADSBT, and one font file FONTS. The markup file MRKUPS of the advanced subtitle ADSBT exists as a subset of the markup MRKUP of the advanced application ADAPL.
<アドバンストサブタイトル(Advanced Subtitle)>(続き)
アドバンストコンテンツADVCTでは、サブタイトルに関し2つの意味を持つ。
<Advanced Subtitle> (continued)
Advanced content ADVCT has two meanings regarding subtitles.
1つ目としてスタンダードコンテンツSTDCTの副映像機能と同様、プライマリーオーディオビデオPRMAVにおける副映像ストリームとして使われる。また、もう一つの意味としてアドバンストサブタイトルADSBTとして使用される。両方のそれぞれの意味は同時に両方の目的で使ってはならない。前記アドバンストサブタイトルADSBTはアドバンストアプリケーションADAPLのサブセットとして位置付けられる。 First, it is used as a sub-picture stream in the primary audio video PRMAV, similar to the sub-picture function of the standard content STDCT. Moreover, it is used as advanced subtitle ADSBT as another meaning. Both meanings of both must not be used for both purposes at the same time. The advanced subtitle ADSBT is positioned as a subset of the advanced application ADAPL.
<アドバンストストリーム(Advanced Stream)>
アドバンストストリームはプライマリービデオセットPRMVSを除く、1以上のアドバンストコンテンツファイルADVCTから構成されるパッケージファイルを意味している。前記アドバンストストリームはプライマリーエンハンストビデオオブジェクトセットP-EVOBSの中にマルチプレクスされて記録され、一旦ファイルキャッシュFLCCH(データキャッシュDTCCH)に転送される。このプライマリーエンハンストビデオオブジェクトセットP-EVOBSは、プライマリービデオプレーヤPRMVPにより再生処理が行われる。これら、プライマリーエンハンストビデオオブジェクトセットP-EVOBS内にマルチプレクスされて記録されたファイルは、アドバンストコンテンツADVCTの再生時には必須なファイルであり、本実施形態の情報記憶媒体DISC上にファイル構造で記録されている。
<Advanced Stream>
The advanced stream means a package file composed of one or more advanced content files ADVCT excluding the primary video set PRMVS. The advanced stream is multiplexed and recorded in the primary enhanced video object set P-EVOBS, and is once transferred to the file cache FLCCH (data cache DTCCH). The primary enhanced video object set P-EVOBS is played back by the primary video player PRMVP. These files that are multiplexed and recorded in the primary enhanced video object set P-EVOBS are essential files for playback of the advanced content ADVCT, and are recorded in the file structure on the information storage medium DISC of the present embodiment. Yes.
<アドバンストナビゲーション(Advanced Navigation)>
アドバンストナビゲーションADVNVに関するファイルは、アドバンストコンテンツADVCTの再生時、割込み処理に利用される。
<Advanced Navigation>
The file related to the advanced navigation ADVNV is used for interrupt processing when the advanced content ADVCT is played back.
<プライマリーオーディオビデオ(Primary Audio Video)>
プライマリーオーディオビデオPRMAVは、メインビデオMANVD、メインオーディオMANAD、サブビデオSUBVD、サブオーディオSUBADと副映像SUBPTなどが含まれるストリームから構成される。情報再生装置は、メインビデオMANVDとメインオーディオMANVD再生時に、付加的にサブビデオSUBVDとサブオーディオSUBADを同時に再生することができる。プライマリーオーディオビデオPRMAVは情報記憶媒体DISC、もしくはパーシステントストレージPRSTRに記録することができる。プライマリーオーディオビデオPRMAVは、プライマリービデオセットPRMVSの一部として含まれる。ビデオとオーディオの組合せ再生は、プライマリーオーディオビデオPRMAVとセカンダリービデオセットSCDVS内のオブジェクト条件により制限される。プライマリーオーディオビデオPRMAVはアドバンストアプリケーションADAPLや、アドバンストサブタイトルADSBTなどに使われる各種データファイルを一緒に持つことができる。これらのファイルに含まれるストリームはアドバンストストリームと呼ばれている。
<Primary Audio Video>
The primary audio video PRMAV includes a stream including a main video MANVD, a main audio MANAD, a sub video SUBVD, a sub audio SUBAD, a sub video SUBPT, and the like. The information reproducing apparatus can additionally reproduce the sub video SUBVD and the sub audio SUBAD at the same time when reproducing the main video MANVD and the main audio MANVD. The primary audio video PRMAV can be recorded on the information storage medium DISC or the persistent storage PRSTR. The primary audio video PRMAV is included as part of the primary video set PRMVS. Combination playback of video and audio is limited by object conditions in the primary audio video PRMAV and the secondary video set SCDVS. The primary audio video PRMAV can have various data files used for the advanced application ADAPL and advanced subtitle ADSBT together. Streams included in these files are called advanced streams.
<サブスティテュートオーディオ(Substitute Audio)>
サブスティテュートオーディオSBTADは、プライマリーオーディオビデオPRMAVのメインオーディオMANADの置換えとして使用される。それは、メインオーディオMANADストリームのみから構成されている。サブスティテュートオーディオSBTAD再生時において、プライマリービデオセットPRMVS内のメインオーディオMANADを再生することはできない。前記サブスティテュートオーディオSBTADは、セカンダリービデオセットSCDVSに含まれる。
<Substitute Audio>
The substitute audio SBTAD is used as a replacement for the main audio MANAD of the primary audio video PRMAV. It consists only of the main audio MANAD stream. When the substitute audio SBTAD is played, the main audio MANAD in the primary video set PRMVS cannot be played. The substitute audio SBTAD is included in the secondary video set SCDVS.
<サブスティテュートオーディオビデオ(Substitute Audio Video)>
サブスティテュートオーディオビデオSBTAVは、プライマリービデオセットPRMVSのメインビデオMANVDとメインオーディオMANADの両方を同時に交換して表示する時に利用される。前記サブスティテュートオーディオビデオSBTAVはメインビデオストリームMANVDを含むことが必須となる。また前記サブスティテュートオーディオビデオSBTAVは、メインオーディオストリームMANADを含んでもよい。前記プライマリービデオセットPRMVSと前記サブスティテュートオーディオビデオSBTAVを同時に再生表示することはできない。前記サブスティテュートオーディオビデオSBTAVはセカンダリービデオセットSCDVSの一種として含まれる。
<Substitute Audio Video>
The substitute audio video SBTAV is used when both the main video MANVD and the main audio MANAD of the primary video set PRMVS are exchanged and displayed at the same time. The substitute audio video SBTAV must include the main video stream MANVD. The substitute audio video SBTAV may include a main audio stream MANAD. The primary video set PRMVS and the substitute audio video SBTAV cannot be reproduced and displayed simultaneously. The substitute audio video SBTAV is included as a kind of secondary video set SCDVS.
<アドバンストコンテンツのプライマリーエンハンストビデオオブジェクト(Primary Enhanced Video Object for Advanced Content)>
アドバンストコンテンツADVCTのプライマリーエンハンストビデオオブジェクトP-EVOBはプライマリービデオセットPRMVSの再生データを表すデータストリームを意味している。プライマリービデオセットPRMVSの再生データのタイプとしては、メインビデオMANVD、メインオーディオMANAD、サブビデオSUBVD、サブオーディオSUBADと副映像SUBPTが含まれる。本実施形態においてプライマリーエンハンストビデオオブジェクトP-EVOB内に含まれるパックとしては、現行DVD及びスタンダードコンテンツSTDCTと同様ナビゲーションパックNV_PCKを持つと共に、アドバンストストリームが記録されるアドバンストストリームパックが存在する。本実施形態においてメインオーディオMANADと副映像SUBPTと同様、サブビデオSUBVDとサブオーディオSUBADに対するオフセット情報がシンクロナスインフォメーションSYNCI内に記録されている。
<Primary Enhanced Video Object for Advanced Content>
The primary enhanced video object P-EVOB of the advanced content ADVCT means a data stream representing reproduction data of the primary video set PRMVS. The types of playback data of the primary video set PRMVS include main video MANVD, main audio MANAD, sub video SUBVD, sub audio SUBAD, and sub video SUBPT. In the present embodiment, as a pack included in the primary enhanced video object P-EVOB, there is an advanced stream pack in which an advanced stream is recorded as well as a navigation pack NV_PCK similar to the current DVD and standard content STDCT. In the present embodiment, as with the main audio MANAD and the sub-picture SUBPT, offset information for the sub-video SUBVD and the sub-audio SUBAD is recorded in the synchronous information SYNCI.
図10に示した各種オブジェクトストリームが、情報記憶媒体上に記録される時のファイル構造を図11に示す。本実施形態においてアドバンストコンテンツADVCTに関しては情報記憶媒体のルートディレクトリ直下にアドバンストコンテンツディレクトリADVCTを配置し、全ファイルをその中に記録している。アドバンストコンテンツディレクトリADVCTの下には再生に関する情報が記録されているプレイリストファイルPLLSTが存在し、それと同時にアドバンストアプリケーションに関する情報を記録するアドバンストアプリケーションディレクトリADAPLとプライマリービデオセットに関する情報を記録するプライマリービデオセットディレクトリPRMVSとセカンダリービデオセットに関する情報を記録するセカンダリービデオセットディレクトリSCDVSと、アドバンストサブタイトルに関する情報を記録するアドバンストサブタイトルディレクトリADSBTが記録されている。 FIG. 11 shows a file structure when the various object streams shown in FIG. 10 are recorded on the information storage medium. In the present embodiment, with respect to the advanced content ADVCT, the advanced content directory ADVCT is arranged directly under the root directory of the information storage medium, and all files are recorded therein. Under the advanced content directory ADVCT, there is a playlist file PLLST in which information about playback is recorded, and at the same time, an advanced application directory ADAPL that records information about advanced applications and a primary video set directory that records information about primary video sets. A secondary video set directory SCDVS for recording information on the PRMVS and the secondary video set, and an advanced subtitle directory ADSBT for recording information on the advanced subtitle are recorded.
アドバンストアプリケーションディレクトリADAPLの下には、アドバンストアプリケーションに関する管理情報が記録されているアドバンストナビゲーションディレクトリADVNVとアドバンストアプリケーションで使われる各種アドバンストエレメント(オブジェクト情報など)に関する情報が記録されているアドバンストエレメントディレクトリADVELが存在している。前記アドバンストナビゲーションディレクトリADVNVには、アドバンストアプリケーション内で使用される各種管理情報間の関係や、ネットワークダウンロードに必要な情報リストがまとめて記録されているマニュフェストに関するマニュフェストファイルMNFST、ページレイアウトなどに関するマークアップが記録されているマークアップファイルMRKUP、スクリプトコマンドが記録されているスクリプトファイルSCRPTが存在する。また、アドバンストエレメントディレクトリADVELには、静止画像を記録する静止画ファイルIMAGE、イフェクトオーディオを記録するイフェクトオーディオファイルEFTAD、フォント情報を記録するフォントファイルFONTとその他ファイルOTHERが存在する。 Under the advanced application directory ADAPL, there are an advanced navigation directory ADVNV in which management information related to the advanced application is recorded and an advanced element directory ADVEL in which information related to various advanced elements (object information, etc.) used in the advanced application is recorded. is doing. In the advanced navigation directory ADVNV, there are markups concerning the relationship between various management information used in the advanced application, the manifest file MNFST related to the manifest in which the list of information necessary for network download is recorded, and the page layout. There are recorded markup file MRKUP and script file SCRPT in which script commands are recorded. The advanced element directory ADVEL includes a still image file IMAGE for recording a still image, an effect audio file EFTAD for recording effect audio, a font file FONT for recording font information, and another file OTHER.
プライマリービデオセットディレクトリPRMVSの下には、プライマリーオーディオビデオディレクトリPRMAVが存在し、プライマリーオーディオビデオのエンハンストビデオオブジェクトに関する属性情報や管理情報が記録されているビデオタイトルセットインフォメーションに関する情報を記録するビデオタイトルセットインフォメーションファイルADVTSI、プライマリービデオセットの時間情報からアドレス情報に変換するタイムマップを記録するプライマリービデオセットのタイムマップファイルPTMAPとプライマリーエンハンストビデオオブジェクトを記録するプライマリーエンハンストビデオオブジェクトファイルP-EVOBが存在する。 Under the primary video set directory PRMVS, there is a primary audio video directory PRMAV, and video title set information that records information about video title set information in which attribute information and management information about the enhanced video object of the primary audio video is recorded. There are a file ADVTSI, a primary video set time map file PTMAP for recording a time map for converting the time information of the primary video set to address information, and a primary enhanced video object file P-EVOB for recording the primary enhanced video object.
セカンダリービデオセットディレクトリSCDVSの下には、サブスティテュートオーディオビデオディレクトリSBTAV、サブステュートオーディオディレクトリSBTADとセカンダリーオーディオビデオディレクトリSCDAVが存在し、セカンダリーオーディオビデオディレクトリSCDAVの下にはセカンダリービデオセットの時間情報からアドレス情報に変換するタイムマップを記録するセカンダリービデオセットのタイムマップファイルSTMAPとセカンダリーエンハンストビデオオブジェクトを記録するセカンダリーエンハンストビデオオブジェクトファイルS-EVOBが存在する。また、サブスティテュートオーディオディレクトリSBTAD及びサブスティテュートオーディオビデオディレクトリSBTAVの下にもセカンダリービデオセットの時間情報からアドレス情報に変換するタイムマップファイルSTMAPとセカンダリーエンハンストビデオオブジェクトファイルS-EVOBを格納することができる。 Under secondary video set directory SCDVS, there are substitute audio video directory SBTAV, substitute audio directory SBTAD and secondary audio video directory SCDAV, and under secondary audio video directory SCDAV address information from time information of secondary video set There are a secondary video set time map file STMAP for recording a time map to be converted into a secondary enhanced video object file S-EVOB for recording a secondary enhanced video object. In addition, a time map file STMAP for converting the time information of the secondary video set into address information and the secondary enhanced video object file S-EVOB can also be stored under the substitute audio directory SBTAD and the substitute audio video directory SBTAV.
アドバンストサブタイトルディレクトリADSBTの下には、アドバンストサブタイトルに関する管理情報が記録されるアドバンストナビゲーションディレクトリADVNVとアドバンストサブタイトルのエレメント情報であるアドバンストエレメントディレクトリADVELが存在する。前記アドバンストナビゲーションディレクトリADVNVには、アドバンストサブタイトルのマニュフェストファイルMNFSTSとアドバンストサブタイトルのマークアップファイルMRKUPSが存在する。前記アドバンストサブタイトルのマニュフェストファイルMNFSTSには、アドバンストサブタイトルに関係する各種管理情報間の関係や、ネットワークダウンロードに必要な情報が記録されている。また前記アドバンストサブタイトルのマークアップファイルMRKUPS内にはアドバンストサブタイトルの画面上の表示位置などを指定するマークアップ情報が記録されている。また、アドバンストエレメントディレクトリADVELには、アドバンストサブタイトルのフォント情報を記録するアドバンストサブタイトルのフォントファイルFONTSが存在する。 Under the advanced subtitle directory ADSBT, there are an advanced navigation directory ADVNV in which management information related to the advanced subtitle is recorded, and an advanced element directory ADVEL that is element information of the advanced subtitle. The advanced navigation directory ADVNV includes an advanced subtitle manifest file MNFSTS and an advanced subtitle markup file MRKUPS. In the advanced subtitle manifest file MNFSTS, the relationship between various management information related to the advanced subtitle and information necessary for network download are recorded. In the advanced subtitle markup file MRKUPS, markup information for specifying the display position of the advanced subtitle on the screen is recorded. The advanced element directory ADVEL also includes an advanced subtitle font file FONTS for recording advanced subtitle font information.
<アドバンストコンテンツディレクトリ(Directories for Advanced Content)>
アドバンストコンテンツディレクトリADVCTの名前及びそれに含まれる各ディレクトリとファイル名は、DキャラクターズまたはD1キャラクターズで記載される。また、このアドバンストコンテンツディレクトリADVCTの下にサブディレクトリを配置するが、このサブディレクトリの階層の深さは8階層以下とし、トータルサブディレクトリの数は本実施形態では512以下に設定する。仮に余りにディレクトリが深い場合、またはトータルサブディレクトリの数が多い場合はアクセス性が低下する。従って本実施形態では、階層の数や、ディレクトリの数を制限することでアクセスの高速性を確保することができる。
<Directories for Advanced Content>
The name of the advanced content directory ADVCT and each directory and file name included therein are described in D characters or D1 characters. A subdirectory is arranged under the advanced content directory ADVCT. The subdirectory has a depth of 8 or less, and the total number of subdirectories is set to 512 or less in this embodiment. If the directory is too deep, or if the total number of subdirectories is large, the accessibility is degraded. Therefore, in this embodiment, it is possible to secure high speed access by limiting the number of hierarchies and the number of directories.
<アドバンストコンテンツのファイル群(Files for Advanced Content)>
図11に示すアドバンストコンテンツディレクトリADVCT以下に記録することのできるトータルファイル数は512×2047個以下とし、各ディレクトリ内に記録できるファイル数は2048ファイル以下に設定する。また、ファイル名としては各ファイル名の後ろにピリオド“.”を配置し、ピリオド“.”の後ろに拡張子を配置する構造にする。前記アドバンストコンテンツディレクトリADVCTは、情報記録媒体のルートディレクトリ直下に記録され、このアドバンストコンテンツディレクトリADVCTの直下にプレイリストファイルPLLSTが記録される。
<Files for Advanced Content>
The total number of files that can be recorded in the advanced content directory ADVCT shown in FIG. 11 is 512 × 2047 or less, and the number of files that can be recorded in each directory is set to 2048 files or less. The file name has a structure in which a period “.” Is placed after each file name and an extension is placed after the period “.”. The advanced content directory ADVCT is recorded directly under the root directory of the information recording medium, and a playlist file PLLST is recorded directly under the advanced content directory ADVCT.
<プレイリスト(Playlist)の設定>
このプレイリストファイルPLLSTは情報記憶媒体上に複数個記録することができる。プレイリストファイルPLLSTは2種類のプレイリストファイルPLLSTを設定可能であり、情報再生装置が直接再生時にアクセスするプレイリストファイルPLLSTに対してはファイル名として “VPLIST%%.XML”の名前にし、情報再生装置が直接アクセスしないプレイリストPLLSTのファイル名を “APLIST&&.XML”という名前に設定する。ここにおいて“%%”と“&&”は00から99までの数字が入る。
<Playlist settings>
A plurality of playlist files PLLST can be recorded on the information storage medium. The playlist file PLLST can be set to two types of playlist file PLLST. For the playlist file PLLST that is accessed directly by the information playback device, the file name is “VPLIST %%. XML”. Set the name of the playlist PLLST that is not directly accessed by the playback device to the name “APLIST &&. XML”. Here, “%%” and “&&” are numbers from 00 to 99.
<ファイル名(File name)>
図11に示したアドバンストビデオタイトルセットインフォメーションファイルADVTSIのファイル名は、“AVI00001.IFO”という名前にする。また、プライマリーエンハンストビデオオブジェクトファイルP-EVOBおよびセカンダリーエンハンストビデオオブジェクトファイルS-EVOBの拡張子はEVOと設定する。また、プライマリービデオセットのタイムマップファイルPTMAPとセカンダリービデオセットのタイムマップファイルSTMAPの拡張子は、“IFO”に設定する。
<File name>
The file name of the advanced video title set information file ADVTSI shown in FIG. 11 is “AVI00001.IFO”. The extensions of the primary enhanced video object file P-EVOB and the secondary enhanced video object file S-EVOB are set to EVO. The extensions of the time map file PTMAP of the primary video set and the time map file STMAP of the secondary video set are set to “IFO”.
前記プライマリービデオセットタイムマップファイルPTMAPとセカンダリービデオセットのタイムマップファイルSTMAPファイルは、999以下のファイル数にしなければならない。このようにタイムマップファイルの数の上限を規定することにより、エンハンストオブジェクトデータEVOBへのアクセス制御の高速化を保証することができる。 The primary video set time map file PTMAP and the secondary video set time map file STMAP file should have a file number of 999 or less. By defining the upper limit of the number of time map files in this way, it is possible to guarantee high speed access control to the enhanced object data EVOB.
アドバンストコンテンツ内のデータ構造例を図12に示す。 An example of the data structure in the advanced content is shown in FIG.
<アドバンストコンテンツ(Advanced Content)内のデータ構造例>
スタンダードコンテンツSTDCTが実現するオーディオビデオの表現形式をさらに拡張し、かつインタラクティブな操作が可能にするためアドバンストコンテンツADVCTが本実施形態では設定されている。
<Example of data structure in Advanced Content>
The advanced content ADVCT is set in the present embodiment in order to further expand the audio video expression format realized by the standard content STDCT and enable interactive operation.
アドバンストコンテンツADVCTはプレイリストPLLSTと図10に示すプライマリービデオセットPRMVS、セカンダリービデオセットSCDVS、アドバンストアプリケーションADAPLとアドバンストサブタイトルADSBTから構成されている。図12に示すプレイリストPLLSTは、各種オブジェクト情報の再生方法に関する情報が記録されており、それらの情報は図11に示すようにアドバンストコンテンツディレクトリADVCTの下に1個のプレイリストファイルPLLSTとして記録されている。 The advanced content ADVCT includes a playlist PLLST, a primary video set PRMVS, a secondary video set SCDVS, an advanced application ADAPL, and an advanced subtitle ADSBT shown in FIG. The playlist PLLST shown in FIG. 12 records information related to the reproduction method of various object information, and the information is recorded as one playlist file PLLST under the advanced content directory ADVCT as shown in FIG. ing.
<プレイリスト(Playlist)に含まれる情報>
プレイリストPLLSTもしくはそれが記録されているプレイリストファイルPLLSTはXMLにより記述され、情報記憶媒体内に1以上のプレイリストファイルPLLSTとして記録されている。本実施形態におけるカテゴリー2もしくはカテゴリー3に属するアドバンストコンテンツADVCTが記録されている情報記憶媒体においては、情報記憶媒体挿入直後に情報再生装置は前記プレイリストファイルPLLSTの検索を行うようになっている。本実施形態において、プレイリストファイルPLLSTは以下の情報を含んでいる。
<Information included in playlist>
The playlist PLLST or the playlist file PLLST in which it is recorded is described in XML, and is recorded as one or more playlist files PLLST in the information storage medium. In the information storage medium in which the advanced content ADVCT belonging to
1) オブジェクトマッピングインフォメーションOBMAPI
オブジェクトマッピングインフォメーションOBMAPIは、プライマリービデオセットPRMVS、セカンダリービデオセットSCDVS、アドバンストアプリケーションADAPLやアドバンストサブタイトルADSBTなどのオブジェクトに関する再生情報として設定される。本実施形態においては前記各オブジェクトデータの再生タイミングは、後述するタイトルタイムライン上にマッピングされる形で記載される。前記オブジェクトマッピングインフォメーションOBMAPIにおいてプライマリービデオセットPRMVSや、セカンダリービデオセットSCDVSの配置場所はそれらのタイムマップファイルPTMAPまたはSTMAPが存在する場所(ディレクトリあるいはURL)を参照することにより指定される。また、前記オブジェクトマッピングインフォメーションOBMAPIにおいて、アドバンストアプリケーションADAPLや、アドバンストサブタイトルADSBTは、それらに対応したマニュフェストファイルMNFSTあるいはMNFSTSが配置されている場所(ディレクトリまたはURL)を指定することにより決定される。
1) Object mapping information OBMAPI
The object mapping information OBMAPI is set as reproduction information related to objects such as the primary video set PRMVS, the secondary video set SCDVS, the advanced application ADAPL, and the advanced subtitle ADSBT. In the present embodiment, the reproduction timing of each object data is described in a form mapped on a title timeline described later. In the object mapping information OBMAPI, the location of the primary video set PRMVS and the secondary video set SCDVS is specified by referring to the location (directory or URL) where the time map file PTMAP or STMAP exists. In the object mapping information OBMAPI, the advanced application ADAPL and the advanced subtitle ADSBT are determined by designating the location (directory or URL) where the corresponding manifest file MNFST or MNFSTS is located.
2) トラックナンバーアサイメントインフォメーション
本実施形態においては、オーディオストリームや副映像ストリームを複数持つことが許されているが、プレイリストPLLST上に何番目のストリームデータを表示するかを表す情報が記載される。これら何番目のストリームが使用されるかという情報は、トラック番号として記述される。この対象となるトラック番号としては、ビデオストリームに対するビデオトラック番号、サブビデオストリームに対するサブビデオトラック番号、オーディオストリームに対するオーディオトラック番号、サブオーディオストリームに対するサブオーディオトラック番号、サブタイトルストリームに対応するサブタイトルトラック番号と、アプリケーションストリームに対応するアプリケーショントラック番号が設定される。
2) Track number assignment information In this embodiment, it is allowed to have a plurality of audio streams and sub-picture streams, but information indicating what number of stream data is displayed on the playlist PLLST is described. The Information indicating which number of these streams is used is described as a track number. The target track numbers include the video track number for the video stream, the sub video track number for the sub video stream, the audio track number for the audio stream, the sub audio track number for the sub audio stream, and the subtitle track number corresponding to the subtitle stream. The application track number corresponding to the application stream is set.
3) トラックナビゲーションインフォメーションTRNAVI
このトラックナビゲーションインフォメーションTRNAVIは、前記アサインされたトラックナンバーに対する関連情報を記載しているものであり、トラック番号毎の属性情報がリストとして記録されユーザの選択への便宜を図っている。例えばトラック番号毎に言語コードなどが前記ナビゲーションインフォメーションに記録され、トラック番号1番が日本語、トラック番号2番が英語、トラック番号3番が中国語など前記トラックナビゲーションインフォメーションTRNAVIを利用することにより、ユーザが好みの言語を即座に判定しやすくしている。
3) Track navigation information TRNAVI
The track navigation information TRNAVI describes related information for the assigned track number, and attribute information for each track number is recorded as a list for convenience of user selection. For example, by using the track navigation information TRNAVI such as language code for each track number recorded in the navigation information,
4) リソースインフォメーションRESRCI
このリソースインフォメーションRESRCIは、ファイルキャッシュ内にいつまでにリソースファイルを転送しなければいけないかなどのタイミング情報を示している。また、このリソース内インフォメーションにはアドバンストアプリケーションADAPL内においていつ各リソースファイルを参照するかのタイミングなども記載されている。
4) Resource information RESRCI
This resource information RESRCI indicates timing information such as when the resource file must be transferred into the file cache. In addition, the information in the resource also describes when to refer to each resource file in the advanced application ADAPL.
5) プレイバックシーケンスインフォメーションPLSQI
前記プレイバックシーケンスインフォメーションPLSQIは、例えば1個のタイトル内のチャプター情報など、ユーザがチャプター位置へのジャンプ処理がしやすいような情報が記録されている。このプレイバックシーケンスインフォメーションPLSQIは、タイトルタイムラインTMLEにおける時刻指定ポイントとして表示されている。
5) Playback sequence information PLSQI
In the playback sequence information PLSQI, information that makes it easy for the user to jump to the chapter position, such as chapter information in one title, is recorded. This playback sequence information PLSQI is displayed as a time designation point in the title timeline TMLE.
6) システムコンフィギュレーションインフォメーション
システムコンフィギュレーションインフォメーションは、例えばインターネット経由でファイルキャッシュにデータを格納する時に必要なデータサイズを表すストリーミングバッファサイズなどのシステムを構成するために必要な構造的な情報が記録されている。
6) System configuration information The system configuration information records structural information necessary for configuring the system, such as a streaming buffer size indicating the data size required when storing data in a file cache via the Internet, for example. ing.
<プレイリストからのデータ参照方法>
図12では、各オブジェクトへのプレイリストPLLSTでのデータ参照方法を示している。例えばプレイリストPLLST上で特定のプライマリーエンハンストオブジェクトP-EVOBを再生したい場合には、その属性情報が記録されているエンハンストビデオオブジェクトインフォメーションEVOBIを参照した後、プライマリーエンハンストビデオオブジェクトP-EVOBにアクセスする必要がある。またプレイリストPLLSTでは、プライマリーエンハンストビデオオブジェクトP-EVOBの再生範囲をタイムライン上で時間情報として規定している。そのため指定された時間に対する情報記憶媒体上のアドレス位置に変換するツールとして、プライマリービデオセットのタイムマップPTMAPが最初に参照される必要がある。同様にセカンダリーエンハンストビデオオブジェクトS-EVOBの再生範囲もプレイリストPLLST上では時間情報で記載されており、その範囲の情報記憶媒体上でのセカンダリーエンハンストビデオオブジェクトS-EVOBの記録場所を探すために、最初にセカンダリービデオセットSCDVSのタイムマップSTMAPが参照される。また、アドバンストアプリケーションADAPLのデータは図10に示すように、情報再生装置で使われる前に必ずファイルキャッシュ上に格納される必要がある。そのため、アドバンストアプリケーションADAPLの各種データを使用する場合には、プレイリストPLLSTからマニュフェストファイルMNFSTを参照し、マニュフェストファイルMNFST内に記載された各種リソースファイル(前記リソースファイルの保存場所とリソースファイル名も前記マニュフェストファイルMNFST内に記載されている)をファイルキャッシュFLCCH(データキャッシュDTCCH)上に転送する必要がある。同様にアドバンストサブタイトルADSBTの各種データを使用する場合も、事前にファイルキャッシュFLCCH(データキャッシュDTCCH)上での格納が必要となるため、アドバンストサブタイトルADSBTのマニュフェストMNFSTSを利用してファイルキャッシュFLCCH(データキャッシュDTCCH)へのデータ転送が可能となる。アドバンストサブタイトルADSBT内のマークアップMRKUPSにより、画面上でのアドバンストサブタイトルADSBTの表示場所と表示タイミングを知ることができるとともに、アドバンストサブタイトルADSBT情報を画面上に表示する時にアドバンストサブタイトルADSBTのフォントFONTSの情報を利用できる。
<Data reference method from playlist>
FIG. 12 shows a data reference method in the playlist PLLST for each object. For example, to play a specific primary enhanced object P-EVOB on the playlist PLLST, it is necessary to access the primary enhanced video object P-EVOB after referring to the enhanced video object information EVOBI in which the attribute information is recorded There is. In the playlist PLLST, the playback range of the primary enhanced video object P-EVOB is defined as time information on the timeline. Therefore, it is necessary to first refer to the time map PTMAP of the primary video set as a tool for converting the address position on the information storage medium for the specified time. Similarly, the playback range of the secondary enhanced video object S-EVOB is also described as time information on the playlist PLLST, and in order to find the recording location of the secondary enhanced video object S-EVOB on the information storage medium in that range, First, the time map STMAP of the secondary video set SCDVS is referred to. Further, as shown in FIG. 10, the data of the advanced application ADAPL must be stored in the file cache before being used in the information reproducing apparatus. Therefore, when using various data of the advanced application ADAPL, refer to the manifest file MNFST from the playlist PLLST, and various resource files described in the manifest file MNFST (the storage location of the resource file and the resource file name are also described above). (Which is described in the manifest file MNFST) needs to be transferred onto the file cache FLCCH (data cache DTCCH). Similarly, when using various data of the advanced subtitle ADSBT, storage on the file cache FLCCH (data cache DTCCH) is required in advance. DTCCH) can be transferred. The markup MRKUPS in the advanced subtitle ADSBT allows you to know the display location and display timing of the advanced subtitle ADSBT on the screen. Available.
<タイムマップの参照>
プライマリービデオセットPRMVSを表示するにはタイムマップPTMAPを参照し、エンハンストビデオオブジェクトインフォメーションEVOBIで定義されたプライマリーエンハンストビデオオブジェクトP-EVOBにアクセス処理をする必要がある。
<Refer to time map>
In order to display the primary video set PRMVS, it is necessary to refer to the time map PTMAP and perform access processing to the primary enhanced video object P-EVOB defined in the enhanced video object information EVOBI.
本実施形態のアドバンストコンテンツADVCT内のデータ構造における、ポイント内容と効果について図13を用いて説明を行う。ポイント内容と効果については下記の通り8点挙げられる。 The point contents and effects in the data structure in the advanced content ADVCT of this embodiment will be described with reference to FIG. The points and effects are listed as follows.
本実施形態における特徴・ポイント内容を以下に示す。 The features / point contents in this embodiment are shown below.
(1) 時間軸上レイアウトとユーザ表示画面上の2次元的レイアウトに関する設定管理情報として、プレイリストPLLSTとマークアップMRKUPの階層構造を持ち、両者が同一の記述形式(XML)で記述される。 (1) As setting management information regarding the layout on the time axis and the two-dimensional layout on the user display screen, the playlist PLLST and the markup MRKUP have a hierarchical structure, and both are described in the same description format (XML).
(2) プレイリストPLLST上ではタイトルタイムラインTMLEに合わせたメディアクロックを持ち、マークアップMRKUPではタイミングエレメントによる設定に合わせたページクロック/アプリケーションクロックを持つ。また、両クロック間は互いに独自に設定できる(同期する必要がない)。 (2) The playlist PLLST has a media clock that matches the title timeline TMLE, and the markup MRKUP has a page clock / application clock that matches the settings of the timing elements. In addition, both clocks can be set independently (no need to synchronize).
(3) 動画(エンハンストビデオオブジェクトEVOB)における初期時の画面上レイアウトは、プレイリストPLLST(ビデオアトリビュートアイテムエレメントVABITM)上で指定され、スクリプトSCRPTの実行に合わせて変更が可能である。 (3) The initial layout on the screen of the video (enhanced video object EVOB) is specified on the playlist PLLST (video attribute item element VABITM) and can be changed in accordance with the execution of the script SCRPT.
(4) 画面上でのアドバンストアプリケーションADAPLの表示領域(アプリケーション領域APPRGN)のレイアウトをマニフェストMNFST内で指定し、その中の各エレメント毎のレイアウトをマークアップMRKUP上で指定する。 (4) The layout of the display area (application area APPRGN) of the advanced application ADAPL on the screen is specified in the manifest MNFST, and the layout of each element in it is specified on the markup MRKUP.
(5) 1個のプレイリストPLLSTに対し複数のマークアップMRKUPの設定が可能である。 (5) A plurality of markup MRKUPs can be set for one playlist PLLST.
(6) マークアップページ内で設定されたスクリプトSCRPTの実行により、同一プレイリストPLLST内での複数のマークアップページMRKUP間の遷移が行われる。 (6) By executing the script SCRPT set in the markup page, a transition between a plurality of markup pages MRKUP in the same playlist PLLST is performed.
(7) 同一プレイリストPLLST内で遷移対象となる複数のマークアップページMRKUPが複数のマニフェストMNFSTにより指定可能である。また、前記複数のマークアップページMRKUPの内、最初に表示されるマークアップページMRKUPが各対応したマニフェストMNFST内に記述される。指定されたマークアップファイルMRKUPは事前にファイルキャッシュFLCCH内に一時保存され、前記ファイルキャッシュFLCCH内に一時保存されるべきマークアップファイルMRKUP及び静止画IMAGEやイフェクトオーディオEFTADなどのエレメントファイルの元々の保存場所がアプリケーションリソースエレメントAPRELEの一覧表としてプレイリストPLLST内に記述されている(図63参照)。 (7) A plurality of markup pages MRKUP to be transitioned in the same playlist PLLST can be designated by a plurality of manifests MNFST. In addition, among the plurality of markup pages MRKUP, the markup page MRKUP that is displayed first is described in each corresponding manifest MNFST. The designated markup file MRKUP is temporarily stored in the file cache FLCCH in advance, and the markup file MRKUP to be temporarily stored in the file cache FLCCH and the original storage of element files such as still images IMAGE and effect audio EFTAD The location is described in the playlist PLLST as a list of application resource elements APRELE (see FIG. 63).
(8) プレイリストPLLSTからアドバンストアプリケーションセグメントADAPLのSRC属性情報(リソース属性情報)、マニフェストMNFST内のマークアップエレメントMRKUPのSRC属性情報(リソース属性情報)を経由し、初期に表示するマークアップページMRKUPを指定する。 (8) Markup page MRKUP displayed initially from playlist PLLST via SRC attribute information (resource attribute information) of advanced application segment ADAPL and SRC attribute information (resource attribute information) of markup element MRKUP in manifest MNFST Is specified.
次に上記特徴・ポイント内容(1)〜(8)に対する効果について説明を行う。 Next, effects on the features / point contents (1) to (8) will be described.
(1) レイアウトに関する設定管理情報の拡張性と柔軟性が向上する。また、同一の記述形式により管理情報の解読処理の容易化と共有化が図れる。 (1) Extensibility and flexibility of setting management information related to layout are improved. Further, the management information can be easily decoded and shared by the same description format.
(2) タイトルタイムラインTMLEに同期した動画情報を高速再生/巻戻し再生している最中に、アプリケーションクロック上にて標準速度で再生したアプリケーション画面(アドバンストアプリケーションADAPLとアドバンストサブタイトルADSBTに関係した画面)を同時に表示することができ、ユーザに対する表現力が大幅に向上する。 (2) An application screen (screen related to advanced application ADAPL and advanced subtitle ADSBT) that is played back at standard speed on the application clock during high-speed playback / rewind playback of video information synchronized with the title timeline TMLE ) Can be displayed at the same time, and the expressiveness to the user is greatly improved.
(3) ユーザ画面上での動画の表示領域が任意に設定できるため、ユーザに対する表現力が大幅に向上する。 (3) Since the display area of the moving image on the user screen can be set arbitrarily, the expressive power for the user is greatly improved.
(4) アドバンストアプリケーションADAPLの各エレメントの配置場所が(アプリケーション領域APPRGNにより)グルーピングされているため、アドバンストアプリケーションマネージャADAMNGによる管理が容易となる。また、動画の表示領域との間のレイアウト管理(重なり防止など)が容易となる。 (4) Since the arrangement locations of the elements of the advanced application ADAPL are grouped (by the application area APPRGN), management by the advanced application manager ADAMNG becomes easy. In addition, layout management (such as overlapping prevention) with the moving image display area is facilitated.
(5) 同一の動画を表示している途中で複数のマークアップページMRKUP間の遷移表示が可能となり、ユーザに対する表現力が大幅に向上する。 (5) Transition display between a plurality of markup pages MRKUP is possible in the middle of displaying the same video, and the expressive power for the user is greatly improved.
(6) 複数のマークアップページMRKUP間の遷移方法が大幅にフレキシブルになる。(例として、ユーザがアクションを指定した直後にマークアップページMRKUP間の遷移が起きず、動画の表示画面に合わせてディレイを持たせた遷移をスクリプトSCRPTで設定できる(図2の技術的工夫を行った結果得られる新たな効果(1.3)参照))。前記ディレイを持たせた遷移は、図75の(f)に示すイベントエレメントEVNTELにより設定する事ができる。 (6) The transition method between multiple markup pages MRKUP is greatly flexible. (For example, the transition between the markup pages MRKUP does not occur immediately after the user specifies the action, and the transition with a delay according to the video display screen can be set with the script SCRPT (see the technical idea of FIG. 2). New effects obtained as a result (see 1.3))). The transition having the delay can be set by an event element EVNTEL shown in FIG.
(7) マニフェストMNFSTにより指定されたマークアップページMRKUP情報を事前にファイルキャッシュFLCCH内に保存できるため、複数のマークアップページMRKUP間の遷移が高速で行え、ユーザが使用し易い(ユーザに好印象を与える事ができる)。また、ファイルキャッシュFLCCH内に一時保存されるべきマークアップファイルMRKUP及び静止画IMAGEやイフェクトオーディオEFTADなどのエレメントファイルの元々の保存場所がアプリケーションリソースエレメントAPRELEの一覧表としてプレイリストPLLST内に記述されているので、ファイルキャッシュFLCCH内に一時保存されるべきリソース一覧を事前に知る事ができ、ファイルキャッシュFLCCHへのリソースのダウンロード処理の効率化を図る事ができる。 (7) Since the markup page MRKUP information specified by the manifest MNFST can be stored in the file cache FLCCH in advance, the transition between multiple markup pages MRKUP can be performed at high speed and is easy for the user to use. Can be given). In addition, the markup file MRKUP to be temporarily stored in the file cache FLCCH and the original storage location of element files such as still image IMAGE and effect audio EFTAD are described in the playlist PLLST as a list of application resource elements APRELE. Therefore, it is possible to know in advance a list of resources that should be temporarily stored in the file cache FLCCH, and to improve the efficiency of the process of downloading the resources to the file cache FLCCH.
(8) プレイリストPLLSTからのマークアップページMRKUP指定に対する拡張性が向上すると共に編集容易性も向上する。 (8) The expandability of the markup page MRKUP designation from the playlist PLLST is improved and the editability is improved.
図1ではネットワークサーバNTSRVから情報記録再生装置1までのネットワーク経路が光ケーブル12を介して家庭内のルータ11を経由し、家庭内で無線LANによりデータ接続されている例で示してあるが、これに限らず本実施形態において別経由でのネットワーク経路を有してもよい。また図1では情報記録再生装置1としてパーソナルコンピュータの図面を書いているが、これに限らず本実施形態においては情報記録再生装置として家庭用レコーダ単体または家庭用プレーヤ単体として設定することが可能である。また、無線を使わず直接有線でモニタに表示してもよい。
In FIG. 1, the network path from the network server NTSRV to the information recording / reproducing
本実施形態において、図10に示すセカンダリービデオセットSCDVSとアドバンストアプリケーションADAPL及びアドバンストサブタイトルADSBTの情報は、事前に図1に示すネットワークサーバNTSRVに保存されており、それらの情報が光ケーブル12を返して家庭内に配信されることが可能となっている。光ケーブル12から送られた前期各種データは家庭内でルータ11を経由して情報記録再生装置1へ無線データ17の形で転送される。ルータ11は無線LAN制御部7-2とデータマネージャ9及びネットワーク制御部8から構成され、ネットワーク制御部8によりネットワークサーバNTSRVとの間のデータ更新を制御し、無線LAN制御部7-2により家庭内無線LANへデータ転送する。それらのデータの転送処理をデータマネージャ9が制御している。ルータ11から無線データ17に乗せられて送られてきたセカンダリービデオセットSCDVS、アドバンストアプリケーションADAPL、及びアドバンストサブタイトルADSBTの各種コンテンツは、無線LAN制御部7-1でデータを受けた後アドバンストコンテンツ再生部ADVPL内に送られ、一部は図14に示すデータキャッシュDTCCHに保存される。本実施形態の情報再生装置は、アドバンストコンテンツADVCTを再生するアドバンストコンテンツ再生部ADVPLとスタンダードコンテンツSTDCTを再生するスタンダードコンテンツ再生部STDPLと録画可能な情報記憶媒体DISCもしくはハードディスク装置6に映像録画を行い、そこから再生が可能な録画再生処理部4が内蔵されている。それらの再生部及び録画再生処理部はメインCPU5により有機的に制御される。図1に示すように、情報記憶媒体DISCは情報記録再生部2の中で再生もしくは情報の記録が行われる。本実施形態において、アドバンストコンテンツ再生部ADVPLが再生対象とするメディアは前記情報記録再生部2やパーシステントストレージドライブ3(固定形あるいは携帯形フラッシュメモリのドライブ)からの情報の再生を前提としている。また本実施形態では前述したように、ネットワークサーバNTSRVに記録されたデータの再生も可能となっている。この場合には前述したようにネットワークサーバNTSRVに保存されているデータが光ケーブル12を経由し、ルータ11内のネットワーク制御からルータ11内の無線LAN制御部7-2を経由し、無線データ17の形で転送され無線LAN制御部7-1を経由してアドバンストコンテンツ再生部ADVPLへ情報が転送される。アドバンストコンテンツ再生部ADVPLで再生される映像情報は、ディスプレイ13に表示することが可能であるか、より大画面で表示したいというユーザ要求に合わせ無線LAN制御部7-1から無線データ18の形で大画面テレビモニタ15に映し出されることが可能となる。大画面モニタ15には映像処理部24、映像表示部21、無線LAN制御部7-3が内蔵されており無線データ18は、前記無線LAN制御部7-3で受信した後映像処理部24で映像処理し、映像表示部21を返して大画面テレビモニタ15に表示されるとともにスピーカ16-1、16-2で音声出力される。
In this embodiment, information on the secondary video set SCDVS, the advanced application ADAPL, and the advanced subtitle ADSBT shown in FIG. 10 is stored in advance in the network server NTSRV shown in FIG. It is possible to be distributed within. Various data in the previous term sent from the
図1に示したシステム説明図におけるアドバンストコンテンツ再生部ADVPLの内部構造について図14を用い以下に説明を行う。本実施形態において、アドバンスコンテンツ再生部ADVPLは下記の5つの論理的な機能モジュールから構成されている。 The internal structure of the advanced content playback unit ADVPL in the system explanatory diagram shown in FIG. 1 will be described below with reference to FIG. In the present embodiment, the advanced content playback unit ADVPL is composed of the following five logical function modules.
<データアクセスマネージャ(Data Access Manager)>
データアクセスマネージャDAMNGは、アドバンストコンテンツADVCTが記録された外部の情報記録場所とアドバンストコンテンツ再生部ADVPL内の各モジュールとの間のデータのやりとりの管理に利用される。本実施形態ではアドバンストコンテンツADVCTの記録場所としてパーシステントストレージPRSTR、ネットワークサーバNTSRVと情報記憶媒体DISCを前提としており、それらの情報がデータアクセスマネージャDAMNGとやりとりされる。また各種アドバンストコンテンツADVCTの情報は、データアクセスマネージャDAMNGを介して後述するナビゲーションマネージャNVMNG、データキャッシュDTCCH、プレゼンテーションエンジンPRSENとの間のデータのやりとりを行う。
<Data Access Manager>
The data access manager DAMNG is used for managing data exchange between an external information recording location where the advanced content ADVCT is recorded and each module in the advanced content playback unit ADVPL. In the present embodiment, the persistent storage PRSTR, the network server NTSRV, and the information storage medium DISC are premised as recording locations of the advanced content ADVCT, and the information is exchanged with the data access manager DAMNG. Information on various advanced contents ADVCT is exchanged with a navigation manager NVMNG, a data cache DTCCH, and a presentation engine PRSEN, which will be described later, via a data access manager DAMNG.
<データキャッシュ(Data Cache)>
データキャッシュDTCCHは、アドバンストコンテンツ再生部ADVPLにおけるテンポラルなデータ保存場所(一時保存場所)として利用される。
<Data Cache>
The data cache DTCCH is used as a temporal data storage location (temporary storage location) in the advanced content playback unit ADVPL.
<ナビゲーションマネージャ(Navigation Manager)>
ナビゲーションマネージャNVMNGは、アドバンストコンテンツ再生部ADVPLの全機能モジュールの制御を行い、それらはアドバンストアプリケーションADAPLの記載内容に応じて制御される。前記ナビゲーションマネージャNVMNGは、ユーザオペレーションUOPEとの制御も行う。前記ユーザオペレーションUOPEは、例えば情報再生装置におけるフロントパネルのキーインとか、リモコンによるキーインなどによりユーザオペレーションが発生する。これらの処理により発生するユーザオペレーションUOPEから受け取った情報は、前記ナビゲーションマネージャNVMNGにより処理される。
<Navigation Manager>
The navigation manager NVMNG controls all functional modules of the advanced content playback unit ADVPL, which are controlled in accordance with the description content of the advanced application ADAPL. The navigation manager NVMNG also controls the user operation UOPE. The user operation UOPE is generated by, for example, a front panel key-in in an information reproducing apparatus or a key-in by a remote controller. Information received from the user operation UOPE generated by these processes is processed by the navigation manager NVMNG.
<プレゼンテーションエンジン(Presentation Engine)>
プレゼンテーションエンジンPRSENは、アドバンストコンテンツADVCTの表示再生を行う。
<Presentation Engine>
The presentation engine PRSEN displays and reproduces the advanced content ADVCT.
<AVレンダラ(AV Renderer)>
AVレンダラーAVRNDは他のモジュールから入力されたビデオ情報と音声情報の合成処理を行い、スピーカ16や大画面テレビモニタ15などに対する外部への出力を行う。このとき利用される音声情報は単独ストリーム情報でもサブオーディオSUBADとメインオーディオMANADを混合されたオーディオ情報でもよい。
<AV Renderer>
The AV renderer AVRND performs synthesis processing of video information and audio information input from other modules, and outputs them externally to the speaker 16, the large
<オブジェクト情報などの自動更新の実現>
図2に示すように、本実施形態による技術的工夫を行った結果得られる新たな効果に対する具体的な例を図15に表す。図2の効果において、“5〕ネットワークを用いたディスク上の情報更新機能を持たせる”内の“5.1)オブジェクト情報の自動更新やディスク内管理情報の自動更新”という新たな効果を発揮する方法として本実施形態では図15に示すように、コマーシャルCM44やコマーシャル用の別画面32およびテロップCM43、上映予告41を常に最新の映像としてユーザに供給することができるところに本実施形態の大きな特徴がある。
<Realization of automatic update of object information>
As shown in FIG. 2, a specific example of a new effect obtained as a result of performing the technical device according to the present embodiment is shown in FIG. In the effect of FIG. 2, the new effect “5.1) Automatic update of object information and automatic update of in-disk management information” in “5] Provide information update function on disk using network” is exhibited. As shown in FIG. 15, in this embodiment, the commercial CM 44, the
上映予告41を常に最新の情報に変更させることにより、タイムリーな映画の上映予告PRがユーザに対して可能となりユーザを映画館に呼ぶきっかけをつくることができる。また本実施形態ではコマーシャルCM44、コマーシャル用の別画面32およびテロップCM43を本編31の再生にリンクして表示することにより、通常のテレビの放送のようにコマーシャルのスポンサーからスポンサー料を取り、それにより情報記憶媒体DISCのユーザに対する販売価格を低く抑えるということが可能となる。映像情報にコマーシャルを入れるという概念は従来から多く提案されているが、本実施形態のようにネットワークサーバNTSRVから適宜最新のコマーシャル情報を読み取り、情報記憶媒体DISCに記録されている本編31の上映とリンクして、コマーシャル情報を最新のコマーシャルを表示することに本実施形態の大きな技術的な特徴がある。最新の上映予告41やコマーシャル情報は図1に示すネットワークサーバNTSRVに逐次更新保存され、情報記憶媒体DISC内に記録されている本編31の再生タイミングに合わせてネットワークダウンロードを行う。図15に示した各オブジェクトと図10に示す各オブジェクトとの間の関係を以下に示す。
By constantly changing the
図15においていずれも本編31はプライマリービデオセットPRMVSの中のプライマリーオーディオビデオPRMAVのメインビデオMANVDとメインオーディオMANADから構成されている。上映予告41とコマーシャルCM44及びコマーシャル用の別画面32も情報記憶媒体DISC内のプライマリービデオセットPRMVS内のプライマリーオーディオビデオPRMAVのサブビデオSUBVDとサブオーディオSUBADとして記録されているが、情報記憶媒体DISC作成後特定の時間が経過した後はそれらの情報が表示するに当たらないほど古くなってしまう。その場合にはネットワークサーバNTSRV内に保存されたセカンダリービデオセットSCDVSのセカンダリーオーディオビデオSCDAVにおけるサブビデオSUBVDとサブオーディオSUBADに置き換えられてコマーシャルCM44または、コマーシャル用の別画面32で表示される。本実施形態では予め情報記憶媒体DISCに記録されたコマーシャルCM44は、他の実施形態としてプライマリービデオセットPRMVSのプライマリーオーディオビデオPRMAVのメインビデオMANVDとメインオーディオMANADとして記録することも可能である。同様に上映予告41の情報も情報記憶媒体DISC内に記録する場合には、プライマリービデオセットPRMVS内のプライマリーオーディオビデオPRMAVのサブビデオSUBVDとサブオーディオSUBADに記録するか、あるいはプライマリーオーディオビデオPRMAVのメインビデオMANVDとメインオーディオMANADに記録し、再生時に情報記憶媒体DISC作成から特定の時間を経過した後はセカンダリービデオセットSCDVSのセカンダリーオーディオビデオSCDAV内のサブビデオSUBVDとサブオーディオSUBADの情報としてネットワークサーバNTSRVからダウンロードし、そのダウンロードした情報を表示するようにしている。それにより、本実施形態ではコマーシャルCM44、コマーシャル用の別画面32またはテロップCM43と上映予告41の情報を常に最新の形でユーザに表示することができ、PR効果も向上させることができる。
In FIG. 15, the
<映像コンテンツの具体的な再生方法>
次に図15(a)(b)(c)を用い、本実施形態における映像コンテンツの表示例の説明を行う。
<Specific video content playback method>
Next, display examples of video content in this embodiment will be described with reference to FIGS.
図15(a)においては情報記憶媒体DISCを情報記録再生装置1に挿入すると、最初に詳細ナビの必要性説明映像42が表示される。詳細ナビゲーションの必要をユーザが感じない場合にはそのままやり過ごすが、もしユーザがこの情報記憶媒体DISCのアドバンストコンテンツADVCTを再生する方法の説明を知りたい場合には、詳細ナビの必要を入力することで図示していないが詳細ナビの使用説明を表示することができる。また、図15(c)の場合には、詳細ナビの必要性説明映像42内に後述するヘルプキーの使い方を説明し、ヘルプアイコンを常に出すことでユーザが必要な時にヘルプアイコンを指定し、使い方の説明を問い合わせることができる。
In FIG. 15A, when the information storage medium DISC is inserted into the information recording / reproducing
図15(a)では、放送テレビ画面のように本編31の表示の途中で前述したコマーシャルCM44を挿入する形となっており、このコマーシャルCM44の表示方法及び表示タイミングは通常放送受信テレビで表示するコマーシャルの表示タイミング、表示方法と同じものを示している。また、図15(a)では情報記憶媒体DISCのコンテンツプロバイダが上映する映画の近日の上映予告41を本編31の表示終了後に表示するようになっている。
In FIG. 15A, the commercial CM 44 described above is inserted in the middle of the display of the
図15(b)では、テロップの形で最新のコマーシャル情報CM43が本編31の表示に重ね合わせて表示される。また、上記テロップCM43の表示情報を常に最新の情報にする方法として、本実施形態ではアドバンストサブタイトルADSBTを利用しネットワークダウンロードを活用しているところに大きな特徴がある。すなわち情報記憶媒体DISC内には初期の時点ではプライマリービデオセットPRMVS内のプライマリーオーディオビデオPRMAVの副映像SUBPT内にテロップ(流れるテキスト情報)の形でテロップCM43を表示している。次に情報記憶媒体DISC製造後、特定の時間経過後は最新のテロップCM43の情報をネットワークサーバNTSRV内のアドバンストサブタイトルADSBTとして記録しておりネットワーク経由でデータを取込み、テロップCM43として表示している。
In FIG. 15 (b), the latest commercial information CM 43 in the form of a telop is displayed superimposed on the display of the
図15(c)における映像コンテンツ表示例の説明を行う。図15(c)では、詳細ナビの必要性説明映像42の直後に映画館で上映される上映予告41が表示され、上映予告41の表示後に始めて本編31が表示される形となっている。この場合、本編31とは別のコマーシャル用の別画面32が表示され、それと同時にヘルプアイコン33が表示されている。本実施形態において、本編31の内容はプライマリービデオセットPRMVS内のプライマリーオーディオビデオPRMAVのメインビデオMANVDとメインオーディオMANADとして情報記憶媒体DISC内に予め記録されている。別のコマーシャル用の別画面32は、情報記憶媒体内DISCではプライマリービデオセットPRMVSのプライマリーオーディオビデオPRMAVのサブビデオSUBVDとサブオーディオSUBADとして記録され、この情報が初期の時点ではユーザに表示される。情報記憶媒体DISCの製造後特定の時間が経過した後では、本実施形態では別のコマーシャル用の別画面32は、更新された映像を表示することができる。その方法として、最新のコマーシャル用の別画面32の情報をネットワークサーバNTSRV内にセカンダリービデオセットSCDVS内のセカンダリーオーディオビデオSCDAVのサブビデオSUBVDとサブオーディオSUBADとして保存しておきネットワークを経由して適宜ダウンロードし、ユーザに表示する。また図15(c)の実施形態では、ヘルプアイコン33はアドバンストアプリケーションADAPLの静止画IMAGEとスクリプトSCRPTで構成される。
An example of video content display in FIG. 15C will be described. In FIG. 15C, a
図15(c)における本編31とコマーシャル用の別画面32とヘルプアイコン33が同時に表示されているα点における表示画面の例を図16に示す。
FIG. 16 shows an example of the display screen at the point α where the
図16の左上が本編31を表示し右上にコマーシャル用の別画面32が表示され、下側にヘルプアイコン33が表示されている。図16の画面と図2に示した本実施形態による技術的工夫を行った結果得られる新たな効果について以下に説明を行う。
The
図2に示すように本実施形態による技術的工夫を行った結果得られる新たな効果の“1〕ユーザアクションに対する柔軟かつ印象的なリアクションを行う”については本実施形態を利用することにより、インターネットのホームページに近い柔軟な印象的な画面を作ることが可能となる。具体的な本実施形態による新たな効果の“1.4)PCのようなヘルプ”や“1.5)メニューなどの使い方ガイド”に対応したものが図16のヘルプアイコン33に対応する。この画面上でのヘルプアイコン33の画像はアドバンストアプリケーションADAPLの静止画IMAGEとしてデータが存在し、その情報は図11に示す情報記憶媒体DISC内のアドバンストコンテンツディレクトリADVCTの下のアドバンストアプリケーションディレクトリADAPL内のアドバンストエレメントディレクトリADVEL内に格納されている。ヘルプアイコン33をユーザがクリックすると、ヘルプ対応画像が動き出すがそれに関するコマンド処理はアドバンストアプリケーションADAPL内のスクリプトSCRPTとして記録され、図11のアドバンストコンテンツディレクトリADVCTの下のアドバンストアプリケーションディレクトリADAPLの中にあるアドバンストナビゲーションディレクトリADVNVの下にスクリプトファイルSCRPTとして表示される。またこれらのヘルプアイコン33の静止画像やスクリプトの定義する領域の指定する情報が図11に示すマークアップファイルMRKUP内に記録され、これらの一連の情報間の関連付け情報(データダウンロードに必要な関連情報)が、マニュフェストファイルMNFST内に記録されている。図16に示すようなストップボタン34、プレイボタン35、FR(巻戻し)ボタン36、ポーズボタン37、FF(早送り)ボタン38などの情報もアドバンストアプリケーションADAPLとして分類され、それぞれのアイコンに対応した静止画像が図11の静止画ファイルIMAGE内に格納され、それぞれのボタンを指定した時の実行コマンドが図11のスクリプトファイル内に記録され、それらの領域指定がマークアップファイルMRKUP内に記録されている。
As shown in FIG. 2, “1] Perform flexible and impressive reaction to user action” as a new effect obtained as a result of the technical contrivance according to the present embodiment. This makes it possible to create a flexible and impressive screen that is close to the homepage. A specific effect corresponding to “1.4) Help like a PC” and “1.5) How to use a menu” corresponding to a new effect according to the present embodiment corresponds to the
図2に示した本実施形態による技術的工夫を行った結果新たな効果の中での“3〕再生中の映像にかぶせて別情報を同時に表示する”の中のとりわけ“3.1)マルチウインドウによる複数映像を同時に表示する”や“3.4)スクロールするテキストを映像にかぶせて同時表示する”に対応した図16上の画面の説明を行う。 As a result of carrying out the technical contrivance according to the present embodiment shown in FIG. 2, among the new effects, “3.1) Displaying other information at the same time over the video being played” is particularly “3.1) Multi. The screen on FIG. 16 corresponding to “display a plurality of images in a window at the same time” and “3.4) display scrolling text on the images at the same time” will be described.
現行DVDにおいては、1画面に1種類の映像しか表示することができない。それに対し本実施形態ではメインビデオMANVDとメインオーディオMANADと同時にサブビデオSUBVDとサブオーディオSUBADを表示することが可能となっている。すなわち図16における本編31は、プライマリービデオセットPRMVS内のメインビデオMANVDとメインオーディオMANADに対応し、右側のコマーシャル用の別画面32はサブビデオSUBVDとサブオーディオSUBADに対応し、2画面が同時に表示できる格好となっている。更に本実施形態では図16の右側に示すコマーシャル用の別画面32をセカンダリービデオセットSCDVSのサブビデオSUBVDとサブオーディオSUBADに置き換えて表示できるところに大きな特徴がある。すなわち、プライマリービデオセットPRMVSのプライマリーオーディオビデオ内のサブビデオSUBVDとサブオーディオSUBADは予め情報記憶媒体DISC内に記録されており、更新すべきセカンダリービデオセットSCDVSのサブビデオSUBVDとサブオーディオSUBADがネットワークサーバNTSRV内に記録され、情報記憶媒体DISC作成直後に作成される場合には情報記憶媒体DISC内に事前に記録されたコマーシャル用の別画面32を表示し、情報記憶媒体DISC作成後特定の時間経過後には、コマーシャル用の別画面32を最新の映像と取り替えるために、ネットワークサーバNTSRV内に記録されたセカンダリービデオセットSCDVS内のサブビデオSUBVDとサブオーディオSUBADをネットワーク経由でダウンロードし、取り替えて表示をする。これにより、常に最新のコマーシャル用の別画面32をユーザに表示することができスポンサーのコマーシャル効果を上げることをできるため、スポンサーからの多額のコマーシャル量を徴収することにより、販売する情報記憶媒体DISCの価格を安く抑え、本実施形態における情報記憶媒体DISCの普及を促進することができる。また、それとは別に図16に示すテロップ文字39を本編31に重ねて表示することも可能となる。テロップ文字として、例えばニュースや天気予報など最新の情報をアドバンストサブタイトルADSBTの形でネットワークサーバNTSRV上に保存しておき、適宜ネットワーク経由でダウンロードしつつ表示することでユーザの利便性を大幅に向上させることが可能となる。なお、この時のテロップ文字の文字フォント情報は、図11に示すようにアドバンストサブタイトルディレクトリADSBT内のアドバンストエレメントディレクトリADVPL内のフォントファイルFONTSに記憶することができる。また、このテロップ文字39の大きさや本編31上での表示場所の情報は、図11のアドバンストサブタイトルディレクトリADSBTの下のアドバンストナビゲーションディレクトリADVNVの中のアドバンストサブタイトルADSBTのマークアップファイルMRKUPSに記録することができる。
In the current DVD, only one type of video can be displayed on one screen. On the other hand, in this embodiment, the sub video SUBVD and the sub audio SUBAD can be displayed simultaneously with the main video MANVD and the main audio MANAD. 16 corresponds to the main video MANVD and main audio MANAD in the primary video set PRMVS, and the right commercial
<プレイリスト内の情報の概要>
本実施形態におけるプレイリストPLLST内情報の概要について図17を用いて説明する。本実施形態におけるプレイリストPLLSTは、図11に示すように情報記憶媒体DISC内もしくはパーシステントストレージPRSTR内のアドバンストコンテンツディレクトリADVCTの直下に存在するプレイリストファイルPLLST内に記録され、アドバンストコンテンツADVCTの再生に関する管理情報が記録されている。プレイリストPLLST内にはプレイバックシーケンスインフォメーションPLSQIとオブジェクトマッピングインフォメーションOBMAPIおよびリソースインフォメーションRESRCIなどの情報が記録されている。プレイバックシーケンスインフォメーションPLSQIは、情報記憶媒体DISC内もしくはパーシステントストレージPRSTR内、ネットワークサーバNTSRV内に存在するアドバンストコンテンツADVCTにおける各タイトルの情報とタイトル内で映像情報を細かく分割する各チャプターの切れ目位置情報が記録されている。オブジェクトマッピングインフォメーションOBMAPI内では各タイトル毎のそれぞれのオブジェクトの表示タイミングと、画面上の表示位置が管理されている。各タイトル毎にはタイトルタイムラインTMLEが設定されており、そのタイトルタイムラインTMLE上の時間情報を利用して、各オブジェクトの表示開始/終了タイミングが設定可能となっている。リソースインフォメーションRESRCIでは、各タイトル毎に画面に表示する前にデータキャッシュDTCCH(ファイルキャッシュFLCCH)内に格納する各オブジェクト情報の事前格納タイミングの情報が記録されており、例えばデータキャッシュDTCCH(ファイルキャッシュFLCCH)にローディングを開始するローディング開始時間LDSTTMやそれぞれのデータキャッシュDTCCH(ファイルキャッシュFLCCH)内での使用有効期間VALPRDなどの情報が記録されている。
<Summary of information in playlist>
An overview of the information in the playlist PLLST in the present embodiment will be described with reference to FIG. As shown in FIG. 11, the playlist PLLST in the present embodiment is recorded in the playlist file PLLST that exists immediately below the advanced content directory ADVCT in the information storage medium DISC or in the persistent storage PRSTR, and reproduces the advanced content ADVCT. Management information about is recorded. Information such as playback sequence information PLSQI, object mapping information OBMAPI, and resource information RESRCI is recorded in the playlist PLLST. Playback sequence information PLSQI is the information of each title in advanced content ADVCT existing in the information storage medium DISC or persistent storage PRSTR and in the network server NTSRV, and the break position information of each chapter that finely divides the video information in the title Is recorded. In the object mapping information OBMAPI, the display timing of each object for each title and the display position on the screen are managed. A title timeline TMLE is set for each title, and display start / end timing of each object can be set using time information on the title timeline TMLE. In the resource information RESRCI, information on the pre-storage timing of each object information stored in the data cache DTCCH (file cache FLCCH) before being displayed on the screen for each title is recorded. For example, the data cache DTCCH (file cache FLCCH ), Information such as the loading start time LDSTTM for starting loading and the valid period VLPRD in each data cache DTCCH (file cache FLCCH) is recorded.
プレイリストPLLST上ではユーザに表示する1つの映像のまとまり(1番組など)をタイトルとして管理する。プレイリストPLLSTに基づきアドバンストコンテンツADVCTを再生・表示する時に最初に表示するタイトルをファーストプレイタイトルFRPLTTとして定義することが可能である。前記ファーストプレイタイトルFRPLTT再生中に図70に示すようにプレイリストアプリケーションリソースPLAPRSをファイルキャッシュFLCCH内に転送し、タイトル#1以降の再生時に必要なリソースのダウンロード時間を短縮する事ができる。コンテンツプロバイダの判断により、前記ファーストプレイタイトルFRPLTTの設定を行わないようにプレイリストPLLSTを設定する事もできる。
On the playlist PLLST, a group of one video (for example, one program) displayed to the user is managed as a title. When the advanced content ADVCT is reproduced / displayed based on the playlist PLLST, it is possible to define a title to be displayed first as a first play title FRPLTT. During playback of the first play title FRPLTT, the playlist application resource PLAPRS can be transferred into the file cache FLCCH as shown in FIG. 70, and the download time of resources required for playback of
<タイトルタイムラインに基づく表示制御>
図17に示すように本実施形態において表示対象となるオブジェクトの指定やその画面上の表示場所を指定する管理情報がプレイリストPLLSTと(マニュフェストファイルMNFST及びアドバンストサブタイトルADSBTのマニュファストMNFSTSを経由して)マークアップファイルMRKUP及びアドバンストサブタイトルのマークアップファイルMRKUPSの2段階に階層化され、プレイリストPLLST内において表示対象となるオブジェクトの表示タイミングをタイトルタイムラインTMLEに同期して設定されているところに大きな特徴がある。さらに、前記マークアップファイルMRKUPまたはアドバンストサブタイトルADSBTのマークアップファイルMRKUPSでも同様にタイトルタイムラインTMLEに同期して対象とするオブジェクトの表示タイミングが設定されるところに次の大きな特徴がある。更に本実施形態では前記表示するオブジェクトや表示場所を指定する管理情報であるプレイリストPLLSTとマークアップファイルMRKUP及びアドバンストサブタイトルADSBTのマークアップファイルMRKUPSの情報内容が同一の記載言語(XML)で記述されていることが次の特徴となっている。それによりアドバンストコンテンツADVCTの作成者の編集や変更の容易性が従来のDVD-Videoに比べて大幅に向上する。また他の効果としては再生場所のスキップ処理など、特殊再生時の表示処理を行うアドバンストコンテンツ再生部ADVPL内での処理の簡素化を図ることができる。
<Display control based on title timeline>
As shown in FIG. 17, in this embodiment, management information for specifying an object to be displayed and a display location on the screen is transmitted to the playlist PLLST (via the manifest file MNFST and the advanced subtitle ADSBT manifest MNFSTS. ) Markup file MRKUP and advanced subtitle markup file MRKUPS are hierarchized in two stages, and the display timing of objects to be displayed in the playlist PLLST is set in synchronization with the title timeline TMLE. There are features. Further, the markup file MRKUP or the markup file MRKUPS of the advanced subtitle ADSBT has the following major feature in that the display timing of the target object is similarly set in synchronization with the title timeline TMLE. Furthermore, in this embodiment, the information content of the playlist PLLST, which is the management information for specifying the object to be displayed and the display location, the markup file MRKUP, and the advanced subtitle ADSBT markup file MRKUPS is described in the same description language (XML). Is the next feature. As a result, the ease of editing and changing the creator of advanced content ADVCT is greatly improved compared to conventional DVD-Video. In addition, as another effect, it is possible to simplify processing in the advanced content playback unit ADVPL that performs display processing during special playback such as playback location skip processing.
<画面上の各種情報とプレイリストとの関係>
図16を用いて上記本実施形態の特徴についての説明を行う。図16では本編31とコマーシャル用の別画面32と下側に記載されている各種アイコンボタンが画面上に表示されているが、プライマリービデオセットPRMVS内のメインビデオMANVDを本編31として画面の左上に表示し、及びその表示タイミングが前記プレイリストPLLSTに記載されている。またこの本編31の表示タイミングは、タイトルタイムラインTMLEに同期して設定されている。また例えばサブビデオSUBVDとして記録されているコマーシャル用の別画面32の表示場所と表示タイミングも、前述した同一のプレイリストPLLSTに記載されている。このコマーシャル用の別画面32の表示タイミングも同様のタイトルタイムラインTMLE上に同期して指定されている。現行DVD-Videoにおいては、例えば図16のヘルプアイコン33からFFボタン38までの画面に関しては、映像オブジェクト内に副映像SUBPTとして記録されており、ヘルプアイコン33からFFボタン38までの各ボタンを押した時のコマンド情報が同様に映像オブジェクト内のナビゲーションパックの中のハイライトインフォメーションHLIとして記録されている。その結果、コンテンツ作成者の編集や変更の容易性が損なわれるという問題があった。それに対して、本実施形態では図16のヘルプアイコン33からFFボタン38までの画面情報と対応したコマンド情報に対しては、アドバンストアプリケーションADAPLとして一括して見なされ、プレイリストPLLST上は前記一括されたアドバンストアプリケーションADAPLの表示タイミングと画面上の表示場所のみが指定される。前記一括されたアドバンストアプリケーションADAPLに関する情報は、画面上に表示する前に必ずファイルキャッシュFLCCH(データキャッシュDTCCH)にダウンロードしておく必要がある。プレイリストPLLST上では前記アドバンストアプリケーションADAPLやアドバンストサブタイトルADSBTに関するデータをダウンロードする時に必要な情報が記録されているマニュフェストファイルMNFST(MNFSTS)のファイル名とファイル保存場所のみが記述されている。図16のヘルプアイコン33からFFボタン38までの画面情報自体は、静止画ファイルIMAGEとしてアドバンストエレメントディレクトリADVEL内に保存されている(図11)。図16に示すヘルプアイコン33からFFボタン38までの各静止画像IMAGEの画面上の配置場所と表示タイミングを管理している情報がマークアップMRKUP内に記録されており、前記情報は図11において、アドバンストナビゲーションディレクトリADVNV内のマークアップMRKUPファイル内に記録されている。また、ヘルプアイコン33からFFボタン38までの各ボタンを押した時の制御情報(コマンド情報)は、図6.6-1のアドバンストナビゲーションディレクトリADVNV内のスクリプトファイルSCRPT内に保存されており、それらのスクリプトファイルSCRPTのファイル名とそのファイルの保存場所がマークアップファイルMRKUP(及びマニュフェストファイルMNFST内)に記載されている。図11では、各マークアップファイルMRKUP 、スクリプトファイルSCRPT、静止画ファイルIMAGEが情報記憶媒体DISC内に記録されているようになっているが、本実施形態にはそれに限らずそれらのファイルがネットワークサーバNTSRV内やパーシステントストレージPRSTR内に保存されていてもよい。このように画面上の全体の配置と表示タイミングがプレイリストPLLSTで管理されているとともに、各種ボタンやアイコンの配置位置と表示タイミングがマークアップファイルMRKUPで管理されており、プレイリストPLLSTから前記マークアップMRKUPに対してはマニュフェストMNFSTを経由して指定する構造となっている。各種アイコンやボタン及びコマンド情報が映像オブジェクト内に入っている従来のDVD-Videoと比べそれぞれの映像とコマンド(スクリプト)が別ファイル化され、マークアップMRKUPで中間管理される構造にすることによりコンテンツ作成者の編集、変更容易性が大幅に向上する。また同様に図16に示すテロップ文字39に対しても、プレイリストPLLSTからはアドバンストサブタイトルのマニュフェストファイルMNFSTSを経由して、アドバンストサブタイトルのマークアップファイルMRKUPSのファイル名とファイル保存場所が指定される構造となっている(図11参照)。前記アドバンストサブタイトルのマークアップファイルMRKUPSは、情報記憶媒体DISC内に記録されているだけでなく、ネットワークサーバNTSRV内やパーシステントストレージPRSTRに保存されることも本実施形態では可能となっている。
<Relationship between various information on the screen and playlist>
The features of the present embodiment will be described with reference to FIG. In FIG. 16, the
<プレイリスト(Playlist)の使用目的とデータ構造>
本実施形態ではアドバンストコンテンツADVCTの再生時において、プレイリストPLLSTの使用目的は以下に述べるように2個存在する。第一の使用目的は情報再生装置1における初期時のシステム構造(データキャッシュDTCCH内の必要なメモリ領域の事前設定など)を定義するところにある。また他の目的は、アドバンストコンテンツADVCTにおける各種オブジェクトの再生方法を明示するところにある。プレイリストPLLSTのデータ構造は下記に示すような構造を持っている。
<Purpose and data structure of playlist>
In the present embodiment, when the advanced content ADVCT is reproduced, there are two purposes for using the playlist PLLST as described below. The first purpose of use is to define an initial system structure in the information reproducing apparatus 1 (preliminary setting of a necessary memory area in the data cache DTCCH). Another object is to clearly show how to play various objects in the advanced content ADVCT. The data structure of the playlist PLLST has the following structure.
* 各タイトル毎のオブジェクトマッピングインフォメーションOBMAPI
・トラックナンバーアサイメント
・リソースインフォメーションRESRCI
* 各タイトル毎のプレイバックシーケンスインフォメーションPLSQI
* アドバンストコンテンツADVCTの再生に関するシステムコンフィギュレーション
<リソースインフォメーション(Resource Information)>
図17に示すリソースインフォメーションRESRCIの概要を以下に説明する。プレイリストPLLST内のオブジェクトマッピングインフォメーションOBMAPIにおいて、アドバンストアプリケーションADAPLやアドバンストサブタイトルADSBTの再生に必要な各情報が記録されているリソースファイルを、いつどのタイミングでデータキャッシュDTCCH(ファイルキャッシュFLCCH)に取り込むかの情報がリソースインフォメーションRESRCI内に記録されている。本実施形態においてリソースインフォメーションRESRCIには、下記の2種類のタイプが存在する。リソースインフォメーションRESRCIの第一のタイプはアドバンストアプリケーションADAPLに関するリソースインフォメーションRESRCIであり、他のタイプはアドバンストサブタイトルADSBTに関連したリソースインフォメーションRESRCIである。
* Object mapping information OBMAPI for each title
・ Track number assignment ・ Resource information RESRCI
* Playback sequence information PLSQI for each title
* System configuration for playback of advanced content ADVCT <Resource Information>
The outline of the resource information RESRCI shown in FIG. 17 will be described below. In the object mapping information OBMAPI in the playlist PLLST, when and when to import the resource file that records each information necessary for playback of the advanced application ADAPL and advanced subtitle ADSBT into the data cache DTCCH (file cache FLCCH) Information is recorded in the resource information RESRCI. In the present embodiment, there are the following two types of resource information RESRCI. The first type of resource information RESRCI is resource information RESRCI related to the advanced application ADAPL, and the other type is resource information RESRCI related to the advanced subtitle ADSBT.
<トラックとオブジェクトマッピングとの関係(Relationship between Track and Object Mapping)>
図17に示したタイトルタイムラインTMLE上で表示する各種オブジェクトに対応したオブジェクトマッピングインフォメーションOBMAPIの中に、プレイリストPLLST内で定義されたトラックナンバーアサイメントインフォメーションを含む。
<Relationship between Track and Object Mapping>
Track number assignment information defined in the playlist PLLST is included in the object mapping information OBMAPI corresponding to various objects displayed on the title timeline TMLE shown in FIG.
本実施形態のアドバンストコンテンツADVCTにおいて、異なるオブジェクトに対応した各種ストリームの選別用にトラック番号が定義される。例として、複数の音声情報(オーディオストリーム)の中からユーザに対して表示する音声情報を前記トラック番号の指定により選択することができる。例えば図10に示すようにサブスティテュートオーディオSBTAD内にメインオーディオMANADが存在するが、このメインオーディオMANAD内に互いに異なる内容の複数のオーディオストリームが存在する場合がある。オブジェクトマッピングインフォメーションOBMAPI(トラックナンバーアサイメント)内で事前に定義されたオーディオトラック番号を指定することにより、複数のオーディオストリームの中でユーザに表示するオーディオストリームを選択することができる。また前記サブスティテュートオーディオSBTAD内のメインオーディオMANADとして記録されている音声情報を、プライマリーオーディオビデオPRMAVの中のメインオーディオMANADに重畳して音声出力することができる。このように重畳されて出力されるプライマリーオーディオビデオPRMAV内のメインオーディオMANADが内容の異なる複数の音声情報(オーディオストリーム)を持っている場合がある。この場合にオブジェクトマッピングインフォメーションOBMAPI(トラックナンバーアサイメント)内で事前に定義されたオーディオトラック番号を指定することにより、複数のオーディオストリームの中でユーザに表示するオーディオストリームを選択することができる。 In the advanced content ADVCT of this embodiment, track numbers are defined for selecting various streams corresponding to different objects. As an example, audio information to be displayed to the user can be selected from a plurality of audio information (audio streams) by specifying the track number. For example, as shown in FIG. 10, the main audio MANAD exists in the substitute audio SBTAD, but there may be a plurality of audio streams having different contents in the main audio MANAD. By specifying a predetermined audio track number in the object mapping information OBMAPI (track number assignment), an audio stream to be displayed to the user can be selected from among a plurality of audio streams. Also, the audio information recorded as the main audio MANAD in the substitute audio SBTAD can be superimposed and output on the main audio MANAD in the primary audio video PRMAV. In some cases, the main audio MANAD in the primary audio video PRMAV output in a superimposed manner has a plurality of pieces of audio information (audio streams) having different contents. In this case, an audio stream to be displayed to the user can be selected from a plurality of audio streams by designating an audio track number defined in advance in the object mapping information OBMAPI (track number assignment).
前記説明したトラックの中には5種類のタイプが存在し、メインビデオMANVD、メインオーディオMANAD、サブタイトルADSBT、サブビデオSUBVDとサブオーディオSUBADの5種類のタイプにはそれぞれ内容の異なる複数のストリームを同時に記録することが可能となっている。そのため前記5種類のオブジェクトタイプに対してはそれぞれのストリームに対応してトラック番号を割り振り、トラック番号選択によりユーザに表示するストリームの選択が可能になる。 There are five types of tracks described above, and a plurality of streams having different contents are simultaneously provided in the five types of main video MANVD, main audio MANAD, subtitle ADSBT, sub video SUBVD, and sub audio SUBAD. It is possible to record. Therefore, a track number is assigned to each of the five object types corresponding to each stream, and a stream to be displayed to the user can be selected by selecting the track number.
<字幕やテロップなどの情報>
本実施形態において字幕やテロップなどの情報は、プライマリーオーディオビデオPRMAV内の副映像SUBPTで表示する方法とアドバンストサブタイトルADSBTで表示する方法の2通りが存在する。本実施形態では前記アドバンストサブタイトルADSBTのタイムラインTMLE上でのマッピングは、例えばプライマリーオーディオビデオPRMAVなどのマッピング状況と関わりなく単独にオブジェクトマッピングインフォメーションOBMAPI上でマッピング定義することができる。その結果、字幕やテロップなどの情報をプライマリーオーディオビデオPRMAV内の副映像SUBPTとアドバンストサブタイトルADSBTを同時に表示できるばかりでなく表示開始/終了のタイミングをそれぞれ独自に設定できる。またどちらか一方のみを選別して表示することも可能となりそれによる字幕やテロップの表示能力を大幅に向上させることができる。
<Information such as subtitles and telop>
In the present embodiment, there are two types of information such as subtitles and telops, a method of displaying with the sub-picture SUBPT in the primary audio video PRMAV and a method of displaying with the advanced subtitle ADSBT. In the present embodiment, the mapping of the advanced subtitle ADSBT on the timeline TMLE can be defined independently on the object mapping information OBMAPI independently of the mapping status of the primary audio video PRMAV, for example. As a result, information such as subtitles and telops can be displayed simultaneously with the sub-picture SUBPT and the advanced subtitle ADSBT in the primary audio video PRMAV, and the display start / end timing can be set independently. It is also possible to select and display only one of them, thereby greatly improving the display capability of subtitles and telops.
図17において、プライマリーオーディオビデオPRMAVに対応した部分はP-EVOBという形で一本の帯で表示されているが、実はこの中にはメインビデオトラックMANVD、メインオーディオトラックMANAD、サブビデオトラックSUBVD、サブオーディオトラックSUBAD、副映像トラックSUBPTが含まれ、それぞれが複数のトラックから構成されるとともに表示の時にはそれぞれ1つずつのトラック(ストリーム)が選別されて表示されている。また同様にセカンダリービデオセットSCDVSではS-EVOBでの帯として記載されているが、それはサブビデオトラックSUBVDやサブオーディオトラックSUBADが含まれ、それぞれ1トラック(1ストリーム)ずつ選択されて表示される構造となっている。もしタイトルタイムラインTMLE上で唯一プライマリーオーディオビデオPRMAVのみがオブジェクトマッピングインフォメーションOBMAPI上にマッピングされている場合には本実施形態では以下のルールを規定し再生制御処理の容易性を確保している。 In FIG. 17, the portion corresponding to the primary audio video PRMAV is displayed as a single band in the form of P-EVOB, but in fact, this includes a main video track MANVD, a main audio track MANAD, a sub video track SUBVD, A sub audio track SUBAD and a sub video track SUBPT are included, each of which is composed of a plurality of tracks, and one track (stream) is selected and displayed at the time of display. Similarly, in the secondary video set SCDVS, it is described as a band in S-EVOB, but it includes a sub video track SUBVD and a sub audio track SUBAD, and a structure in which one track (one stream) is selected and displayed. It has become. If only the primary audio video PRMAV is mapped on the object mapping information OBMAPI on the title timeline TMLE, the following rules are defined in this embodiment to ensure the ease of playback control processing.
* メインビデオストリームMANVDは、必ずオブジェクトマッピングインフォメーションOBMAPI上にマッピングされ、再生されなければならない。 * The main video stream MANVD must be mapped and played back on the object mapping information OBMAPI.
* メインオーディオストリームMANADのうち1トラック(1ストリーム)もオブジェクトマッピングインフォメーションOBMAPI上にマッピングされ再生される(ただし再生しなくてもよい)。本実施形態はそれに関わらず、メインオーディオストリームMANADがオブジェクトマッピングインフォメーションOBMAPI上にマッピングされないことも許容する。 * One track (one stream) of the main audio stream MANAD is also mapped and reproduced on the object mapping information OBMAPI (but not necessarily reproduced). Regardless of this, the present embodiment also allows the main audio stream MANAD not to be mapped on the object mapping information OBMAPI.
* タイトルタイムラインTMLE上にマッピングされたサブビデオストリームSUBVDはユーザへの表示が前提とされるが、(ユーザ選択などにより)必ずしも表示しなくても良い。 * Although the sub video stream SUBVD mapped on the title timeline TMLE is assumed to be displayed to the user, it may not necessarily be displayed (by user selection or the like).
* タイトルタイムラインTMLE上にマッピングされたサブオーディオストリームSUBADのうちの1トラック(1ストリーム)はユーザへの表示が前提とされるが、(ユーザ選択などにより)必ずしも表示しなくても良い。 * One track (one stream) of the sub audio streams SUBAD mapped on the title timeline TMLE is assumed to be displayed to the user, but may not necessarily be displayed (by user selection or the like).
また、タイトルタイムラインTMLE上でプライマリーオーディオビデオPRMAVとサブスティテュートオーディオビデオSBTAVがオブジェクトマッピングインフォメーションOBMAPI上に同時にマッピングされ両者が有効(アクティブ)な状態にある場合には、本実施形態では以下のルールを規定し再生制御処理の容易性と信頼性を確保している。 In addition, when the primary audio video PRMAV and the substitute audio video SBTAV are simultaneously mapped on the object mapping information OBMAPI on the title timeline TMLE and both are valid (active), in this embodiment, the following rules are used: It prescribes and ensures the ease and reliability of playback control processing.
* プライマリーオーディオビデオPRMAVのメインビデオストリームMANVDの代わりにセカンダリーオーディオビデオSCDAV内のメインビデオストリームMANVDを再生表示することができる。 * The main video stream MANVD in the secondary audio video SCDAV can be played back and displayed instead of the main video stream MANVD of the primary audio video PRMAV.
* プライマリーオーディオビデオPRMAVのメインオーディオストリームMANADに代わってサブスティテュートオーディオビデオSBTAD内のメインオーディオストリームMANADを再生表示することができる。 * The main audio stream MANAD in the substitute audio video SBTAD can be reproduced and displayed in place of the main audio stream MANAD of the primary audio video PRMAV.
* サブビデオストリームSUBVDを上記メインビデオストリームMANVDと同時に再生することができるが、必ずしも同時に再生する必要はない。 * The sub video stream SUBVD can be reproduced at the same time as the main video stream MANVD, but is not necessarily reproduced at the same time.
* サブオーディオストリームSUBADの内の1個を上記メインオーディオストリームMANADと同時に再生出力できるが、必ずしも再生出力する必要はない。 * Although one of the sub audio streams SUBAD can be reproduced and output simultaneously with the main audio stream MANAD, it is not always necessary to reproduce and output.
もし、プライマリーオーディオビデオPRMAVとサブスティテュートオーディオSBTADがタイトルタイムラインTMLE上に同時にマッピングされ同時に表示される場合には、本実施形態では以下のルールを規定し、アドバンストコンテンツ再生部内ADVPLの制御処理の容易性と信頼性を確保している。 If the primary audio video PRMAV and the substitute audio SBTAD are simultaneously mapped and displayed on the title timeline TMLE, this embodiment defines the following rules to facilitate the ADVPL control process in the advanced content playback unit: Ensuring reliability and reliability.
* プライマリーオーディオビデオPRMAV内におけるメインビデオMANVDは、オブジェクトマッピングインフォメーションOBMAPI内にマッピングされ、必ず再生されなければならない。 * The main video MANVD in the primary audio video PRMAV is mapped in the object mapping information OBMAPI and must be played back.
* プライマリーオーディオビデオPRMAV内におけるメインオーディオストリームMANADに代わって、サブスティテュートオーディオSBTAD内のメインオーディオストリームMANADを再生することができる。 * The main audio stream MANAD in the substitute audio SBTAD can be reproduced instead of the main audio stream MANAD in the primary audio video PRMAV.
* サブビデオストリームSUBVDは、同時に表示することを前提としているが、(ユーザ選択などにより)必ずしも表示しなくても良い。 * The sub video stream SUBVD is assumed to be displayed at the same time, but may not necessarily be displayed (by user selection or the like).
* サブオーディオSUBADにおいては、(複数トラックのうち)1トラック(1ストリーム)を表示することが前提となっているが、(ユーザ選択などにより)必ずしも表示しなくても良い。 * In sub audio SUBAD, it is assumed that one track (one stream) is displayed (of a plurality of tracks), but it is not always necessary to display it (by user selection or the like).
プライマリーオーディオビデオPRMAVとセカンダリーオーディオビデオSCDAVが、オブジェクトマッピングインフォメーションOBMAPI内でタイトルタイムラインTMLE上に同時にマッピングされていた場合には、本実施形態では以下のルールを規定しアドバンストコンテンツ再生部ADVPLの処理の簡素化と信頼性向上を確保している。 When the primary audio video PRMAV and the secondary audio video SCDAV are simultaneously mapped on the title timeline TMLE in the object mapping information OBMAPI, this embodiment defines the following rules and defines the processing of the advanced content playback unit ADVPL: Simplification and improved reliability are ensured.
* プライマリーオーディオビデオPRMAV内のメインビデオストリームMANVDは、必ず再生されなければならない。 * The main video stream MANVD in the primary audio video PRMAV must be played.
* メインオーディオストリームMANADのうちの1トラック(1ストリーム)は表示することが前提とされるが、(ユーザ選択などにより)必ずしも表示しなくても良い。 * It is assumed that one track (one stream) of the main audio stream MANAD is displayed, but it is not always necessary to display it (by user selection or the like).
* プライマリーオーディオビデオPRMAV内におけるサブビデオストリームSUBVDとサブオーディオストリームSUBADに代わって、セカンダリーオーディオビデオSCDAV内におけるサブビデオストリームSUBVDとサブオーディオストリームSUBADを再生することができる。セカンダリーオーディオビデオSCDAV内でのセカンダリーエンハンストビデオオブジェクトデータS-EVOBの中にサブオーディオストリームSUBADとサブビデオストリームSUBVDが多重化されて記録されている場合には、サブオーディオストリームSUBADのみが再生することを禁止している。 * The sub video stream SUBVD and the sub audio stream SUBAD in the secondary audio video SCDAV can be reproduced instead of the sub video stream SUBVD and the sub audio stream SUBAD in the primary audio video PRMAV. When sub audio stream SUBAD and sub video stream SUBVD are multiplexed and recorded in secondary enhanced video object data S-EVOB in secondary audio video SCDAV, only sub audio stream SUBAD is played back. It is prohibited.
<オブジェクトマッピング位置(Object Mapping Position)>
本実施形態におけるタイトルタイムラインTMLEの単位の取り方について以下に説明を行う。
<Object Mapping Position>
The method of taking the units of the title timeline TMLE in this embodiment will be described below.
本実施形態におけるタイトルタイムラインTMLEは、映像(ビデオ)情報のフレームやフィールドの表示タイミングに同期した時間刻みを持ち、この時間刻みのカウント数でタイトルタイムラインTMLE上の時刻を設定するところに大きな特徴がある。例えばNTSC系ではインターレース表示の場合には1秒間に60フィールドと30フレームを持っている。従って、本実施形態におけるタイトルタイムラインTMLEの最小時間刻みの長さを1秒間に60分割し、その時間刻み(ユニット)のカウント数でタイトルタイムラインTMLE上の時刻を設定する。またNTSC系のプログレッシブ表示では1秒間に60フィールド=60フレームが存在し、前記の時間刻みに合致している。またPAL系は50Hz系となっており、インターレース表示では1秒間に50フィールド/25フレーム存在し、プログレッシブ表示では1秒間に50フィールド=50フレーム存在している。この50Hz系の映像の場合には、1秒間にタイトルタイムラインTMLEを50等分し、各等分された1個の間隔(1/50秒)を基準としたカウント数でタイトルタイムラインTMLE上の時刻/タイミングを設定する。このようにタイトルタイムラインTMLEの基準長さ(最小時間単位)を映像のフィールドやフレームの表示タイミングに同期して設定することにより、各映像間の同期合わせタイミング表示制御が容易となるばかりでなく、現実的に意味のある範囲内での最高精度の時間設定が可能となる。 The title timeline TMLE in the present embodiment has a time increment synchronized with the display timing of the frame or field of video (video) information, and the time on the title timeline TMLE is set by the count number of this time increment. There are features. For example, the NTSC system has 60 fields and 30 frames per second for interlaced display. Therefore, the length of the minimum time increment of the title timeline TMLE in this embodiment is divided into 60 per second, and the time on the title timeline TMLE is set by the count number of the time increment (unit). In the progressive display of the NTSC system, there are 60 fields = 60 frames per second, which matches the above time increment. The PAL system is a 50 Hz system, and there are 50 fields / 25 frames per second in interlaced display, and 50 fields = 50 frames per second in progressive display. In the case of this 50 Hz video, the title timeline TMLE is divided into 50 equal parts per second, and the number of counts based on each equally divided interval (1/50 second) is displayed on the title timeline TMLE. Set the time / timing for. In this way, by setting the reference length (minimum time unit) of the title timeline TMLE in synchronization with the display timing of the video field and frame, not only the synchronization timing display control between each video is facilitated. It is possible to set the time with the highest accuracy within a practically meaningful range.
本実施形態において基本的には上記カウント数でタイトルタイムラインTMLE上の時刻/タイミングを設定するが、同一タイトル内の表示時間が長時間に亘る場合に時間換算が容易なようにプレイリストPLLST内でのタイトルタイムラインTMLE上の時間情報を“時間、分、秒とカウント値(HH:MM:SS:FF)”を用いて表現する。上記の表現形式において、“HH”は時間単位を表し“00”〜“23”の値を入れることができる。また“MM”は分単位を表し、“00”〜“59”の値を入れることができる。さらに“SS”は秒単位を表し“00”〜“59”の値を入れることができる。最後に“FF”は上記カウント数(プログレッシブ表示の場合にはフレーム数、インターレース表示の場合にはフィールド数)を表し、50Hz系の映像(例えばPAL系)の場合には“00”〜“49”の値が入り、60Hz系の映像(例えばNTSC系)の場合には“00”〜“59”の値が入る。上記表現方法を採用することにより、タイトルタイムラインTMLE上の経過時間を容易に把握することができる。 In the present embodiment, the time / timing on the title timeline TMLE is basically set by the above count number, but in the playlist PLLST so that time conversion is easy when the display time in the same title is long. The time information on the title timeline TMLE is expressed using “hour, minute, second and count value (HH: MM: SS: FF)”. In the above expression format, “HH” represents a unit of time, and values from “00” to “23” can be entered. “MM” represents a minute unit, and values from “00” to “59” can be entered. Further, “SS” represents a unit of seconds, and values from “00” to “59” can be entered. Finally, “FF” represents the count number (the number of frames in the case of progressive display, the number of fields in the case of interlaced display). In the case of a 60 Hz video (for example, NTSC system), a value from “00” to “59” is entered. By adopting the above expression method, the elapsed time on the title timeline TMLE can be easily grasped.
上述したように本実施形態では映像(ビデオ)のフィールドやフレームに合わせて時間刻みを設定しており、60Hz系での1個の時間単位は1/60秒であり、50Hz系での1個の時間刻みの単位は1/50秒となっているが、この各時間刻み位置(時刻)で全ての表示オブジェクトの切替わり(表示開始、または表示終了、または別画面への切替わり)のタイミングを行うように制御がなされる。すなわち本実施形態ではあらゆる表示オブジェクトの表示期間が前記タイトルタイムラインTMLE上の時間刻み(1/60秒または1/50秒)に合わせて設定される。音声情報のフレーム間隔は、前記映像(ビデオ)のフレーム/フィールド間隔とは異なる場合が多い。この場合にはオーディオ情報の再生/終了タイミングは、タイトルタイムラインTMLE上での各刻み間隔に合わせて切り上げしたタイミングで表示期間(表示開始/終了時刻)が設定される。それにより、タイトルタイムラインTMLE上での複数の音声オブジェクトの表示間での出力の重なり(オーバーラップ)を回避することが可能となる。 As described above, in this embodiment, the time increment is set according to the field or frame of the video (video), and one time unit in the 60 Hz system is 1/60 second, and one in the 50 Hz system. The unit of time increment is 1/50 second, but the timing of switching of all display objects (display start, display end, or switch to another screen) at each time step position (time) Control is performed to That is, in this embodiment, the display period of every display object is set in accordance with the time increment (1/60 second or 1/50 second) on the title timeline TMLE. The frame interval of audio information is often different from the frame / field interval of the video (video). In this case, the display period (display start / end time) is set at the timing at which the audio information is reproduced / finished at a timing rounded up in accordance with each step interval on the title timeline TMLE. As a result, it is possible to avoid overlap of outputs between the display of a plurality of audio objects on the title timeline TMLE.
また、アドバンストアプリケーションADAPL情報の表示タイミングがタイトルタイムラインTMLEの刻み間隔と異なる場合、(例としてアドバンストアプリケーションADAPLが1秒間に24フレーム持ち、それを60Hz系のタイトルタイムラインTMLE上で表示期間を表す場合には)アドバンストアプリケーションADPALの表示タイミングをそれぞれ切り上げ処理し、60Hz系の(時間刻みが1/60秒)のタイトルタイムラインTMLEに表示タイミング(表示開始/終了時刻)を合わせる。 Also, if the display timing of the advanced application ADAPL information is different from the step interval of the title timeline TMLE (for example, the advanced application ADAPL has 24 frames per second and represents the display period on the 60 Hz title timeline TMLE In this case, the display timing of the advanced application ADPAL is rounded up, and the display timing (display start / end time) is adjusted to the title timeline TMLE of 60 Hz (time increment is 1/60 second).
<アドバンストアプリケーションのタイミングモデル(Timing Model for Advanced Application)>
本実施形態において、アドバンストアプリケーションADAPLのタイトルタイムラインTMLE上の有効期間は、プリスクリプト期間、マークアップ表示期間とポストスクリプト期間の3つの期間に分けることができる。前記マークアップ表示期間は、アドバンストアプリケーションADAPLのマークアップMRKUPの情報に基づきタイトルタイムラインTMLEの各時間刻みに対応して表示する期間を表す。前述したプリスクリプト期間は前記マークアップ表示期間に先行し、アドバンストアプリケーションADAPLの画面を表示する準備期間として利用される。前記ポストスクリプト期間は前記マークアップ表示期間の直後に設定され、アドバンストアプリケーションADAPLの各表示オブジェクトの表示直後の終了期間(例えばメモリリソースの解放処理に使用される期間)として利用される。また本実施形態ではそれに限らず、プリスクリプト期間はアドバンストアプリケーションADAPL表示に先立つ事前の制御処理時間(例えばゲームのユーザに与えられた持ち点をクリアする)として使用することもできる。またポストスクリプト期間では、前記アドバンストアプリケーションADAPLの再生直後のコマンド処理(例えばゲームのユーザの持ち点のポイントアップ処理)などに使用することもできる。
<Timing Model for Advanced Application>
In the present embodiment, the valid period on the title timeline TMLE of the advanced application ADAPL can be divided into three periods: a prescript period, a markup display period, and a postscript period. The markup display period represents a period for display corresponding to each time step of the title timeline TMLE based on the markup MRKUP information of the advanced application ADAPL. The prescript period described above precedes the markup display period and is used as a preparation period for displaying the screen of the advanced application ADAPL. The postscript period is set immediately after the markup display period, and is used as an end period (for example, a period used for memory resource release processing) immediately after display of each display object of the advanced application ADAPL. In the present embodiment, the prescript period can be used as a control processing time prior to the advanced application ADAPL display (for example, clearing the points given to the game user). Further, in the postscript period, the advanced application ADAPL can be used for command processing immediately after reproduction (for example, point-up processing of points of a game user).
<遷移タイミングモデル(Jump Timing Model)>
次に前述したマークアップ表示期間内での画面について説明を行う。例えば、図16の表示画面を例とした場合、本実施形態では例えば映像表示中にストップボタン34を押すと映像が静止すると共に、ストップボタン34の形状や色が変化するなどの画面表示を変更することができる。それは、図2の“技術的工夫を行った結果得られる新たな効果”欄に記載の“1〕ユーザアクションに対する柔軟かつ印象的なリアクションを行う”内の“1.1)ボタン選択や実行指示した時にアニメーションやイメージが変化して応答する”の効果を意味している。上記の例のように図16の表示画面自身が大きく変更される場合には、アドバンストアプリケーションADAPL内での対応するマークアップMRKUPが別のマークアップMRKUPに遷移する。このようにアドバンストアプリケーションADAPLの表示画面内容を設定するマークアップMRKUPを別のマークアップMRKUPに遷移させることにより、見た目の画面表示を大幅に変更させることができる。すなわち、本実施形態においてマークアップ表示期間中に異なる画面に合わせて複数のマークアップMRKUPを設定し、画面の切り替えに合わせて対応するマークアップを切替える(その切り替え処理はスクリプトSCRPTで記述された方法で切替えられる)。従って本実施形態において、マークアップMRKUP表示期間中でのタイトルタイムラインTMLE上でのマークアップページの開始タイミングは、前記複数存在するマークアップ内での最初に表示するマークアップMRKUP情報の表示開始タイミングと一致し、タイトルタイムラインTMLE上でのマークアップページの終了タイミングは、前記複数存在するマークアップMRKUP内での最後のマークアップMRKUPの表示終了タイミングと一致する。このようなマークアップページの遷移(表示画面内でのアドバンストアプリケーションADAPL部分での表示画面の変化)の方法として、本実施形態では以下の2つの遷移モデルを規定している。
<Jump Timing Model>
Next, the screen within the markup display period described above will be described. For example, when the display screen of FIG. 16 is taken as an example, in this embodiment, for example, when the
<ソフトシンク遷移(Soft Synch Jump)>
最初に上げる遷移方法はマークアップページのソフトシンク遷移(ジャンプモデル)であり、この遷移タイミングではユーザに表示する画面上においてタイトルタイムラインTMLEの時間の流れが停止することがない。すなわち、前記マークアップページの切替えタイミングは前述したタイトルタイムラインTMLEの刻み位置(時刻)とタイミングが一致し、前のマークアップページの終了タイミングと次のマークアップページ(アドバンストアプリケーションADAPLの表示画面)の開始タイミングとが、タイトルタイムラインTMLE上で一致する。これらを可能とするために、本実施形態において前のマークアップページを終了させるために必要な時間(例えばデータキャッシュDTCCH内での割当てられたメモリ空間の開放に使われる時間など)と次のマークアップページを表示している時間をオーバーラップさせる。さらに前のマークアップページの表示期間中にオーバーラップして次のマークアップページの表示準備期間が設定される。前記マークアップページのソフトシンク遷移(ジャンプ)は、タイトルタイムラインTMLEに同期したアドバンストアプリケーションADAPLまたは、アドバンストサブタイトルADSBTに対して使用することができる。
<Soft Synch Jump>
The first transition method to be raised is the soft sync transition (jump model) of the markup page. At this transition timing, the time flow of the title timeline TMLE does not stop on the screen displayed to the user. In other words, the markup page switching timing coincides with the timing position (time) of the title timeline TMLE described above, the end timing of the previous markup page and the next markup page (display screen of the advanced application ADAPL) Is coincident with the start timing of the title timeline TMLE. In order to make these possible, the time required for ending the previous markup page in this embodiment (for example, the time used for releasing the allocated memory space in the data cache DTCCH) and the next mark Overlap the time when the up page is displayed. Further, the display preparation period for the next markup page is set so as to overlap during the display period for the previous markup page. The soft sync transition (jump) of the markup page can be used for the advanced application ADAPL synchronized with the title timeline TMLE or the advanced subtitle ADSBT.
<ハードシンク遷移(Hard Synch Jump)>
次に他の遷移方法として本実施形態では、マークアップページのハードシンク遷移(ジャンプ)も規定している。一般的にはユーザに表示する画面上ではタイトルタイムラインTMLE上での時間変化が生じ(タイトルタイムラインTMLE上でのカウントアップが行われ)、それに同期して例えばプライマリーオーディオビデオPRMAVの画面が変化する。例えばタイトルタイムラインTMLE上での時間が止まった(タイトルタイムラインTMLE上でのカウント値が固定された)場合には、対応してプライマリーオーディオビデオPRMAVの画面が止まり静止画面としてユーザに表示される。本実施形態におけるマークアップページのハードシンク遷移(ジャンプ)が起きた時には上記のタイトルタイムラインTMLE上での時間が止まった(タイトルタイムラインTMLE上でのカウント値が固定された)期間が生じる。前記、マークアップページのハードシンク遷移(ジャンプ)においては、タイトルタイムライン(TMLE)上での見かけ上の切替え前のマークアップページの終了タイミング時刻と、次のマークアップページのタイトルタイムラインTMLE上での再生開始タイミングは一致する。前記遷移の場合には、前に表示したマークアップページの終了期間と次のマークアップページを表示するために必要な準備期間とが、オーバーラップすることはない。そのため、前記遷移期間中ではタイトルタイムラインTMLE上の時間の流れが一時的に止まり、例えばプライマリーオーディオビデオPRMAVなどのオブジェクトの表示が一時的に停止される。前記、マークアップページのハードシンク遷移(ジャンプ)処理は、本実施形態においてはアドバンストアプリケーションADAPLのみ使用される。それにより例えばアドバンストサブタイトルADSBTの表示画面の切替え時には、タイトルタイムラインTMLEの時間上の時間変化が止まることなく(例えばプライマリーオーディオビデオPRMAVが停止することなく)アドバンストサブタイトルADSBTの画面変化を行うことが可能となる。
<Hard Synch Jump>
Next, as another transition method, the present embodiment also defines a hard sync transition (jump) of a markup page. In general, a time change occurs on the title timeline TMLE on the screen displayed to the user (a count up is performed on the title timeline TMLE), and for example, the screen of the primary audio video PRMAV changes. To do. For example, when the time on the title timeline TMLE stops (the count value on the title timeline TMLE is fixed), the primary audio video PRMAV screen correspondingly stops and is displayed to the user as a still screen. . When the hard sync transition (jump) of the markup page in the present embodiment occurs, there is a period in which the time on the title timeline TMLE is stopped (the count value on the title timeline TMLE is fixed). In the hard sync transition (jump) of the markup page, the end timing time of the markup page before the apparent switching on the title timeline (TMLE) and the title timeline TMLE of the next markup page The playback start timings at are the same. In the case of the transition, the end period of the previously displayed markup page and the preparation period necessary for displaying the next markup page do not overlap. Therefore, during the transition period, the flow of time on the title timeline TMLE is temporarily stopped, and display of an object such as the primary audio video PRMAV is temporarily stopped. The hard sync transition (jump) process of the markup page is used only in the advanced application ADAPL in this embodiment. For example, when the display screen of the advanced subtitle ADSBT is switched, it is possible to change the screen of the advanced subtitle ADSBT without stopping the temporal change of the title timeline TMLE (for example, without stopping the primary audio video PRMAV). It becomes.
前記、マークアップページで指定されるアドバンストアプリケーションADAPLや、アドバンストサブタイトルADSBTなどの画面の切替えは、本実施形態においてはフレーム単位での画面の切替えを行う。例えばインターレース表示において1秒間のフレーム数とフィールド数が異なるが、常にフレーム単位でアドバンストアプリケーションADAPLやアドバンストサブタイトルADSBTの画面の切替えを行うように制御することにより、インターレース/プログレッシブに関わらず同じタイミングで切替え処理が行えるため制御が容易となる。すなわち直前のフレーム表示タイミングで次のフレームに必要な画面の準備を開始させる。そして次のフレームの表示タイミングまでに準備を完了させるとともに、次のフレームの表示タイミングに合わせて画面を表示する。例えばNTSCのインターレース表示の場合、60Hz系なのでタイトルタイムラインTMLEの時間刻みの間隔は1/60秒になっている。また、この場合には1秒間に30フレーム表示されるため、タイトルタイムラインTMLEの2単位(2個の刻みの境界位置)の間隔でフレームの表示タイミングが設定される。従って、例えば、n番目のタイトルタイムラインTMLE上のカウント値に画面を表示しようと思えばその2カウント前のn−2のタイミングで次のフレームの表示準備の開始を行い、タイトルタイムラインTMLEのカウントnの段階で準備したグラフィックフレーム(アドバンストアプリケーションADAPLに関係した各種画面をまとめて表示する画面を本実施形態ではグラフィックフレームと呼ぶ)を表示する。本実施形態ではそのようにフレーム単位でのグラフィックフレームの準備と表示を設定することで、ユーザに対して連続的にグラフィカルフレームの切替えを表示することができ、ユーザに違和間を与えないというメリットがある。 The screen switching of the advanced application ADAPL and the advanced subtitle ADSBT specified in the markup page is performed in units of frames in the present embodiment. For example, in interlaced display, the number of frames per second is different from the number of fields, but by switching so that the screen of the advanced application ADAPL and advanced subtitle ADSBT is always switched in units of frames, switching is performed at the same timing regardless of interlace / progressive. Since processing can be performed, control becomes easy. That is, preparation of a screen necessary for the next frame is started at the immediately preceding frame display timing. The preparation is completed by the display timing of the next frame, and the screen is displayed in accordance with the display timing of the next frame. For example, in the case of NTSC interlaced display, the time interval of the title timeline TMLE is 1/60 second because it is 60 Hz. Further, in this case, since 30 frames are displayed per second, the frame display timing is set at intervals of 2 units (boundary position of two steps) of the title timeline TMLE. Therefore, for example, if you want to display the screen at the count value on the nth title timeline TMLE, the display preparation of the next frame is started at the timing of n-2 two counts before that, and the title timeline TMLE A graphic frame prepared at the count n stage (screens that collectively display various screens related to the advanced application ADAPL are referred to as graphic frames in the present embodiment) is displayed. In the present embodiment, by setting the preparation and display of graphic frames in units of frames as described above, it is possible to continuously display graphical frame switching for the user, and not to give the user a discomfort. There is.
<プレゼンテーションクリップエレメント及びオブジェクトマッピングインフォメーション(Presentation Clip element and Object Mapping Information)>
図17に示したプレイリストPLLST内に記述されるオブジェクトマッピングインフォメーションOBMAPI内にプレゼンテーションクリップエレメントと呼ばれるエレメントのリスト情報が記載される。前記、各種プレゼンテーションクリップエレメントと、それに対応した表示・使用対象となるオブジェクト名との関係を図18に示す。
<Presentation Clip element and Object Mapping Information>
List information of elements called presentation clip elements is described in the object mapping information OBMAPI described in the playlist PLLST shown in FIG. FIG. 18 shows the relationship between the various presentation clip elements and the corresponding object names to be displayed and used.
図18に示すように、オブジェクトマッピングインフォメーションOBMAPI内で記述されるプライマリーオーディオビデオクリップエレメントPRAVCPは、プライマリーオーディオビデオPRMAVに関するオブジェクトマッピングインフォメーションOBMAPIを説明している。また、サブスティテュートオーディオビデオクリップSBAVCPは、サブスティテュートオーディオビデオSBTAVのオブジェクトマッピングインフォメーションOBMAPIの説明をしている。また、セカンダリーオーディオビデオクリップエレメントSCAVCPは、セカンダリーオーディオビデオSCDAVのオブジェクトマッピングインフォメーションOBMAPIの説明をしている。またサブスティテュートオーディオクリップエレメントSBADCPは、サブスティテュートオーディオSBTADのオブジェクトマッピングインフォメーションOBMAPIを説明している。オブジェクトマッピングインフォメーションOBMAPI内におけるアドバンストサブタイトルセグメントエレメントADSTSGは、アドバンストサブタイトルADSBTに関するマークアップMRKUPSに関する情報が記載されている。また、オブジェクトマッピングインフォメーションOBMAPI内におけるアプリケーションセグメントエレメントAPPLSGは、アドバンストアプリケーションADAPLのマークアップMRKUPとスクリプトSCRPTに関する情報が記載されている。前記再生・使用対象となる各オブジェクトに関するオブジェクトマッピングインフォメーションOBMAPIの中には、タイトルタイムラインTMLE上の各オブジェクトの有効な期間(表示期間もしくは、その準備期間や終了処理期間も含む)に関する情報が記載されている。タイトルタイムラインTMLE上での前記有効期間は、タイトルタイムラインTMLE上での開始時間(時刻)と終了時間(時刻)により規定される。各クリップエレメントにおいて、タイトルタイムラインTMLE上における開始時間(時刻)と終了時間(時刻)は、titleTimeBegin属性とtitleTimeEnd属性により規定されている。すなわち各クリップエレメント内で個々に前記titleTimeBegin属性情報とtitleTimeEnd属性情報が記録され、タイトルタイムラインTMLE上においてtitleTimeBegin属性で記述された時刻から対応したオブジェクトの表示が開始され、titleTimeEnd属性で記述された時刻で表示が終了される。アドバンストサブタイトルセグメントエレメントADSTSGとアプリケーションセグメントエレメントAPPLSGを除くプライマリーオーディオビデオクリップエレメントPRAVCPとセカンダリーオーディオビデオクリップエレメントSCAVCP、サブスティテュートオーディオビデオクリップエレメントSBAVCP及びサブスティテュートオーディオクリップエレメントSBADCPにおいては各オブジェクトが記録されている開始位置から算出した表示経過時間を意味するclipTimeBeginにより、プライマリーオーディオビデオPRMAVやセカンダリーオーディオビデオSCDAV、サブスティテュートオーディオビデオSBATAV、サブスティテュートオーディオSBTADの表示が開始される。すなわち前述したtitleTimeBegin属性とtitleTimeEnd属性は、タイトルタイムラインTMLE上での時刻情報を意味し、前述したclipTimeBeginは各オブジェクト内での単独の時間経過を意味し、前記titleTimeBegin属性と前記clipTimeBeginの各時刻間での同期合わせをすることにより異なる複数のオブジェクトを同一のタイトルタイムラインTMLE上で同期して表示させることができる。 As shown in FIG. 18, the primary audio video clip element PRAVCP described in the object mapping information OBMAPI describes the object mapping information OBMAPI related to the primary audio video PRMAV. The substitute audio video clip SBAVCP describes object mapping information OBMAPI of the substitute audio video SBTAV. The secondary audio video clip element SCAVCP describes object mapping information OBMAPI of the secondary audio video SCDAV. The substitute audio clip element SBADCP describes object mapping information OBMAPI of the substitute audio SBTAD. The advanced subtitle segment element ADSTSG in the object mapping information OBMAPI describes information about the markup MRKUPS related to the advanced subtitle ADSBT. The application segment element APPLSG in the object mapping information OBMAPI describes information about the markup MRKUP and script SCRPT of the advanced application ADAPL. In the object mapping information OBMAPI relating to each object to be reproduced / used, information related to the effective period (including the display period, the preparation period, and the end processing period) of each object on the title timeline TMLE is described. Has been. The valid period on the title timeline TMLE is defined by a start time (time) and an end time (time) on the title timeline TMLE. In each clip element, the start time (time) and end time (time) on the title timeline TMLE are defined by the titleTimeBegin attribute and the titleTimeEnd attribute. That is, the titleTimeBegin attribute information and the titleTimeEnd attribute information are individually recorded in each clip element, and the display of the corresponding object is started from the time described by the titleTimeBegin attribute on the title timeline TMLE, and the time described by the titleTimeEnd attribute The display is finished. Start of recording each object in primary audio video clip element PRAVCP, secondary audio video clip element SCAVCP, substitute audio video clip element SBAVCP and substitute audio clip element SBADCP excluding advanced subtitle segment element ADSTSG and application segment element APPLSG Display of the primary audio video PRMAV, the secondary audio video SCDAV, the substitute audio video SBATV, and the substitute audio SBTAD is started by clipTimeBegin which means the display elapsed time calculated from the position. That is, the above-mentioned titleTimeBegin attribute and titleTimeEnd attribute mean time information on the title timeline TMLE, and the above-mentioned clipTimeBegin means a single time lapse within each object, and between each time of the titleTimeBegin attribute and the clipTimeBegin A plurality of different objects can be displayed synchronously on the same title timeline TMLE by performing synchronization adjustment in.
本実施形態では各種表示オブジェクトの表示期間と、前述したtitleTimeBegin、titleTimeEnd、clipTimeBeginとの間には以下の関係を設定することで、表示タイミングの矛盾を発生せず表示処理の精度を向上させることができる。 In the present embodiment, by setting the following relationship between the display period of various display objects and the above-described titleTimeBegin, titleTimeEnd, and clipTimeBegin, it is possible to improve display processing accuracy without causing display timing conflicts. it can.
・ titleTimeBegin < titleTimeEnd
・ titleTimeEnd ≦ [タイトルの表示期間]
・ clipTimeBegin + titleTimeEnd − titleTimeBegin ≦ [表示オブジェクトの表示期間]
更に本実施形態において下記の条件を設定することにより、表示精度を向上させている。
・ TitleTimeBegin <titleTimeEnd
・ TitleTimeEnd ≤ [Title display period]
-ClipTimeBegin + titleTimeEnd-titleTimeBegin ≤ [Display object display period]
Furthermore, the display accuracy is improved by setting the following conditions in the present embodiment.
・ 各プライマリーオーディオビデオクリップエレメントPRAVCPの有効期間が互いにタイトルタイムラインTMLE上でオーバーラップしてはならない。 • The valid period of each primary audio video clip element PRAVCP must not overlap each other on the title timeline TMLE.
・ 各セカンダリーオーディオビデオクリップエレメントSCAVCPの有効期間が互いにタイトルタイムラインTMLE上でオーバーラップしてはならない。 • The validity period of each secondary audio video clip element SCAVCP must not overlap each other on the title timeline TMLE.
・ 各サブスティテュートオーディオクリップエレメントSBADCPの有効期間が互いにタイトルタイムラインTMLE上でオーバーラップしてはならない。 • The valid periods of each substitute audio clip element SBADCP must not overlap each other on the title timeline TMLE.
・ セカンダリーオーディオビデオクリップエレメントSCAVCPの有効期間とサブスティテュートオーディオクリップエレメントSBADCPの有効期間が互いにタイトルタイムラインTMLE上でオーバーラップしてはならない。 The validity period of the secondary audio video clip element SCAVCP and the validity period of the substitute audio clip element SBADCP must not overlap each other on the title timeline TMLE.
図12で示したように、プレイリストPLLSTからはプライマリービデオセットPRMVSのタイムマップPTMAP、セカンダリービデオセットSCDVSのタイムマップSTMAP、マニュフェストMNFSTとアドバンストサブタイトルADSBTのマニュフェストMNFSTSを参照する。 As shown in FIG. 12, the playlist PLLST refers to the time map PTMAP of the primary video set PRMVS, the time map STMAP of the secondary video set SCDVS, the manifest MNFST, and the manifest MNFSTS of the advanced subtitle ADSBT.
具体的には図18に示すように、プライマリーオーディオビデオクリップエレメントPRAVCP内で参照するファイル名としてプライマリービデオセットPRMVSのタイムマップファイルPTMAPのファイル名とその保存場所がプライマリーオーディオビデオクリップエレメントPRAVCP内に記述されている。同様にセカンダリービデオセットSCDVSのタイムマップファイルSTMAPのファイル名とその保存場所は、セカンダリーオーディオビデオクリップエレメントSCAVCP内に記述されている。さらにセカンダリービデオセットSCDVSのタイムマップファイルSTMAPのファイル名と保存場所はサブスティテュートオーディオクリップエレメントSBADCP内、又はサブスティテュートオーディオビデオクリップエレメントSBAVCP内に記述されている。またアドバンストサブタイトルADSBTのマニュフェストファイルMNFSTSのファイル名とその保存場所がアドバンストサブタイトルセグメントエレメントADSTSG内に記述されており、アドバンストアプリケーションADAPLのマニュフェストファイルMNFSTのファイル名とその保存場所はアプリケーションセグメントエレメントAPPLSG内に記述されている。 Specifically, as shown in FIG. 18, the file name of the time map file PTMAP of the primary video set PRMVS and the storage location thereof are described in the primary audio video clip element PRAVCP as file names to be referenced in the primary audio video clip element PRAVCP. Has been. Similarly, the file name of the time map file STMAP of the secondary video set SCDVS and its storage location are described in the secondary audio video clip element SCAVCP. Further, the file name and storage location of the time map file STMAP of the secondary video set SCDVS are described in the substitute audio clip element SBADCP or in the substitute audio video clip element SBAVCP. The file name of the advanced subtitle ADSBT manifest file MNFSTS and its storage location are described in the advanced subtitle segment element ADSTSG, and the file name and storage location of the advanced application ADAPL manifest file MNFST are described in the application segment element APPLSG. Has been.
また、図18に示したオブジェクトの再生・使用時にインデックスとして参照されるファイルが保存している場所は図10に記載されているが、再度確認のため図18の前記オブジェクトが元々記録されている欄に記述した。 Further, the place where the file referred to as an index when the object shown in FIG. 18 is stored is stored in FIG. 10, but the object shown in FIG. 18 is originally recorded for confirmation. Described in the column.
なお本実施形態において情報記憶媒体DISC内にプレイリストPLLSTのみ記録させ、前記プレイリストPLLSTからネットワークサーバNTSRVまたはパーシステントストレージPRSTR内に記録された再生・使用対象となる各種オブジェクトを指定できる。 In the present embodiment, only the playlist PLLST is recorded in the information storage medium DISC, and various objects to be reproduced / used recorded in the network server NTSRV or the persistent storage PRSTR can be specified from the playlist PLLST.
各クリップエレメント内に記述され、オブジェクトの再生・使用時にインデックスとして参照されるファイルは図18に示すように、各種記録媒体(ネットワークサーバNTSRVを含む)内に記録することができる。前記、各クリップエレメント内に記述されるファイルの保存場所指定方法を図19に示す。すなわち、ネットワークサーバNTSRV内にファイルが保存されている場合には、図19に示すようにHTTPサーバまたはHTTPSサーバのアドレスを、“ http:… ”または“ https:… ”により記述する。本実施形態において、各クリップエレメント内で記述されるファイル保存場所指定情報(URI:Uniform Resource Identifier)の記述範囲は1024バイト以下で記述しなければならない。また情報記憶媒体DISCや、ファイルキャッシュFLCCH(データキャッシュDTCCH)やパーシステントストレージPRSTR内にこれらが記録されている場合には、データファイルとしてファイル保存場所を指定する。 A file described in each clip element and referred to as an index when an object is played back or used can be recorded in various recording media (including a network server NTSRV) as shown in FIG. FIG. 19 shows a method for specifying the storage location of a file described in each clip element. That is, when a file is stored in the network server NTSRV, the address of the HTTP server or HTTPS server is described by “http:...” Or “https:...” As shown in FIG. In this embodiment, the description range of file storage location designation information (URI: Uniform Resource Identifier) described in each clip element must be described with 1024 bytes or less. If these are recorded in the information storage medium DISC, the file cache FLCCH (data cache DTCCH), or the persistent storage PRSTR, the file storage location is designated as a data file.
図19で示した、情報記憶媒体DISCや、ファイルキャッシュFLCCH(データキャッシュDTCCH)や、パーシステントストレージPRSTR内に各ファイルが保存されている場合、媒体メディアを識別する必要がある。本実施形態では各種クリップエレメント内で図20に示すようなパス指定記述方法を採用することにより媒体メディアを識別できるようにしているところに特徴がある。 When each file is stored in the information storage medium DISC, the file cache FLCCH (data cache DTCCH), or the persistent storage PRSTR shown in FIG. 19, it is necessary to identify the medium medium. The present embodiment is characterized in that the medium and medium can be identified by adopting a path designation description method as shown in FIG. 20 in various clip elements.
<コンテンツの参照(Content Referencing)>
本実施形態において、パーシステントストレージPRSTRに対して2種類の記録メディアを視野に入れている。最初のものは固定形パーシステントストレージPRSTRであり、本実施形態においては情報記録再生装置1内について1台のパーシステントストレージドライブ3のみを規定する。また、他のものは携帯形パーシステントストレージPRSTRであり、本実施形態においては情報記録再生装置1内では、1以上(複数可)を装備することが可能としている。ファイルへのパス指定記述においては、図20に示すような記述方法を規定し、この内容がプレイリストPLLST内の各種クリップエレメント内に記述される。すなわち、情報記憶媒体DISC内にファイルが記録されている場合には、File:///dvddisc/と記述し、ファイルキャッシュFLCCH(データキャッシュDTCCH)内にファイルが記載されている場合には、パス指定記述方法としてFile:///filecache/とする。また、必須形パーシステントストレージPRSTR内にファイルが記録されている場合には、パス指定記述方法としてFile:///required/とする。また、追加形パーシステントストレージPRSTR 内にファイルが記録されている場合にはパス指定記述方法として、File:///additional/とする。また必須形パーシステントストレージPRSTR内の共通領域に記載されている場合には、パス指定記述方法としてFile:///common/required/とする。また、追加形パーシステントストレージPRSTR(複数可)内の共通領域に記載されている場合には、File:///commom/additional/とする。また情報記憶媒体DISCやファイルキャッシュFLCCH(データキャッシュDTCCH)またはパーシステントストレージPRSTR内に各種ファイルが記録される場合には、各記録メディア内で図11に示すファイル構造を形成し、それぞれの対応したディレクトリの下に各ファイルが記録される。
<Content Referencing>
In the present embodiment, two types of recording media are considered in view of the persistent storage PRSTR. The first one is a fixed persistent storage PRSTR. In this embodiment, only one
<プレイリストファイル内のデータ構造>
図17に示したプレイリストPLLSTに関する情報が記録されているプレイリストファイルPLLSTの中でのデータ構造を図21に記載する。このプレイリストファイルPLLSTは、図11に示すようにアドバンストコンテンツディレクトリADVCTの下に直接プレイリストファイルPLLSTの形で記録される。前記プレイリストファイルPLLST内は、管理情報と各表示オブジェクト間の同期合わせ情報及び初期時のシステム構造に関する情報(データキャッシュDTCCH内で使用するメモリ空間の事前割付など)に関する情報が記載されている。前記プレイリストファイルPLLSTは、XMLに基づく記述方法により記載される。前記プレイリストファイルPLLST内の概略データ構造を図21に示す。
<Data structure in playlist file>
FIG. 21 shows a data structure in the playlist file PLLST in which information on the playlist PLLST shown in FIG. 17 is recorded. This playlist file PLLST is recorded in the form of a playlist file PLLST directly under the advanced content directory ADVCT as shown in FIG. In the playlist file PLLST, management information and information on synchronization between display objects and information on an initial system structure (such as pre-allocation of a memory space used in the data cache DTCCH) are described. The playlist file PLLST is described by a description method based on XML. A schematic data structure in the playlist file PLLST is shown in FIG.
図21における<Playlist[プレイリスト]…>と</Playlist>で囲まれた領域をプレイリストエレメントと呼ぶ。前記プレイリストエレメント内の情報としては、構造情報CONFGIとメディア属性情報MDATRIとタイトル情報TTINFOが前記の順番で記載される。本実施形態において、プレイリストエレメント内の各種エレメントの配置順番は、図1に示す情報記録再生装置1内のアドバンストコンテンツ再生部ADVPLにおける映像表示開始前の動作手順に対応して設定されている。すなわち、図14に示すアドバンストコンテンツ再生部ADVPL内のデータキャッシュDTCCH内での使用するメモリ空間の割付作業が再生準備の段階で最も必要となる。そのため、プレイリストエレメント内で構造情報エレメントCONFGIが最初に記述される。次に各表示オブジェクト内の情報の属性に応じて図14内のプレゼンテーションエンジンPRSENの準備がなされる必要がある。そのため、構造情報エレメントCONFGIの後ろかつタイトル情報エレメントTTINFOの前に前記メディア属性情報エレメントMDATRIが記述される必要がある。このようにデータキャッシュDTCCHとプレゼンテーションエンジンPRSENの準備が整った後、タイトル情報エレメントTTINFOに記載された情報に従いアドバンストコンテンツ再生部ADVPLが表示処理を開始する。そのため、各準備に必要な情報の後に(最後の位置に)タイトル情報エレメントTTINFOが配置される。
An area surrounded by <Playlist [playlist] ...> and </ Playlist> in FIG. 21 is called a playlist element. As information in the playlist element, structure information CONFGI, media attribute information MDATRI, and title information TTINFO are described in the above order. In the present embodiment, the arrangement order of various elements in the playlist element is set corresponding to the operation procedure before the video display start in the advanced content playback unit ADVPL in the information recording /
本実施形態においてプレイリストエレメントPLLST内のデータ構造として、プレイリストエレメントPLLST内の最初の位置に構造情報CONFGIが記載されているところに大きな特徴がある。それにより、プレイリストPLLSTで共通に使用するシステム内の条件(各パラメータ)設定が先行でき、起動時の再生開始までの時間を短縮化できる。また更に、メディア属性情報MDATRIとタイトル情報TTINFOを分離記述したところにも特徴がある。それにより、異なるタイトル間で同一の属性情報を共有化でき、記述文章量の節約とデコーダー内パラメータ設定等の処理の簡素化が図れるという効果が生じる。また、メディア属性情報MDATRIがタイトル情報TTINFOより先行した場所に記述されているところに次なる特徴がある。その結果、デコーダー内パラメータ設定等の処理を先行させる事で起動時の再生開始までの時間の短縮化が図れる。 In this embodiment, as a data structure in the playlist element PLLST, there is a great feature in that the structure information CONFGI is described at the first position in the playlist element PLLST. As a result, the system conditions (each parameter) that are commonly used in the playlist PLLST can be set in advance, and the time to start playback at the time of startup can be shortened. Furthermore, the media attribute information MDATRI and the title information TTINFO are described separately. As a result, the same attribute information can be shared between different titles, and the effect of saving the amount of written text and simplifying processing such as setting parameters in the decoder can be achieved. The media attribute information MDATRI is described in a place preceding the title information TTINFO. As a result, it is possible to shorten the time until the start of reproduction at the time of start-up by preceding processing such as parameter setting in the decoder.
図21における最初の行は“以下の文がXML記述方式により記載される”ということを宣言する定義文章であり、“< ?xml”と“? >”の間にxml属性情報XMATRIの情報が記載される構造となっている。 The first line in FIG. 21 is a definition sentence declaring that “the following sentence is described by the XML description method”, and the information of the xml attribute information XMATRI is between “<? Xml” and “?>”. It has the structure described.
前記xml属性情報XMATRI内の情報内容を図22(a)に示す。 The information content in the xml attribute information XMATRI is shown in FIG.
前記xml属性情報XMATRIの情報はXMLの対応バージョン情報と子関係にある別のXMLを参照しているか否かを示す情報が記載されている。前記子関係にある別のXMLを参照しているか否かを示す情報は“yes”と“no”で記述され、子関係にある別のXMLをこの対象とする記載文章の中に直接参照している場合は“no”、別のXMLをこのXML文章内で直接参照せず単独XMLとして存在する場合は“yes”を記述する。XMLの宣言文として、例えばXMLの対応バージョン番号が1.0で別のXMLを参照せず単独のXMLとして存在する場合には図22(a)の記載例として、“< ?xml version = ‘1.0’ standalone =‘yes’ ? >”を記述する。 The information of the xml attribute information XMATRI describes information indicating whether or not another XML having a child relationship with the corresponding version information of XML is being referred to. Information indicating whether or not another XML having a child relationship is referred to is described as “yes” and “no”, and the other XML having a child relationship is directly referred to in the target sentence. If it exists, “no” is described. If another XML does not refer directly to this XML document and exists as a single XML, “yes” is described. As an XML declaration statement, for example, when the corresponding version number of XML is 1.0 and it exists as a single XML without referring to another XML, as a description example of FIG. 22A, “<? Xml version = '1.0” standalone = 'yes'?> ”is described.
プレイリストエレメントの範囲を規定するプレイリストエレメントタグ内の記載文章は、“< Playlist”に続き、プレイリストタグの名前空間定義情報PLTGNMとプレイリスト属性情報PLATRIを記述し、最後に“>”で閉じてプレイリストエレメントタグを形成する。前記プレイリストエレメントタグ内の記載情報を図22(b)に記載する。本実施形態においてプレイリストファイルPLLST内に存在するプレイリストエレメントの数は1個を原則としているが、特殊な場合には複数のプレイリストエレメントが記載可能なようになっている。その場合、プレイリストファイルPLLST内に複数のプレイリストエレメントタグが記載される可能性があるので、各プレイリストエレメント毎の識別が可能なように、プレイリストタグの名前空間定義情報PLTGNMを“< Playlist”の直後に記述する。また、プレイリスト属性情報PLATRI内の情報はアドバンストコンテンツバージョン番号の整数部の値MJVERNと、アドバンストコンテンツバージョン番号情報の小数点以下の値MNVERN及び、前記プレイリストエレメント内における前記プレイリストに関する付加情報(名前など)PLDSCIの情報がこの順番に記載される。例えば、記載例としてアドバンストコンテンツバージョン番号が“1.0”の場合にはアドバンストコンテンツバージョン番号の整数部の値MJVERNは“1”、アドバンストコンテンツバージョン番号の小数点以下の値MNVERNは“0”の値が入り、プレイリストPLLSTに関する付加情報をstringとし、プレイリストタグの名前空間定義情報PLTGNMをhttp://www.dvdforum.org/HDDVDVideo/Playlist とした場合には、プレイリストエレメントタグ内の記述文章は、
“< Playlist xmlns = ‘http://www.dvdforum.org/HDDVDVideo/Playlist’
majorVersion = ‘1’
minorVersion = ‘0’
description = string >”となる。
The description text in the playlist element tag that defines the range of the playlist element follows “<Playlist”, describes the namespace definition information PLTGNM and playlist attribute information PLATRI of the playlist tag, and ends with “>” Close to form a playlist element tag. The description information in the playlist element tag is described in FIG. In the present embodiment, the number of playlist elements existing in the playlist file PLLST is one in principle, but in a special case, a plurality of playlist elements can be described. In that case, since there is a possibility that a plurality of playlist element tags are described in the playlist file PLLST, the namespace definition information PLTGNM of the playlist tag is set to “<” so that each playlist element can be identified. Describe immediately after “Playlist”. The information in the playlist attribute information PLATRI includes the value MJVERN of the integer part of the advanced content version number, the value MNVERN below the decimal point of the advanced content version number information, and additional information (name) on the playlist in the playlist element. Etc.) PLDSCI information is listed in this order. For example, when the advanced content version number is “1.0” as an example, the integer part value MJVERN of the advanced content version number is “1”, and the value MNVERN below the decimal point of the advanced content version number is “0”. If the additional information about the playlist PLLST is string and the namespace definition information PLTGNM of the playlist tag is http://www.dvdforum.org/HDDVDVideo/Playlist, the descriptive text in the playlist element tag is
“<Playlist xmlns = 'http://www.dvdforum.org/HDDVDVideo/Playlist'
majorVersion = '1'
minorVersion = '0'
description = string> ”
更に図22(b)に示すように、プレイリスト属性情報PLATRI内には一般的によく使われるテキストフォーマットで記述されるプレイリスト名PLDPNMが、displayName属性情報として記述される。本実施形態におけるアドバンストコンテンツ再生部ADVPLは、情報記憶媒体DISCのディスク名として前記プレイリスト名PLDPNMをユーザに表示することができる。また、前記プレイリスト名PLDPNMはプレイリストタグ内での記述を省くことができる。更にプレイリストコンテンツのタイプ情報PLTYPEとして、“Advanced”又は“Interoperable”のいずれかの値を記述することができる。本実施形態において、録画再生が可能なアドバンストビデオレコーディング規格に基づいてユーザが録画・編集した映像コンテンツをアドバンストコンテンツADVCTの一部として再生することができる。その場合には、前記ユーザが録画・編集した映像コンテンツを“インターオペラブルコンテンツ”として設定することで、前記プレイリストPLLST内での再生が可能となる。この場合には、前記プレイリストコンテンツのタイプ情報PLTYPEの値として“Interoperable”の値が記載される。それ以外の一般的なアドバンストコンテンツADVCTの映像情報の場合には、前記プレイリストコンテンツのタイプ情報PLTYPEの値として“Advanced”の値が記述される。本実施形態において、プレイリストタグ内の情報として前記プレイリストコンテンツのタイプ情報PLTYPEの記載を省くことが可能である。この場合には、デフォルト値である“Advanced”の値がプレイリストコンテンツのタイプ情報PLTYPEの値として自動設定される。 Further, as shown in FIG. 22B, in the playlist attribute information PLATRI, a playlist name PLDPNM described in a commonly used text format is described as displayName attribute information. The advanced content playback unit ADVPL in the present embodiment can display the playlist name PLDPNM as the disc name of the information storage medium DISC to the user. The playlist name PLDPNM can omit the description in the playlist tag. Furthermore, either “Advanced” or “Interoperable” can be described as the playlist content type information PLTYPE. In the present embodiment, video content recorded and edited by a user based on the advanced video recording standard that allows recording and playback can be played back as part of the advanced content ADVCT. In this case, the video content recorded / edited by the user is set as “interoperable content”, thereby enabling reproduction within the playlist PLLST. In this case, the value of “Interoperable” is described as the value of the playlist content type information PLTYPE. In the case of video information of other general advanced content ADVCT, the value of “Advanced” is described as the value of the playlist content type information PLTYPE. In the present embodiment, it is possible to omit the description of the playlist content type information PLTYPE as information in the playlist tag. In this case, the default value “Advanced” is automatically set as the value of the playlist content type information PLTYPE.
図1に示す情報記録再生装置1内のアドバンストコンテンツ再生部ADVPL内では、前記プレイリストエレメントタグ内に記述されたアドバンストコンテンツバージョン番号を最初に再生し、アドバンストコンテンツ再生部ADVPLがサポートしているバージョン番号の範囲内にあるか否かを判断する。
In the advanced content playback unit ADVPL in the information recording /
もし、アドバンストコンテンツバージョン番号が、サポート範囲を超えた場合にはアドバンストコンテンツ再生部ADVPLは、ただちに再生処理を停止する必要がある。そのため、本実施形態ではプレイリスト属性情報PLATRI内では最も先行した位置にアドバンストコンテンツバージョン番号の情報が記載されている。 If the advanced content version number exceeds the support range, the advanced content playback unit ADVPL needs to immediately stop the playback process. Therefore, in the present embodiment, the advanced content version number information is described at the most preceding position in the playlist attribute information PLATRI.
本実施形態におけるプレイリストPLLST内に記載される各種情報は、図23と図24に示すような階層構造を有している。 Various information described in the playlist PLLST in this embodiment has a hierarchical structure as shown in FIGS.
<タイトルインフォメーション(Title Information)>
前述したプレイリストファイルPLLST内に記録されている情報においてプレイリストエレメント内に含まれるタイトル情報TTINFOは、図23(b)に示すように < TitleSet > と < /TitleSet >に挟まれたタイトルセットエレメントにより記述される。この前記タイトルセットエレメントはプレイリストPLLST内で定義されたアドバンストコンテンツADVCTのタイトルセットに関係した情報が記述される。前記タイトルセットエレメントタグ内に記述されるタイトルセット属性情報TTSTATは、図23(d)に示すようにフレームレート(1秒間のフレーム数)情報FRAMRT(timeBase属性情報)及びマークアップページ内で使われるチッククロックの周波数情報TKBASE(tickBase属性情報)、タイトルセットでのデフォルト状態におけるメニュー言語情報DEFLNG(defaultLanguage属性情報)が存在する。
<Title Information>
The title information TTINFO included in the playlist element in the information recorded in the playlist file PLLST is the title set element sandwiched between <TitleSet> and </ TitleSet> as shown in FIG. Is described by In the title set element, information related to the title set of the advanced content ADVCT defined in the playlist PLLST is described. Title set attribute information TTSTAT described in the title set element tag is used in the frame rate (number of frames per second) information FRAMRT (timeBase attribute information) and the markup page as shown in FIG. There is frequency information TKBASE (tickBase attribute information) of the tick clock and menu language information DEFLNG (defaultLanguage attribute information) in the default state in the title set.
<データタイプとタイトルセットエレメント(Datatype and TitleSet Element)>
前記タイトルセットエレメントはプレイリストPLLST内におけるアドバンストコンテンツADVCTに関するタイトルのセットの情報が記述されている。前記タイトルセットエレメント内に記述されるタイトルエレメント情報TTELEMの配置順に従い、各タイトル番号が設定される。すなわち、前記タイトルセットエレメント内の最初に記述されるタイトルエレメント情報TTELEMで管理されるタイトルのタイトル番号が1番となり、順次連続した番号が各タイトルエレメント情報TTELEMで管理されるタイトルのタイトル番号として設定される。
<Datatype and TitleSet Element>
The title set element describes title set information regarding the advanced content ADVCT in the playlist PLLST. Each title number is set according to the arrangement order of the title element information TTELEM described in the title set element. That is, the title number of the title managed by the title element information TTELEM described first in the title set element is 1, and the sequential number is set as the title number of the title managed by each title element information TTELEM. Is done.
図23(d)に示すフレームレート(1秒間のフレーム数)情報FRAMRT(timeBase属性情報)はフレームレート値を表している。各タイトル内における時間管理はタイトルタイムラインTMLE上でのカウント値(“HH:MM:SS:FF”のFFの値)で行われている。この時のタイトルタイムラインTMLEのカウント周波数が50Hz系か60Hz系かのいずれを採用するかが前記フレームレート情報FRAMRT(timeBase属性情報)の値により設定される。前記フレームレートは“fps”(フレームパーセック)を単位としたレート値で表し、前記レート値は“50”又は“60”のいずれかの値が選択的に設定される。次に、マークアップページ内で使われるチッククロックの周波数情報TKBASE(tickBase属性情報)についての説明を行う。マークアップページMRKUP毎に設定されるページクロックの周波数とアドバンストアプリケーションADAPL毎に設定されるアプリケーションクロックの周波数は前記チッククロックの周波数TKBASEと一致する。また、前記チッククロックの周波数TKBASEはタイトルタイムラインTMLE上のメディアクロックの周波数とは別に独自に設定できる。タイトル毎のタイトルタイムラインTMLEの基準周波数を表すフレームレート(1秒間のフレーム数)情報FRAMRT(timeBase属性情報)のクロックをメディアクロックと呼ぶ。また、チッククロックの周波数情報TKBASE(tickBase属性情報)に対応し、マークアップページMRKUP毎に設定されるクロックであるページクロックとアプリケーション毎に設定されるアプリケーションクロックが前記メディアクロックとは独自に設定できるところに本実施形態の大きな特徴がある。それによりアドバンストアプリケーションADAPLを標準速度で再生しながらタイトルタイムラインTMLE上でのFF、FR、ポーズ再生が可能となる効果が生まれる。また更に、timeBase/FRAMRTに対してTickBase/TKBASEを大幅に遅くすることでアドバンスト再生部ADVPLの負担を軽減できるという効果も生まれる。前記チッククロックの周波数情報TKBASE(tickBase属性情報)は、“fps”を単位としたチック値の値で表示され、前記チック値は“24”、“50”、“60”のいずれかの値が設定される。もし、前記フレームレート(1秒間のフレーム数)情報FRAMRT(timeBase属性情報)の値が“50”の場合には前記チッククロックの周波数情報TKBASE(tickBase属性情報)の値として“50”か“24”の値が設定され、前記フレームレート(1秒間のフレーム数)情報FRAMRT(timeBase属性情報)の値が“60”の場合には、前記チッククロックの周波数情報TKBASE(tickBase属性情報)の値として“60”か“24”の値が設定される。このように、前記チッククロックの周波数情報TKBASE(tickBase属性情報)の値が前記フレームレート(1秒間のフレーム数)情報FRAMRT(timeBase属性情報)の値の整数分の1に設定することにより、前記チッククロックと前記メディアクロック間のクロック設定が容易となる(例えば前記メディアクロックを分周することで容易に前記チッククロックを生成することができる)。前記タイトルセット属性情報TTSTAT内で前記チッククロックの周波数情報TKBASE(tickBase属性情報)の記述を省くことができる。この場合には、前記チッククロック周波数は前記フレームレート値と一致する。本実施形態において、timeBase/FRAMRTとtickBase/TKBASEをタイトルセットエレメント内で設定するところに大きな特徴がある。それにより同一タイトルセット内で共通化する事でアドバンストコンテンツ再生部ADVPL内部での処理簡素化が図れる。 The frame rate (number of frames per second) information FRAMRT (timeBase attribute information) shown in FIG. 23 (d) represents a frame rate value. Time management in each title is performed by the count value (FF value of “HH: MM: SS: FF”) on the title timeline TMLE. Whether the count frequency of the title timeline TMLE at this time is 50 Hz or 60 Hz is set by the value of the frame rate information FRAMRT (timeBase attribute information). The frame rate is represented by a rate value in units of “fps” (frame parsec), and the rate value is selectively set to either “50” or “60”. Next, tick clock frequency information TKBASE (tickBase attribute information) used in the markup page will be described. The frequency of the page clock set for each markup page MRKUP and the frequency of the application clock set for each advanced application ADAPL match the frequency TKBASE of the tick clock. Further, the frequency TKBASE of the tick clock can be set independently from the frequency of the media clock on the title timeline TMLE. A clock of frame rate (number of frames per second) information FRAMRT (timeBase attribute information) representing a reference frequency of the title timeline TMLE for each title is called a media clock. Also, it corresponds to the frequency information TKBASE (tickBase attribute information) of the tick clock, and the page clock that is set for each markup page MRKUP and the application clock that is set for each application can be set independently from the media clock. However, there is a major feature of this embodiment. As a result, the advanced application ADAPL can be played back at standard speed while the FF, FR, and pause playback on the title timeline TMLE is possible. Furthermore, the effect of reducing the burden on the advanced playback unit ADVPL can be achieved by significantly slowing TickBase / TKBASE with respect to timeBase / FRAMRT. The frequency information TKBASE (tickBase attribute information) of the tick clock is displayed as a tick value value in units of “fps”, and the tick value is any one of “24”, “50”, and “60”. Is set. If the value of the frame rate (number of frames per second) information FRAMRT (timeBase attribute information) is “50”, the value of the frequency information TKBASE (tickBase attribute information) of the tick clock is “50” or “24”. Is set, and the frame rate (number of frames per second) information FRAMRT (timeBase attribute information) is “60”, the tick clock frequency information TKBASE (tickBase attribute information) A value of “60” or “24” is set. In this way, by setting the value of the frequency information TKBASE (tickBase attribute information) of the tick clock to 1 / integer of the value of the frame rate (number of frames per second) information FRAMRT (timeBase attribute information), Clock setting between the tick clock and the media clock becomes easy (for example, the tick clock can be easily generated by dividing the media clock). The description of the frequency information TKBASE (tickBase attribute information) of the tick clock in the title set attribute information TTSTAT can be omitted. In this case, the tick clock frequency matches the frame rate value. The present embodiment is characterized in that timeBase / FRAMRT and tickBase / TKBASE are set in the title set element. As a result, the processing within the advanced content playback unit ADVPL can be simplified by sharing within the same title set.
タイトルセットでのデフォルト状態におけるメニュー言語情報DEFLNG(defaultLanguage属性情報)について説明を行う。図47に示すようにプロファイルパラメータとしてメニュー言語が設定される。前記メニュー言語に合致したタイトル内のアプリケーションセグメントAPPLSG(図56(d)参照)が存在しない場合には、タイトルセットでのデフォルト状態におけるメニュー言語情報DEFLNG(defaultLanguage属性情報)で設定された言語に対応したアプリケーションセグメントAPPLSGが実行・表示可能な状態となる。タイトルセット属性情報TTSTAT内で前記タイトルセットでのデフォルト状態におけるメニュー言語情報DEFLNG(defaultLanguage属性情報)の記載を省くことができる。 The menu language information DEFLNG (defaultLanguage attribute information) in the default state in the title set will be described. As shown in FIG. 47, a menu language is set as a profile parameter. When there is no application segment APPLSG (see FIG. 56D) in the title that matches the menu language, it corresponds to the language set in the menu language information DEFLNG (defaultLanguage attribute information) in the default state in the title set The executed application segment APPLSG is ready to be executed and displayed. It is possible to omit the description of the menu language information DEFLNG (defaultLanguage attribute information) in the default state in the title set in the title set attribute information TTSTAT.
<タイトルインフォメーション(Title Information)>
前記タイトルセットエレメント内には1番最初にファーストプレイタイトルエレメント情報FPTELEが記述可能であり、次に1以上のタイトルエレメント情報TTELEMが順番に記載され、各タイトルに関する管理情報がそれぞれ対応したタイトルエレメント情報TTELEM内に記録されている。図17の例ではタイトル#1〜#3までの3個のタイトルを持っており、それに対応させて図23(b)でもタイトル#1に関するタイトルエレメント情報TTELEMからタイトル#3に関するタイトルエレメント情報TTELEMまでを記述しているが、それに限らず1以上任意数まで各タイトルに関するタイトルエレメント情報TTELEMを記述することができる。また、前記タイトルセットエレメント内には前記タイトルエレメント情報TTELEMの後ろにプレイリストアプリケーションエレメント情報PLAELEの記述が可能になっている。各タイトルエレメント情報TTELEMに対応したタイトル毎にそれぞれ独自にタイトルタイムラインTMLEが設定される。各タイトル毎のタイトルタイムラインTMLEの表示期間は、前記タイトルエレメント情報TTELEM内のtitleDulation属性情報(タイトルタイムラインTMLE上でのタイトル全体の時間的な長さ情報TTDUR)内に記載される。前記タイトルセットエレメント内で記述される各タイトルエレメント情報TTELEMの記載順番に従い、各対応するタイトルの番号が設定される。図23(b)に示すように、タイトルセットエレメント内に最初に記述するタイトルエレメント情報TTELEMに対応したタイトルのタイトル番号を1と設定する。本実施形態において、前記タイトルセットエレメント内に記述可能なタイトルエレメント情報TTELEMの数(1個のプレイリストPLLST内で定義できるタイトル数)は、512以下にしている。そのようにタイトル数の上限値を設定することにより、アドバンストコンテンツ再生部ADVPLでの処理が発散するのを防止している。各タイトルエレメント情報TTELEM内に記載される情報は、オブジェクトマッピングインフォメーションOBMAPI、リソースインフォメーションRESRCI、プレイバックシーケンスインフォメーションPLSQIとトラックナビゲーションインフォメーションTRNAVIが前記記載した順番に記録される。またオブジェクトマッピングインフォメーションOBMAPI内には、各表示オブジェクト内のストリーム(トラック)の番号を設定したトラックナンバーアサイメントインフォメーションの情報が含まれている。前記オブジェクトマッピングインフォーメーションOBMAPI内には、図24で説明するように各種クリップエレメントのリストが記述されている。また前述した表示クリップエレメント内での各トラック番号の設定情報を表すトラックナンバーアサイメントインフォメーションに関するリストが前記オブジェクトマッピングインフォーメーションOBMAPI内に記述されている。本実施形態ではビデオ情報や、オーディオ情報や副映像情報などの各再生オブジェクトが複数のストリームを持つことが可能となっており、各ストリーム毎に別々のトラックを対応づけ、それと共にトラック番号を設定することにより表示オブジェクト内での再生ストリームの識別が可能となっている。このようにトラックナンバーアサイメントエレメントのリストを設定することで、各表示オブジェクト内で含まれるストリーム数と個々のストリーム間の識別が可能となる。リソースインフォメーションRESRCI内ではタイトルエレメント情報TTELEM内におけるリソースエレメントのリストが説明されている。トラックナビゲーションインフォメーションTRNAVI内では、トラックナビゲーションリストエレメントに関する情報が記述されている。また、プレイバックシーケンスインフォメーションPLSQI内では、同一タイトル内での映像内容の分割に対応したチャプターの先頭位置を表すチャプターリストエレメントの情報が記載されている。
<Title Information>
In the title set element, first play title element information FPTELE can be described first, then one or more title element information TTELEM is described in order, and title element information corresponding to management information for each title respectively. Recorded in TTELEM. In the example of FIG. 17, there are three
図23(c)に示すようにタイトルエレメント情報TTELEM内でのオブジェクトマッピングインフォメーションOBMAPIと、リソースインフォメーションRESRCI、プレイバックシーケンスインフォメーションPLSQI、トラックナビゲーションインフォメーションTRNAVI、スケジュールドコントロールインフォメーションSCHECIの配列順は、情報記録再生装置1内のアドバンストコンテンツ再生部ADVPL(図1参照)の処理手順に対応している。すなわち、タイトルエレメント情報TTELEM内の最初の場所に同一タイトル内で使用されるアドバンストアプリケーションADAPLとアドバンストサブタイトルADSBTの情報が記載されたオブジェクトマッピングインフォメーションOBMAPIの情報が記載される。アドバンストコンテンツ再生部ADVPLは最初に記録されているオブジェクトマッピングインフォメーションOBMAPIの中から同一タイトル内で使用されるアドバンストアプリケーションADAPLとアドバンストサブタイトルADSBTの内容を最初に把握する。図10の説明のところで説明したようにアドバンストアプリケーションADAPLとアドバンストサブタイトルADSBTの情報は、ユーザへの表示に先立ちファイルキャッシュFLCCH(データキャッシュDTCCH)内に事前に保存されている必要がある。そのため、情報記録再生装置1内でのアドバンストコンテンツ再生部ADVPLでは、再生に先立ってどのようなアドバンストアプリケーションADAPLとアドバンストサブタイトルADSBTがタイトル内で設定され、それぞれがどのタイミングでファイルキャッシュFLCCH(データキャッシュDTCCH)内に事前格納しておくかについての情報が必要となる。アドバンストコンテンツ再生部ADVPLは次にリソースインフォメーションRESRCIを読み取り、アドバンストアプリケーションADAPLやアドバンストサブタイトルADSBTのファイルキャッシュFLCCH(データキャッシュDTCCH)内の格納タイミングを知ることができる。従ってリソースインフォメーションRESRCIがオブジェクトマッピングインフォメーションOBMAPIの後ろに記述されることでアドバンストコンテンツ再生部ADVPLが処理しやすくなる。また、ユーザがアドバンストコンテンツADVCTを再生する時に見たい映像を即座に移動できやすいようにプレイバックシーケンスインフォメーションPLSQIが重要となるため、リソースインフォメーションRESRCIの後ろにプレイバックシーケンスインフォメーションPLSQIが配置されている。トラックナビゲーションインフォメーションTRNAVIはユーザへの表示直前に必要な情報なので、タイトルエレメント情報TTELEM内で最後の場所に記述される。前記各種インフォメーションに合わせた条件設定後に初めてスケジュールドコントロールインフォメーションSCHECIに基づく条件設定を行うので、タイトルエレメント情報TTELEM内の最後にスケジュールドコントロールインフォメーションSCHECIが配置される。
As shown in FIG. 23 (c), the order of arrangement of the object mapping information OBMAPI in the title element information TTELEM, resource information RESRCI, playback sequence information PLSQI, track navigation information TRNAVI, and scheduled control information SCHECI is information recording / reproduction. This corresponds to the processing procedure of the advanced content playback unit ADVPL (see FIG. 1) in the
図23(c)に示すようにタイトルエレメント情報TTELEM内タイトルエレメントタグ内の最初にタイトルのID情報TTIDIを記述する事で
1) タイトル情報TTINFO内に複数のタイトルエレメント情報TTELEMが記述でき、(異なるタイトル毎に対応した再生管理情報としてタイトルエレメント情報TTELEMがそれぞれ設定される)。
By describing title ID information TTIDI at the beginning of the title element tag in title element information TTELEM as shown in FIG. 23 (c) 1) Multiple title element information TTELEM can be described in title information TTINFO (different) Title element information TTELEM is set as reproduction management information corresponding to each title).
さらに、
2) タイトルエレメントタグ内の最初に記述されたタイトルのID情報TTIDIの内容を解読する事でタイトル情報TTINFO内の各タイトルエレメント情報TTELEMを即座に識別でき、プレイリストPLLST内の内容判別処理の高速化が図れる。
further,
2) Each title element information TTELEM in the title information TTINFO can be immediately identified by decoding the content of the title ID information TTIDI described first in the title element tag, and the content identification processing in the playlist PLLST can be quickly performed. Can be achieved.
また、本実施形態においてタイトルエレメント情報TTELEM内で記述する内容の関連する情報同士をそれぞれまとめてグルーピングして互いに近い位置に記述した。各グループ名としてオブジェクトマッピングインフォメーションOBMAPI、リソースインフォメーションRESRCI、プレイバックシーケンスインフォメーションPLSQI、トラックナビゲーションインフォメーションTRNAVIと名付ける。それによりプレイリストマネージャPLMNG(図28参照)内でのプレイリストPLLSTの内容解読処理の簡素化と高速化が図れる。 Further, in the present embodiment, information related to the contents described in the title element information TTELEM is grouped together and described at positions close to each other. Each group is named as object mapping information OBMAPI, resource information RESRCI, playback sequence information PLSQI, and track navigation information TRNAVI. This simplifies and speeds up the content decoding process of the playlist PLLST in the playlist manager PLMNG (see FIG. 28).
<タイトルエレメント(Title Element)>
本実施形態において、各タイトルエレメント情報TTELEMの開始を表すタイトルエレメントタグ内に記載されている情報を図24に示す。前記タイトルエレメントタグ内には、各タイトルの識別を行うためのタイトルのID情報TTIDが最初に記載される。次にタイトル番号情報TTNUMが記述される。本実施形態においてタイトル情報TTINFOの中に図24(b)に示すように複数のタイトルエレメント情報TTELEMを記述することができる。前記タイトル情報TTINFO内の最初から記述されるタイトルエレメント情報TTELEMに対し、記述順に従ってタイトル番号が設定され、このタイトル番号が前記タイトル番号情報TTNUM内に記述される。また、タイトルエレメント情報TTELEMで管理されるタイトルのタイプ(種類)に関してタイトルタイプ情報TTTYPEが記述される。本実施形態において、前記タイトルタイプ情報TTTYPEとして“Advanced”、“Original”及び“UserDefined”の3種類のタイプ情報の値を設定することができる。本実施形態において、ユーザが録画・編集・再生が可能なアドバンストビデオレコーディングフォーマットで記録された映像情報をアドバンストコンテンツADVCTの一部として活用することができる。前記アドバンストビデオレコーディングフォーマットで記録された映像情報をインターオペーラブルコンテンツと呼ぶ。前記インターオペーラブルコンテンツに関するオリジナルタイトル(録画直後で編集を行う前の状態のインターオペーラブルコンテンツ)に対するタイトルタイプ情報TTTYPEを“Original”と設定する。また、前記インターオペーラブルコンテンツに関してユーザが編集した後の(ユーザにより定義された(Defineded))タイトルに対するタイトルタイプ情報TTTYPEを“UserDefined”と設定する。また、それ以外のアドバンストコンテンツADVCTに関しては“Advanced”と設定する。本実施形態においては、タイトル属性情報TTATRI内に前記タイトルタイプ情報TTTYPEの記述を省略することができる。この場合には、デフォルト値である“Advanced”の値が自動的に設定される。次に選択属性情報が記述される。この選択属性情報は、指定されたタイトルがユーザオペレーションによる対応が可能か否かの選択情報を表す。例えば図1に示すシステムの場合、ユーザが大画面テレビモニタ15に向かい、(図示していないが)リモコンによる画面操作(例えば早送りFFや巻戻しFR)を行う場合がある。このようにユーザが指示する処理をユーザオペレーションと言い、そのユーザオペレーションに対応してタイトルが処理されるか否かを表すのが前記選択属性情報(セレクタブルアトリビューション)に対応する。この情報は“true”か“false”どちらかの単語を記入する。例えば対応したタイトルの映像内容がコマーシャルCM44や上映予告41などユーザに早送りされては困る場合には、対応したタイトル全体がユーザオペレーション禁止にすることができる。この場合には前記選択属性情報を“false”とし、対応したタイトルをユーザオペレーション禁止とし、ユーザによる早送りや巻戻しなどの要求を拒否できる。またこの値が“true”の場合にはユーザのオペレーションに対応し、ユーザのリクエストに応じ巻戻しや早送りなどの処理(ユーザオペレーション)を行うことができる。本実施形態において、前記選択属性(セレクタブルアトリビューション)の情報としてデフォルト値を“true”(ユーザオペレーションの対応可能)に設定している。アドバンストコンテンツ再生部ADVPL(図1参照)は前記選択属性情報に基づきタイトルの再生処理方法が大きく変わる。従って前記選択属性情報をタイトルのID情報TTIDの直後で他の情報よりも先行した位置に配置することにより、アドバンストコンテンツ再生部ADVPL処理の利便性を向上させることができる。本実施形態においてはタイトルエレメントタグ内で、前記選択属性情報の記述を省くことが可能である。記載が省かれた場合には、デフォルト値の“true”として設定される。
<Title Element>
FIG. 24 shows information described in the title element tag indicating the start of each title element information TTELEM in the present embodiment. In the title element tag, title ID information TTID for identifying each title is first described. Next, title number information TTNUM is described. In the present embodiment, a plurality of title element information TTELEM can be described in the title information TTINFO as shown in FIG. For the title element information TTELEM described from the beginning in the title information TTINFO, a title number is set according to the description order, and this title number is described in the title number information TTNUM. Further, title type information TTTYPE is described with respect to the type (type) of title managed by the title element information TTELEM. In the present embodiment, three types of values of “Advanced”, “Original”, and “UserDefined” can be set as the title type information TTTYPE. In the present embodiment, video information recorded in an advanced video recording format that can be recorded, edited, and played back by the user can be used as part of the advanced content ADVCT. Video information recorded in the advanced video recording format is referred to as interoperable content. Title type information TTTYPE for the original title related to the interoperable content (interoperable content in a state immediately after recording and before editing) is set to “Original”. Also, the title type information TTTYPE for the title edited by the user regarding the interoperable content (defined by the user) is set to “UserDefined”. For other advanced contents ADVCT, “Advanced” is set. In the present embodiment, the description of the title type information TTTYPE can be omitted in the title attribute information TTATRI. In this case, the default value “Advanced” is automatically set. Next, selection attribute information is described. This selection attribute information represents selection information as to whether or not a specified title can be handled by a user operation. For example, in the case of the system shown in FIG. 1, the user may go to the large
図23(d)に示すタイトルセットエレメント内のフレームレート情報FRAMRT(timeBase属性情報)は画面表示する映像の1秒間のフレーム数を表し、タイトルタイムラインTMLEの基準時間間隔に対応する。図17で説明したように、本実施形態ではタイトルタイムラインTMLEとして、50Hz系(1秒間にタイトルタイムラインTMLE上で50カウント分だけカウントアップされる)と、60Hz系(1秒間にタイトルタイムラインTMLE上で60カウント分だけカウントアップされる)の2方式が設定可能としている。例えばNTSCにおけるインターレース表示の場合には、1秒間に30フレーム(60フィールド)が表示される。この場合には60Hz系に対応し、タイトルタイムラインの1刻みの間隔(1カウントの時間間隔)が1/60秒となる。本実施形態において、タイトルタイムラインTMLEに準拠したクロックをメディアクロックと呼び、マークアップMRKUP毎に設定されるクロックであるページクロックと区別される。更に本実施形態では、マークアップMRKUP内で指定されるアドバンストアプリケーションADAPL実行時に定義されるアプリケーションクロックが存在する。前記ページクロックと前記アプリケーションクロックの基準周波数は互いに等しくチッククロックの周波数と呼ぶ。本実施形態では前記タイトルタイムラインTMLEに対応したメディアクロックと前記チッククロックが独自に設定可能にした所に大きな特徴がある。それにより例えば、プライマリーオーディオビデオPRMAVの映像情報に対する高速再生や巻戻し再生などの特殊再生を行っている最中にアドバンストアプリケーションADAPLで定義されたアニメーションに対して上記チッククロック(アプリケーションクロック)に基づく標準速度再生を行うことができ、ユーザに対する表現形式を大幅に向上させることができる。前記マークアップページ内で使われるチッククロックの周波数情報TKBASEを図23(d)の“tickBase = ”の直後に記述する。前記マークアップMRKUP内で使われるチッククロックの周波数情報TKBASEの値は上記フレームレート(1秒間のフレーム数)情報として記述された値以下の値として設定されなければならない。それにより、チッククロックに基づくアドバンストアプリケーションADAPLの実行(アニメーションの表示など)をタイトルタイムラインTMLEに合わせて(メディアクロックと矛盾が起きないように)スムーズに表示することが可能となるばかりでなく、アドバンストコンテンツ再生部ADVPL内の回路構造の簡素化を図ることができる。図24(b)に示すtimeBaseDivisor属性情報は、アドバンストアプリケーションマネージャ内での処理クロックのアプリケーションチッククロックに対する減衰比TICKBDを表している。すなわち前記情報は、図28内に示すアドバンストアプリケーションマネージャADAMNGが処理を行う時の前記アプリケーションチック(チッククロックの周波数情報TKBASE)に対する減衰比を意味している。例えば前記timeBaseDivisor属性情報の値を“3”と設定した場合には、前記アプリケーションチックのクロック(アプリケーションクロック)が3カウントインクリメントされる毎に前記アドバンストアプリケーションマネージャADAMNGの処理が1ステップ進む。このように前記アドバンストアプリケーションマネージャADAMNGの処理クロックをチッククロック(アプリケーションクロック)より遅くすることにより、動きの遅いアドバンストアプリケーションADAPLに対してCPUパワーを掛けずに処理ができるため、アドバンストコンテンツ再生部ADVPL内での発熱量を低く抑えることが可能となる。 Frame rate information FRAMRT (timeBase attribute information) in the title set element shown in FIG. 23 (d) represents the number of frames per second of video displayed on the screen, and corresponds to the reference time interval of the title timeline TMLE. As described with reference to FIG. 17, in this embodiment, the title timeline TMLE includes 50 Hz system (which is counted up by 50 counts on the title timeline TMLE per second) and 60 Hz system (title timeline per second). (Two counts are counted up on TMLE for 60 counts). For example, in the case of NTSC interlaced display, 30 frames (60 fields) are displayed per second. In this case, it corresponds to the 60 Hz system, and the time interval (1 count time interval) of the title timeline is 1/60 second. In this embodiment, a clock compliant with the title timeline TMLE is called a media clock, and is distinguished from a page clock that is a clock set for each markup MRKUP. Further, in the present embodiment, there is an application clock defined when executing the advanced application ADAPL specified in the markup MRKUP. The reference frequencies of the page clock and the application clock are equal to each other and called the frequency of the tick clock. The present embodiment is characterized in that the media clock corresponding to the title timeline TMLE and the tick clock can be set independently. As a result, for example, a standard based on the above tick clock (application clock) for animation defined in the advanced application ADAPL during special playback such as high-speed playback and rewind playback for the video information of the primary audio video PRMAV Speed reproduction can be performed, and the expression format for the user can be greatly improved. The frequency information TKBASE of the tick clock used in the markup page is described immediately after “tickBase =” in FIG. The value of the frequency information TKBASE of the tick clock used in the markup MRKUP must be set to a value equal to or less than the value described as the frame rate (number of frames per second) information. As a result, it is possible not only to display the advanced application ADAPL based on the tick clock (animation display, etc.) smoothly on the title timeline TMLE (so that it does not conflict with the media clock), The circuit structure in the advanced content playback unit ADVPL can be simplified. The timeBaseDivisor attribute information shown in FIG. 24B represents the attenuation ratio TICKBD of the processing clock to the application tick clock in the advanced application manager. That is, the information means an attenuation ratio with respect to the application tick (tick clock frequency information TKBASE) when the advanced application manager ADAMNG shown in FIG. 28 performs processing. For example, when the value of the timeBaseDivisor attribute information is set to “3”, the process of the advanced application manager ADAMNG advances one step every time the application tick clock (application clock) is incremented by 3 counts. As described above, since the advanced application manager ADAMNG processing clock is made slower than the tick clock (application clock), the advanced application ADAPL having a slow motion can be processed without applying CPU power. It is possible to keep the amount of heat generated at low.
タイトルタイムラインTMLE上でのタイトル全体の時間的な長さ情報TTDURは、対応したタイトル上でのタイトルタイムラインTMLEの全体の長さを表している。タイトルタイムラインTMLE上でのタイトル全体の時間的な長さ情報TTDURは、フレームレート(1秒間のフレーム数)情報に対応した50Hz系もしくは60Hz系のトータルカウント数で記述される。例えば該当するタイトルの全体の表示時間がn秒の場合にはタイトルタイムラインTMLE上でのタイトル全体の時間的な長さ情報TTDURとしてはトータルカウント数として60nまたは50nの値が入る。本実施形態において全ての再生オブジェクトの終了時間は、前記タイトルタイムラインTMLE上でのタイトル全体の時間的な長さ情報TTDURより小さくならなければならない。このようにタイトルタイムラインTMLE上でのタイトル全体の時間的な長さ情報TTDURはタイトルタイムラインTMLE上の時間刻み間隔に依存するため、この情報をフレームレート情報の後ろに配置することでアドバンストコンテンツ再生部ADVPLのデータ処理のし易さを向上させている。 The time length information TTDUR of the entire title on the title timeline TMLE represents the entire length of the title timeline TMLE on the corresponding title. The time length information TTDUR of the entire title on the title timeline TMLE is described by a total count number of 50 Hz system or 60 Hz system corresponding to the frame rate (number of frames per second) information. For example, when the display time of the entire title is n seconds, the total time count information TTDUR on the title timeline TMLE includes a value of 60n or 50n. In the present embodiment, the end times of all playback objects must be smaller than the time length information TTDUR of the entire title on the title timeline TMLE. In this way, the time length information TTDUR of the entire title on the title timeline TMLE depends on the time step interval on the title timeline TMLE, so by placing this information behind the frame rate information, advanced content The ease of data processing of the playback unit ADVPL is improved.
次のパレンタルレベル情報は再生対応したタイトルのパレンタルレベルを示している。 The next parental level information indicates the parental level of the title corresponding to playback.
前記パレンタルレベルの値は8以下の数字を記入する。本実施形態において、前記タイトルエレメントタグ内でこの情報を省くことも可能である。デフォルト値としての値は“1”として設定される。 The parental level value is a number of 8 or less. In the present embodiment, this information can be omitted in the title element tag. The default value is set as “1”.
このタイトル終了後に表示されるべきタイトルの番号情報を表すonEnd情報は、現在のタイトルが終了した後、次に再生すべきタイトルに関するタイトル番号の情報が記載される。前記タイトル番号に記入される値が“0”の時は、タイトル終了後にポーズ(終了画面を表示したまま)となる。デフォルト値としてはこの値は“0”に設定される。またタイトルエレメントタグ内でこの情報の記載を省くことも可能であり、その場合にはデフォルト値の“0”に設定される。 OnEnd information indicating the number information of the title to be displayed after the title ends, information on the title number related to the title to be reproduced next after the current title ends. When the value entered in the title number is “0”, it pauses after the title ends (the end screen is displayed). As a default value, this value is set to “0”. It is also possible to omit the description of this information in the title element tag. In this case, the default value “0” is set.
前記情報記録再生装置1が表示するタイトル名情報であるdisplayNameは、対応するタイトルの名前がテキストフォーマットで記述される。ここに記載された情報が情報記録再生装置1のタイトル名として表示することができる。また、この情報はタイトルエレメントタグ内で省くことも可能である。
In displayName, which is the title name information displayed by the information recording / reproducing
4:3 TVモニタ上への許容表示モード情報SDDISPを表すalternativeSDDisplayMode属性情報は、対応するタイトル再生時において4:3 TVモニタに出力する時に許容される表示モードを表している。前記の値が“panscanOrLetterbox”と設定された場合には、4:3 TVモニタに出力する場合にはパンスキャンモードとレターボックスモードのいずれの表示モードで出力することも許容される。また、“panscan”と設定された場合には、4:3 TVモニタに出力する場合にはパンスキャンモードでの出力しか許容されない。更に前記の値が“letterbox”と設定された場合には、4:3 TVモニタに出力する場合にはレターボックスの表示モードしか許容されない。情報記録再生装置1は4:3 TVモニタに出力する場合には許容された表示モードにより強制的に表示・出力しなければならない。前記4:3 TVモニタ上への許容表示モード情報SDDISPの記述を省くことができるが、その場合にはデフォルト値である“panscanOrLetterbox”に自動設定される。
The alternativeSDDisplayMode attribute information indicating the allowable display mode information SDDISP on the 4: 3 TV monitor represents a display mode allowed when outputting to the 4: 3 TV monitor when the corresponding title is reproduced. When the value is set to “panscanOrLetterbox”, when outputting to a 4: 3 TV monitor, it is allowed to output in either the pan scan mode or the letterbox mode. When “panscan” is set, when outputting to a 4: 3 TV monitor, only pan-scan mode output is allowed. Furthermore, when the value is set to “letterbox”, only letterbox display mode is allowed when outputting to a 4: 3 TV monitor. The information recording / reproducing
更にタイトルに関する付加情報(description)の欄には、前記タイトルに関する付加情報がテキストフォーマットで記載される。前記情報はタイトルエレメントタグ内で記載を省略することが可能となる。前記情報記録再生装置1が表示するタイトル名情報(displayName)とタイトルに関する付加情報(description)は、アドバンストコンテンツ再生部ADVPLの再生用処理を行う上での本質的な情報ではないので、タイトルの属性情報TTATRI内で後ろの場所に記録される。最後にタイトルエレメントに対応したファイル保存場所URI記述形式XMBASEは、XMLに準拠したURI(ユニフォームリソースアイデンティファイヤー)に関する記述形式フォーマット(XML_BASE)を示している。
Further, in the column of additional information (description) relating to the title, additional information relating to the title is described in a text format. The information can be omitted from the title element tag. The title name information (displayName) and the additional information (description) related to the title displayed by the information recording /
タイトルエレメントタグの具体的な情報例として例えばタイトルの識別用ID情報を“Ando”とし、60Hz系でのタイトル全体の時間的な長さが80000の場合には、
記述例:< Title = ‘Ando’titleDuration = ‘80000’>と記載される。
As a specific information example of the title element tag, for example, when the title identification ID information is “Ando” and the time length of the entire title in the 60 Hz system is 80000,
Description example: <Title = 'Ando'titleDuration =' 80000 '> is described.
60Hz系においては、1秒間にタイトルタイムラインTMLEのカウント数が60カウントアップされるので前記80000の値は80000÷60÷60 ≒ 22分に対応する。 In the 60 Hz system, the count of the title timeline TMLE is incremented by 60 per second, so the value of 80000 corresponds to 80000 ÷ 60 ÷ 60≈22 minutes.
タイトルエレメント情報TTELEM内の情報は、図23(c)に示す各表示クリップエレメントのリストで記述されるオブジェクトマッピングインフォメーションOBMAPIと、タイトルリソースエレメントが記録されているリソースインフォメーションRESRCIと、チャプターリストエレメントが記載されているプレイバックシーケンスインフォメーションPLSQIとトラックリストナビゲーションリストエレメントで記載されるトラックナビゲーションインフォメーションTRNAVIとタイトルタイムラインTMLE上での一時停止(ポーズ)場所(時間)とイベント開始場所(時間)のスケジュールが予め記述されたスケジュールドコントロールインフォメーションSCHECIから構成されている。前記表示クリップエレメントは、図24(c)に示すようにプライマリーオーディオビデオクリップPRAVCPとサブスティテュートオーディオビデオクリップSBAVCP、サブスティテュートオーディオクリップSBADCP、セカンダリーオーディオビデオクリップSCAVCP、アドバンストサブタイトルセグメントADSTSGとアプリケーションセグメントAPPLSGで記述される。前記表示クリップエレメントは、タイトル内のオブジェクトマッピングインフォメーションOBMAPI内に記述される。また、前記表示クリップエレメントは各エレメンタリーストリームに対応してトラックナンバーアサイメントインフォメーションの一部として記述される。 Information in the title element information TTELEM describes object mapping information OBMAPI described in the list of each display clip element shown in FIG. 23C, resource information RESRCI in which the title resource element is recorded, and a chapter list element. The track navigation information TRNAVI described in the playback sequence information PLSQI and the track list navigation list element, the pause (pause) location (time) and the event start location (time) on the title timeline TMLE are scheduled in advance. It consists of described scheduled control information SCHECI. The display clip element is described by a primary audio video clip PRAVCP, a substitute audio video clip SBAVCP, a substitute audio clip SBADCP, a secondary audio video clip SCAVCP, an advanced subtitle segment ADSTSG, and an application segment APPLSG as shown in FIG. Is done. The display clip element is described in the object mapping information OBMAPI in the title. The display clip element is described as a part of track number assignment information corresponding to each elementary stream.
プレイバックシーケンスインフォメーションPLSQIは図24(d)に示すようにチャプターリストエレメントのリストとして記載される。 The playback sequence information PLSQI is described as a list of chapter list elements as shown in FIG.
<チャプターリストエレメント及びプレイバックシーケンスインフォメーション(Chapter elements and Playback Sequence Information)>
プレイバックシーケンスインフォメーションPLSQI内でのチャプターリストエレメントは、タイトル内のチャプター構造を記述している。チャプターリストエレメントはチャプターエレメント(図24(d)に示すように<Chapter title Time Begin >タグから始まる各行)のリストとして記述されている。チャプターリスト内で最初に記述されたチャプターエレメントの番号を“1”とし、それぞれ各チャプターエレメントの記述順番に応じて各チャプター番号が設定される。1個のチャプターリスト(タイトル)内でのチャプター数は512以下と設定し、アドバンストコンテンツ再生部ADVPLでの処理時の発散を防いでいる。各チャプターエレメント内でのtitleTimeBegin属性(“<Chapter title Time Begin > = ”以降に記載される情報)は、タイトルタイムライン上での各チャプターの開始位置を示す時刻情報(タイトルタイムラインTMLE上でのカウント数)を表している。前記各チャプターの開始位置を示す時刻情報は、時・分・秒・フレーム数を表した“HH:MM:SS:FF”により表示される。このチャプターの終了位置は次のチャプターの開始位置で表される。また、最後のチャプターの終了位置に関してはタイトルタイムラインTMLE上の最後の値(カウント値)として解釈される。各チャプターのタイトルタイムラインTMLE上での開始位置を表す時刻情報(カウント値)は、各チャプター番号の増加(インクリメント)に対応して単調に増加するように設定されなければならない。このように設定することにより各チャプターの再生順に従った順次ジャンプアクセス制御が容易となる。チャプターエレメント毎の付加情報は、人が理解し易いようにテキストフォーマットで記述される。また前記チャプターエレメント毎の付加情報は、チャプターエレメントタグ内での記述を省くことができる。更に、“displayName = ”の直後に対応チャプター名を人が理解し易いテキストフォーマットで記述することができる。アドバンストコンテンツ再生部ADVPL(図1参照)は、前記対応チャプター名情報を各チャプター毎の名前として、大画面TVモニタ15上に表示することができる。また、前記対応チャプター名情報は、前記チャプターエレメントタグ内での記述を省くことができる。
<Chapter elements and Playback Sequence Information>
The chapter list element in the playback sequence information PLSQI describes the chapter structure in the title. The chapter list element is described as a list of chapter elements (each line starting from a <Chapter title Time Begin> tag as shown in FIG. 24D). The number of the chapter element described first in the chapter list is “1”, and each chapter number is set according to the description order of each chapter element. The number of chapters in one chapter list (title) is set to 512 or less to prevent divergence during processing in the advanced content playback unit ADVPL. The titleTimeBegin attribute in each chapter element (information described after “<Chapter title Time Begin> =”) is time information indicating the start position of each chapter on the title timeline (on the title timeline TMLE). Count number). The time information indicating the start position of each chapter is displayed by “HH: MM: SS: FF” representing the hour, minute, second, and number of frames. The end position of this chapter is represented by the start position of the next chapter. The end position of the last chapter is interpreted as the last value (count value) on the title timeline TMLE. The time information (count value) indicating the start position of each chapter on the title timeline TMLE must be set so as to increase monotonically in accordance with the increase (increment) of each chapter number. This setting facilitates sequential jump access control according to the playback order of each chapter. The additional information for each chapter element is described in a text format so that it can be easily understood by a person. The additional information for each chapter element can be omitted from the description in the chapter element tag. Furthermore, immediately after “displayName =”, the corresponding chapter name can be described in a text format that is easy for humans to understand. The advanced content playback unit ADVPL (see FIG. 1) can display the corresponding chapter name information on the large-
前述した図10で定義された各種再生表示オブジェクトのアドバンストコンテンツ再生部ADVPL内でのデータの流れを図25に示す。 FIG. 25 shows a data flow in the advanced content playback unit ADVPL of the various playback display objects defined in FIG. 10 described above.
図1に示す情報記録再生装置1内のアドバンストコンテンツ再生部ADVPL内の構造を図14に示した。図25における情報記憶媒体DISC、パーシステントストレージPRSTR、ネットワークサーバNTSRVはそれぞれ図14の対応するものに一致する。図25におけるストリーミングバッファSTRBUFとファイルキャッシュFLCCHを総称してデータキャッシュDTCCHと呼び、図14のデータキャッシュDTCCHに対応する。図25におけるプライマリービデオプレーヤPRMVP、セカンダリービデオプレーヤSCDVP、メインビデオデコーダーMVDEC、メインオーディオデコーダーMADEC、サブピクチャーデコーダーSPDEC、サブビデオデコーダーSVBEC、サブオーディオデコーダーSADEC、アドバンストアプリケーションプレゼンテーションエンジンAAPEN及びアドバンストサブタイトルプレーヤASBPLは、図14におけるプレゼンテーションエンジンPRESENに含まれる。また、アドバンストコンテンツ再生部ADVPL内での各種再生表示オブジェクトデータの流れを管理する部分が図14におけるナビゲーションマネージャNVMNGであり、各種アドバンストコンテンツADVCTの保存場所とアドバンストコンテンツ再生部ADVPL間のデータの仲介をする部分が図14におけるデータアクセスマネージャDAMNGになる。
The structure in the advanced content playback unit ADVPL in the information recording /
図10に示すように再生オブジェクトの再生時にはプライマリービデオセットPRMVSのデータは情報記憶媒体DISCに記録されている必要がある。 As shown in FIG. 10, the data of the primary video set PRMVS needs to be recorded on the information storage medium DISC when the playback object is played back.
本実施形態においてプライマリービデオセットPRMVSは、高解像度の映像情報をも取り扱うことができる。従って、プライマリービデオセットPRMVSのデータ転送レートが非常に高くなる危険性がある。ネットワークサーバNTSRVから直接再生を試みた場合もしくはネットワークライン上での一時的なデータ転送レートの低下が生じた場合に、ユーザに対する連続的な映像表現が中断される危険がある。また図43に示すようにパーシステントストレージPRSTRとしてSDカードSDCDやUSBメモリUSBM、USBHDD、NASなど多様な情報記憶媒体を想定しており、パーシステントストレージPRSTRとして使用される情報記憶媒体によってはデータ転送レートの低い場合も想定される。従って、本実施形態において高解像度の映像情報をも取り扱うことのできるプライマリービデオセットPRMVSが前記情報記憶媒体DISCのみに記録可能にすることにより高解像度のプライマリービデオセットPRMVSのデータに対しても中断することなく、ユーザへの連続表示を保証することができる。このように情報記憶媒体DISCから読み出されたプライマリービデオセットPRMVSは、プライマリービデオプレーヤPRMVP内へ転送される。プライマリービデオセットPRMVS内ではメインビデオMANVD、メインオーディオMANAD、サブビデオSUBVD、サブオーディオSUBADと副映像SUBPTが2048単位のパックとして多重化されて記録されている。それぞれのパックは再生時に分割され、メインビデオデコーダーMVDEC、メインオーディオデコーダーMADEC、サブビデオデコーダーSVDEC、サブオーディオデコーダーSADECとサブピクチャーデコーダーSPDEC内でデコード処理される。セカンダリービデオセットSCDVSのオブジェクトは情報記憶媒体DISCかパーシステントストレージPRSTRから直接再生されるルートと、一時データキャッシュDTCCHに保存された後データキャッシュDTCCHから再生される方法との2種類の方法を本実施形態では認めている。前述した最初の方法においては、情報記憶媒体DISCまたはパーシステントストレージPRSTRに記録されたセカンダリービデオセットSCDVSが直接セカンダリービデオプレーヤSCDVPに転送され、メインオーディオデコーダーMADEC、サブビデオデコーダーSVDECまたはサブオーディオデコーダーSADECによりデコード処理される。また前述した2番目の方法としてセカンダリービデオセットSCDVSは情報記憶媒体DISC、パーシステントストレージPRSTR、ネットワークサーバNTSRVのいずれに記録されている場合もデータキャッシュDTCCH内に一度記録され、データキャッシュDTCCHからセカンダリービデオプレーヤSCDVPへ送られる。この時情報記憶媒体DISCまたはパーシステントストレージPRSTR内に記録されているセカンダリービデオセットSCDVSは、データキャッシュDTCCH内のファイルキャッシュFLCCHに記録されるが、ネットワークサーバNTSRVに記録されているセカンダリービデオセットSCDVSはストリーミングバッファSTRBUFに一時保存される。情報記憶媒体DISCまたはパーシステントストレージPRSTRからのデータ転送に対しては大幅にデータ転送レートが低下することはない。しかし、ネットワークサーバNTSRVから送られてくるオブジェクトデータのデータ転送レートはネットワーク事情で一時的に大幅に低下する危険性がある。従ってネットワークサーバNTSRVから送られてくるセカンダリービデオセットSCDVSに対しては、ストリーミングバッファSTRBUFに記録することでシステム的なネットワーク上のデータ転送レートの低下をバックアップすると共にユーザ表示時の連続再生を保証できるようにしている。また、本実施形態ではそれに限らずネットワークサーバNTSRV内に記録されたセカンダリービデオセットSCDVSのデータをパーシステントストレージPRSTRに保存することもできる。その後、パーシステントストレージPRSTRからセカンダリービデオプレーヤSCDVPにセカンダリービデオセットSCDVSの情報を転送し、再生表示することも可能である。 In this embodiment, the primary video set PRMVS can handle high-resolution video information. Therefore, there is a risk that the data transfer rate of the primary video set PRMVS becomes very high. When direct reproduction is attempted from the network server NTSRV or when a temporary data transfer rate is lowered on the network line, there is a risk that continuous video expression to the user is interrupted. As shown in FIG. 43, various information storage media such as SD card SDCD, USB memory USBM, USBHDD, NAS are assumed as persistent storage PRSTR. Depending on the information storage medium used as persistent storage PRSTR, data transfer is possible. A low rate is also assumed. Therefore, in this embodiment, the primary video set PRMVS capable of handling high-resolution video information can be recorded only in the information storage medium DISC, thereby interrupting the data of the high-resolution primary video set PRMVS. Therefore, continuous display to the user can be guaranteed. The primary video set PRMVS read from the information storage medium DISC in this way is transferred into the primary video player PRMVP. In the primary video set PRMVS, main video MANVD, main audio MANAD, sub video SUBVD, sub audio SUBAD, and sub video SUBPT are multiplexed and recorded as 2048 unit packs. Each pack is divided at the time of reproduction, and is decoded in the main video decoder MVDEC, main audio decoder MADEC, sub video decoder SVDEC, sub audio decoder SADEC, and sub picture decoder SPDEC. The object of the secondary video set SCDVS is implemented in two ways: a route that is directly reproduced from the information storage medium DISC or persistent storage PRSTR, and a method that is stored in the temporary data cache DTCCH and then reproduced from the data cache DTCCH. The form allows it. In the first method described above, the secondary video set SCDVS recorded on the information storage medium DISC or the persistent storage PRSTR is directly transferred to the secondary video player SCDVP, and the main audio decoder MADEC, sub video decoder SVDEC or sub audio decoder SADEC. Decoded. As a second method, the secondary video set SCDVS is recorded once in the data cache DTCCH and recorded from the data cache DTCCH, regardless of whether it is recorded on the information storage medium DISC, persistent storage PRSTR, or network server NTSRV. Sent to player SCDVP. At this time, the secondary video set SCDVS recorded in the information storage medium DISC or persistent storage PRSTR is recorded in the file cache FLCCH in the data cache DTCCH, but the secondary video set SCDVS recorded in the network server NTSRV is Temporarily stored in the streaming buffer STRBUF. For data transfer from the information storage medium DISC or persistent storage PRSTR, the data transfer rate is not significantly reduced. However, there is a risk that the data transfer rate of the object data sent from the network server NTSRV will be significantly reduced temporarily due to network conditions. Therefore, for the secondary video set SCDVS sent from the network server NTSRV, recording in the streaming buffer STRBUF can back up the decline in the data transfer rate on the network system and guarantee continuous playback during user display. I am doing so. In the present embodiment, the data of the secondary video set SCDVS recorded in the network server NTSRV can be stored in the persistent storage PRSTR without being limited thereto. Thereafter, the information of the secondary video set SCDVS can be transferred from the persistent storage PRSTR to the secondary video player SCDVP for display.
図10に示すように、アドバンストアプリケーションADAPLとアドバンストサブタイトルADSBTの情報はオブジェクトの記録場所によらず、全て一時的にデータキャッシュDTCCH内のファイルキャッシュFLCCH内に保存するようにしている。それによりプライマリービデオセットPRMVSや、セカンダリービデオセットSCDVSとの同時再生時の図1に示す情報記録再生部内における光学ヘッドのアクセス回数を減らし、ユーザへの連続表示を保証することができる。このようにファイルキャッシュFLCCH内に一時保存されたアドバンストアプリケーションADAPLは、アドバンストアプリケーションプレゼンテーションエンジンAAPENに送られ、ユーザへの表示処理がなされる。また、ファイルキャッシュFLCCH内に保存されたアドバンストサブタイトルADSBTの情報はアドバンストサブタイトルプレーヤASBPLに転送され、ユーザに表示される。 As shown in FIG. 10, all the information of the advanced application ADAPL and the advanced subtitle ADSBT are temporarily stored in the file cache FLCCH in the data cache DTCCH regardless of the recording location of the object. Thereby, the number of accesses of the optical head in the information recording / reproducing unit shown in FIG. 1 during simultaneous reproduction with the primary video set PRMVS and the secondary video set SCDVS can be reduced, and continuous display to the user can be ensured. The advanced application ADAPL temporarily stored in the file cache FLCCH in this way is sent to the advanced application presentation engine AAPEN for display processing to the user. Further, the information of the advanced subtitle ADSBT stored in the file cache FLCCH is transferred to the advanced subtitle player ASBPL and displayed to the user.
<データアクセスマネージャ(Data Access Manager)>
図14に示したアドバンストコンテンツ再生部ADVPL内のデータアクセスマネージャDAMNG内の構造を図26に示す。
<Data Access Manager>
FIG. 26 shows the structure in the data access manager DAMNG in the advanced content playback unit ADVPL shown in FIG.
本実施形態におけるデータアクセスマネージャDAMNGは、パーシステントストレージPRSTR、ネットワークサーバNTSRVおよび情報記憶媒体DISC内に記録された各種再生オブジェクトのアドバンストコンテンツ再生部ADVPL内へのやりとりを制御する場所である。データアクセスマネージャDAMNGはディスクマネージャDKMNG、パーシステントストレージマネージャPRMNGとネットワークマネージャNTMNGから構成される。始めにディスクマネージャDKMNGの動作説明を行う。本実施形態においてディスクマネージャDKMNGは情報記憶媒体DISCから情報を読取り、アドバンストコンテンツ再生部ADVPL内の各種内部モジュールへデータを転送する時のデータ制御を行う。ディスクマネージャDKMNGは本実施形態における情報記憶媒体DISCに対し、API(アプリケーションインタフェース)のコマンドに従い情報記憶媒体DISC内に記録された各種ファイルの再生を行う。本実施形態において、情報記憶媒体DISCへの情報の書込み機能は前提としていない。 The data access manager DAMNG in this embodiment is a place that controls the exchange of various playback objects recorded in the persistent storage PRSTR, the network server NTSRV, and the information storage medium DISC into the advanced content playback unit ADVPL. The data access manager DAMNG includes a disk manager DKMNG, a persistent storage manager PRMNG, and a network manager NTMNG. First, the operation of Disk Manager DKMNG will be explained. In this embodiment, the disk manager DKMNG performs data control when reading information from the information storage medium DISC and transferring data to various internal modules in the advanced content playback unit ADVPL. The disk manager DKMNG reproduces various files recorded in the information storage medium DISC in accordance with API (application interface) commands with respect to the information storage medium DISC in the present embodiment. In the present embodiment, the function of writing information to the information storage medium DISC is not assumed.
パーシステントストレージマネージャPRMNGは、パーシステントストレージPRSTRとアドバンストコンテンツ再生部ADVPL内の各種内部モジュールとの間のデータ転送を制御している。パーシステントストレージマネージャPRMNGも前述したディスクマネージャDKMNGと同様、APIのコマンドセットに対応して、パーシステントストレージPRSTR内のファイルアクセス制御(ファイルの読取り制御)を行う。本実施形態におけるパーシステントストレージPRSTRは、記録と再生機能を前提としている。 The persistent storage manager PRMNG controls data transfer between the persistent storage PRSTR and various internal modules in the advanced content playback unit ADVPL. The persistent storage manager PRMNG performs file access control (file read control) in the persistent storage PRSTR in accordance with the command set of the API in the same manner as the disk manager DKMNG described above. The persistent storage PRSTR in this embodiment is premised on recording and playback functions.
ネットワークマネージャNTMNGは、ネットワークサーバNTSRVとアドバンストコンテンツ再生部ADVPL内における内部モジュールとの間のデータ転送制御を行う。ネットワークマネージャNTMNGはネットワークサーバNTSRVに対するAPIセットのコマンドに基づきファイルアクセス制御(ファイルの読取り制御)を行う。本実施形態において、ネットワークサーバNTSRVはネットワークサーバNTSRVからのファイルダウンロードを通常サポートするだけでなく、ネットワークサーバNTSRVへのファイルアップロードもサポートできる。 The network manager NTMNG performs data transfer control between the network server NTSRV and an internal module in the advanced content playback unit ADVPL. The network manager NTMNG performs file access control (file read control) based on API set commands for the network server NTSRV. In this embodiment, the network server NTSRV not only normally supports file download from the network server NTSRV, but can also support file upload to the network server NTSRV.
さらに、本実施形態においては、ネットワークマネージャNTMNGが、プレゼンテーションエンジンPRSENへ送る各種再生オブジェクトのプロトコルレベルでのアクセス制御機能まで管理している。また、図25に示すようにセカンダリービデオセットSCDVSがネットワークサーバNTSRVからストリーミングバッファSTRBUFを返してセカンダリービデオプレーヤSCDVPへのデータ転送制御を行うことができる。これらの制御もネットワークマネージャNTMNGが制御・管理している。 Furthermore, in this embodiment, the network manager NTMNG manages the access control function at the protocol level of various playback objects sent to the presentation engine PRSEN. Further, as shown in FIG. 25, the secondary video set SCDVS can return the streaming buffer STRBUF from the network server NTSRV and perform data transfer control to the secondary video player SCDVP. These controls are also controlled and managed by the network manager NTMNG.
<データキャッシュ(Data Cache)>
図14に示したアドバンストコンテンツ再生部ADVPL内のデータキャッシュDTCCH内の構造を図27に示す。
<Data Cache>
FIG. 27 shows the structure in the data cache DTCCH in the advanced content playback unit ADVPL shown in FIG.
本実施形態においてデータキャッシュDTCCHは、テンポラルなデータの一時保存場所として下記に述べる2種類の領域に分割される。最初の領域はファイルキャッシュFLCCHであり、ファイルデータに対する一時保管場所(テンポラルバッファ)として使われる。また、次の領域として本実施形態ではストリーミングデータに対する一時保管場所として使用されるストリーミングバッファSTRBUFを定義することができる。図25に示すように本実施形態においては、ストリーミングバッファSTRBUFにはネットワークサーバNTSRVから転送されたセカンダリービデオセットSCDVSが一時保存可能な形となっている。また前記ストリーミングバッファSTRBUF内にはセカンダリービデオセットSCDVSに含まれるサブスティテュートオーディオSBTAD、サブスティテュートオーディオビデオSBTAV、またはセカンダリーオーディオビデオSCDAVが一時的に記録される。プレイリストPLLST内のリソースインフォメーションRESRCIの中のストリーミングバッファSTRBUFに関する情報記述欄の中にデータキャッシュDTCCH内に割当てられるストリーミングバッファSTRBUF領域に関する情報(ストリーミングバッファSTRBUF領域のサイズやストリーミングバッファSTRBUF領域として割り付けられるメモリ空間上のアドレス範囲など)が記載される。 In this embodiment, the data cache DTCCH is divided into two types of areas described below as temporary storage locations for temporal data. The first area is the file cache FLCCH, which is used as a temporary storage location (temporal buffer) for file data. In the present embodiment, a streaming buffer STRBUF used as a temporary storage location for streaming data can be defined as the next area. As shown in FIG. 25, in this embodiment, the secondary video set SCDVS transferred from the network server NTSRV can be temporarily stored in the streaming buffer STRBUF. Further, the substitute audio SBTAD, the substitute audio video SBTAV, or the secondary audio video SCDAV included in the secondary video set SCDVS is temporarily recorded in the streaming buffer STRBUF. Information about the streaming buffer STRBUF area allocated in the data cache DTCCH in the information description column for the streaming buffer STRBUF in the resource information RESRCI in the playlist PLLST (the size of the streaming buffer STRBUF area and the memory allocated as the streaming buffer STRBUF area) Address range in space).
また、アドバンストコンテンツADVCTの再生起動処理(スタートアップシーケンス)中に前記データキャッシュDTCCHの割当て作業(ファイルキャッシュFLCCHに割当てるデータサイズとストリーミングバッファSTRBUFに割当てるデータサイズの割付処理)がなされる。本実施形態において前記データキャッシュDTCCH内のデータサイズは、64MB以上あることを前提としている。64MB以上を前提とすることによりアドバンストアプリケーションADAPLやアドバンストサブタイトルADSBTのユーザへの表示処理をスムーズに行うことを保証している。 In addition, the data cache DTCCH allocation operation (allocation processing of the data size allocated to the file cache FLCCH and the data size allocated to the streaming buffer STRBUF) is performed during the playback start processing (startup sequence) of the advanced content ADVCT. In the present embodiment, it is assumed that the data size in the data cache DTCCH is 64 MB or more. By assuming 64 MB or more, it is ensured that the display process for the advanced application ADAPL and advanced subtitle ADSBT to the user is performed smoothly.
<データキャッシュの初期化(Data Cache Initialization)>
本実施形態においてアドバンストコンテンツADVCT再生時の再生における起動処理時(スタートアップシーケンス)に、前述したデータキャッシュDTCCH内の割付作業(ファイルキャッシュFLCCHとストリーミングバッファSTRBUFの割当てメモリサイズの設定など)の変更が行われる。プレイリストファイルPLLST内に前記ストリーミングバッファSTRBUFに割当てるべきメモリサイズ情報が記述されている。もし、ストリーミングバッファSTRBUFのサイズがプレイリストPLLST内に表示されていない場合には、ストリーミングバッファSTRBUFに割当てられるメモリサイズは“0”とみなされる。図23に示すプレイリストファイルPLLST内の構造情報CONFGI内で記述されるストリーミングバッファSTRBUFのサイズ情報はパックサイズ(論理ブロックサイズまたは論理セクタサイズ)を単位として記述される。本実施形態において1パックサイズと1論理ブロックサイズと1論理セクタサイズは全て一致し、2048バイト(約2キロバイト)となる。例えば前述した構造情報CONFGI内で記述されるストリーミングバッファサイズが1024と記述された場合には、実際にデータキャッシュDTCCH内で割当てられるストリーミングバッファSTRBUFのメモリ空間上のサイズは、1024 × 2 = 2048キロバイトとなる。また、ストリーミングバッファSTRBUFの最小サイズは0バイトと規定してある。本実施形態においてプライマリービデオセットPRMVS内に含まれるプライマリーエンハンストビデオオブジェクトP-EVOBやセカンダリービデオセットSCDVS内に含まれるセカンダリーエンハンストビデオオブジェクトS-EVOBは、それぞれパック単位のストリームが論理ブロック(論理セクタ)毎に記録されている。従って本実施形態においてストリーミングバッファSTRBUFのサイズ情報をパックサイズ(論理ブロックサイズまたは論理セクタサイズ)を単位として記述することにより、各ストリームパックへのアクセス制御を容易にするという効果がある。
<Data Cache Initialization>
In this embodiment, during the start-up process (startup sequence) in playback during playback of advanced content ADVCT, the allocation work in the data cache DTCCH described above (such as setting the allocated memory size of the file cache FLCCH and streaming buffer STRBUF) is performed. Is called. Memory size information to be allocated to the streaming buffer STRBUF is described in the playlist file PLLST. If the size of the streaming buffer STRBUF is not displayed in the playlist PLLST, the memory size allocated to the streaming buffer STRBUF is regarded as “0”. The size information of the streaming buffer STRBUF described in the structure information CONFGI in the playlist file PLLST shown in FIG. 23 is described in units of pack size (logical block size or logical sector size). In this embodiment, one pack size, one logical block size, and one logical sector size all match and become 2048 bytes (about 2 kilobytes). For example, if the streaming buffer size described in the structure information CONFGI described above is described as 1024, the size of the streaming buffer STRBUF actually allocated in the data cache DTCCH is 1024 × 2 = 2048 kilobytes. It becomes. The minimum size of the streaming buffer STRBUF is defined as 0 bytes. In this embodiment, the primary enhanced video object P-EVOB included in the primary video set PRMVS and the secondary enhanced video object S-EVOB included in the secondary video set SCDVS have a stream of pack units for each logical block (logical sector). Is recorded. Therefore, in the present embodiment, the size information of the streaming buffer STRBUF is described in units of pack size (logical block size or logical sector size), so that access control to each stream pack can be facilitated.
<ファイルキャッシュ(File Cache)>
ファイルキャッシュFLCCHは、データアクセスマネージャDAMNGを経由して外部から取込まれたアドバンストコンテンツADVCTのデータを一時保存する場所として利用され、図27に示すようにナビゲーションマネージャNVMNGとプレゼンテーションエンジンPRSENの両方が使用することができる。
<File Cache>
The file cache FLCCH is used as a place to temporarily store advanced content ADVCT data imported from outside via the data access manager DAMNG, and is used by both the navigation manager NVMNG and the presentation engine PRSEN as shown in FIG. can do.
<ストリーミングバッファ(Streaming Buffer)>
図27に示すように本実施形態では、ストリーミングバッファSTRBUFはプレゼンテーションエンジンPRSENのみが使用するメモリ空間になっている。図25に示すように本実施形態では、ストリーミングバッファSTRBUFはセカンダリービデオセットSCDVSのデータが記録され、セカンダリービデオプレーヤSCDVPにおけるセカンダリービデオプレイバックエンジンSVPBENにより使用することができる。セカンダリービデオプレーヤSCDVPは、ネットワークマネージャNTMNG(図26に示すデータアクセスマネージャDAMNG内に存在する)に要求を出し、セカンダリービデオセットSCDVS内のセカンダリーエンハンストビデオオブジェクトデータS-EVOBの少なくとも一部をネットワークサーバNTSRVから読取り、前記ストリーミングバッファSTRBUFに一時保存する。その後、ストリーミングバッファSTRBUF内に一時保存されたセカンダリーエンハンストビデオオブジェクトデータS-EVOBをセカンダリービデオプレーヤSCDVPが読取り、図35に示すセカンダリービデオプレーヤSCDVP内のデマルチプレクサDEMUXへデータ転送しデコーダーエンジンDCDEN内でデコーダー処理が施される。
<Streaming Buffer>
As shown in FIG. 27, in this embodiment, the streaming buffer STRBUF is a memory space used only by the presentation engine PRSEN. As shown in FIG. 25, in this embodiment, data of the secondary video set SCDVS is recorded in the streaming buffer STRBUF and can be used by the secondary video playback engine SVPBEN in the secondary video player SCDVP. The secondary video player SCDVP issues a request to the network manager NTMNG (existing in the data access manager DAMNG shown in FIG. 26), and at least a part of the secondary enhanced video object data S-EVOB in the secondary video set SCDVS is sent to the network server NTSRV. And temporarily stored in the streaming buffer STRBUF. After that, the secondary enhanced video object data S-EVOB temporarily stored in the streaming buffer STRBUF is read by the secondary video player SCDVP, and the data is transferred to the demultiplexer DEMUX in the secondary video player SCDVP shown in FIG. Processing is performed.
図14に示したアドバンストコンテンツ再生部ADVPL内のナビゲーションマネージャMVMNGの内部構造を図28に示す。本実施形態においてナビゲーションマネージャNVMNGは、パーサーPARSER、プレイリストマネージャPLMNG、アドバンストアプリケーションマネージャADAMNG、ファイルキャッシュマネージャFLCMNGとユーザインタフェースエンジンUIENGの5つの主要な機能モジュールから構成される。 FIG. 28 shows the internal structure of the navigation manager MVMNG in the advanced content playback unit ADVPL shown in FIG. In this embodiment, the navigation manager NVMNG is composed of five main functional modules: a parser PARSER, a playlist manager PLMNG, an advanced application manager ADAMNG, a file cache manager FLCMNG, and a user interface engine UIENG.
<パーサー(Parser)>
本実施形態においては、プレイリストマネージャPLMNGまたはアドバンストアプリケーションマネージャADAMNGからのリクエストに応じ、アドバンストナビゲーションファイル(図11に示すアドバンストナビゲーションディレクトリADVNV内のマニュフェストファイルMNFST、マークアップファイルMRKUPとスクリプトファイルSCRPT)を図28に示すパーサーPARSERが解読し内容の分析処理を行う。パーサーPARSERは前記分析結果に基づき、各種必要な情報を各機能モジュールへ送る。
<Parser>
In this embodiment, an advanced navigation file (manifest file MNFST, markup file MRKUP, and script file SCRPT in the advanced navigation directory ADVNV shown in FIG. 11) is displayed in response to a request from the playlist manager PLMNG or the advanced application manager ADAMNG. Parser PARSER shown in 28 decodes and analyzes the contents. The parser PARSER sends various necessary information to each functional module based on the analysis result.
<プレイリストマネージャ(Playlist Manager)>
図28に示したプレイリストマネージャPLMNG内では以下に示す処理を行う。
<Playlist Manager>
The following processing is performed in the playlist manager PLMNG shown in FIG.
* 図14に示すアドバンストコンテンツ再生部ADVPL内のプレゼンテーションエンジンPRSENとAVレンダラーAVRNDを始めとする全ての再生制御モジュールの初期化
* タイトルタイムラインTMLE制御(タイトルタイムラインTMLEに同期した各表示オブジェクトの同期化処理やユーザ表示時でのタイトルタイムラインTMLEの一時停止や早送り制御など)
* ファイルキャッシュFLCCH(データキャッシュDTCCH)内でのリソースマネージメント
* アドバンストコンテンツ再生部ADVPL内のプレゼンテーションエンジンPRSENとAVレンダラーAVRNDを始めとした再生表示制御モジュールの管理
* プレーヤシステムのインタフェース処理
<全プレイバックコントロールモジュールの初期化(Initialization of All Playback Control Modules)>
本実施形態において、図28に示したプレイリストマネージャPLMNGがプレイリストファイルPLLST内に記述された内容に基づき初期処理を行う。具体的な内容として、図27に示したデータキャッシュDTCCH内のファイルキャッシュFLCCHに割当てられるメモリ空間サイズとストリーミングバッファSTRBUFとして割当てられるメモリ空間内のデータサイズをプレイリストマネージャPLMNGが変更する。アドバンストコンテンツADVCTの再生表示時には前記プレイリストマネージャPLMNGが各再生制御モジュールに対して必要な再生表示情報を転送処理している。例として、プライマリービデオマネージャPRMVPに対しては、プライマリーエンハンストビデオオブジェクトデータP-EVOBの再生期間中にプライマリービデオセットPRMVSのタイムマップファイルPTMAPを送信する。また、アドバンストアプリケーションマネージャADAMNGに対し、マニュフェストファイルMNFSTをプレイリストマネージャPLMNGからデータ転送する。
* Initialization of all playback control modules including the presentation engine PRSEN and AV renderer AVRND in the advanced content playback unit ADVPL shown in Fig. 14 * Title timeline TMLE control (synchronization of each display object synchronized with the title timeline TMLE) (Title processing of title timeline TMLE and fast-forward control during user processing and user display)
* Resource management in file cache FLCCH (data cache DTCCH) * Management of playback display control modules including presentation engine PRSEN and AV renderer AVRND in advanced content playback unit ADVPL * Interface processing of player system <All playback controls Initialization of All Playback Control Modules>
In this embodiment, the playlist manager PLMNG shown in FIG. 28 performs an initial process based on the contents described in the playlist file PLLST. Specifically, the playlist manager PLMNG changes the memory space size allocated to the file cache FLCCH in the data cache DTCCH shown in FIG. 27 and the data size in the memory space allocated as the streaming buffer STRBUF. When the advanced content ADVCT is reproduced and displayed, the playlist manager PLMNG transfers the necessary reproduction display information to each reproduction control module. As an example, for the primary video manager PRMVP, the time map file PTMAP of the primary video set PRMVS is transmitted during the playback period of the primary enhanced video object data P-EVOB. Further, the manifest file MNFST is transferred from the playlist manager PLMNG to the advanced application manager ADAMNG.
<タイトルタイムコントロール(Title Time Control)>
プレイリストマネージャPLMNGは以下の3つの制御を行う。
<Title Time Control>
The playlist manager PLMNG performs the following three controls.
1) アドバンストアプリケーションADAPLからの要求に応じ、タイトルタイムラインTMLEの進行処理を行う。図17の説明の所で、アドバンストアプリケーションADAPL再生時のハードシンクジャンプによりマークアップページ遷移が生じる場合の説明を行った。例えば図16の例を用いて説明する。本編31とコマーシャル用の別画面32を同時に表示している最中にユーザがアドバンストアプリケーションADAPLに含まれるヘルプアイコン33を押した場合に対応して、画面の下側に表示されているアドバンストアプリケーションADAPLにより構成される画面内容の変更(マークアップページの遷移)が生じる場合がある。この時、次に表示される画面の下側に表示されている内容(次に表示されるマークアップページ)の準備に所定の時間が必要なことがある。このような場合には次のマークアップページの準備が完了するまでの間にプレイリストマネージャPLMNGがタイトルタイムラインTMLEの進行を止め、映像や音声を静止状態にすることがある。これらの処理をプレイリストマネージャPLMNGが行う。
1) The title timeline TMLE is processed in response to a request from the advanced application ADAPL. In the description of FIG. 17, the case has been described where markup page transition occurs due to a hard sync jump during playback of the advanced application ADAPL. This will be described with reference to the example of FIG. The advanced application ADAPL displayed at the bottom of the screen in response to the user pressing the
2) 各種再生表示制御モジュールからの再生状況の再生表示処理状況(ステータス)の制御、その具体的な例として、本実施形態においてはプレイリストマネージャPLMNGが各部署の進行状況を把握し、異常が生じた時の対応処理を行う。 2) Reproduction display processing status (status) control of the reproduction status from various reproduction display control modules. As a specific example, in this embodiment, the playlist manager PLMNG grasps the progress status of each department, and there is an abnormality. Take action when it occurs.
3) 現行のプレイリストPLLSTにおけるデフォルト状態での再生表示スケジュール管理
タイトルタイムラインTMLEに同期して表示される各種表示オブジェクトが連続した(シームレスな)再生の必要性に限らず、本実施形態においてプレイリストマネージャPLMNGは、プライマリービデオプレーヤPRMVPやセカンダリービデオプレーヤSCDVPなどの再生表示モジュールの監視を行っている。また、タイトルタイムラインTMLEに同期して再生表示される各種表示オブジェクトが連続した(シームレスな)再生表示が不可能になった場合には、前記同期して表示・再生されるオブジェクトとタイトルタイムラインTMLE上での時刻(時間)との間の再生タイミングの調整をプレイリストマネージャPLMNGが行いユーザに対して違和感を与えない表示制御を行うことができる。
3) Playback display schedule management in the default state in the current playlist PLLST The various display objects displayed in synchronization with the title timeline TMLE are not limited to the need for continuous (seamless) playback, but play in this embodiment The list manager PLMNG monitors playback display modules such as the primary video player PRMVP and the secondary video player SCDVP. If various display objects that are played back and displayed in synchronization with the title timeline TMLE cannot be played back continuously (seamless), the objects that are displayed and played back in synchronization with the title timeline The playlist manager PLMNG adjusts the reproduction timing with respect to the time (time) on the TMLE, and display control that does not give the user a sense of incongruity can be performed.
<ファイルキャッシュリソース管理(File Cache Resource Management)>
ナビゲーションマネージャNVMNG内のプレイリストマネージャPLMNGは、プレイリストPLLST内のオブジェクトマッピングインフォメーションOBMAPI内にあるリソースインフォメーションRESRCIの読み出しと解析を行う。プレイリストマネージャPLMNGは、読出したリソースインフォメーションRESRCIをファイルキャッシュFLCCHに転送する。タイトルタイムラインTMLEの進行に合わせて、リソースマネージメントテーブルに基づきファイルキャッシュマネージャFLCMNGがリソースファイルをロードまたは消去処理をするように前記プレイリストマネージャPLMNGからファイルキャッシュマネージャFLCMNGに指示する。
<File Cache Resource Management>
The playlist manager PLMNG in the navigation manager NVMNG reads and analyzes the resource information RESRCI in the object mapping information OBMAPI in the playlist PLLST. The playlist manager PLMNG transfers the read resource information RESRCI to the file cache FLCCH. In accordance with the progress of the title timeline TMLE, the file cache manager FLCMNG instructs the file cache manager FLCMNG to load or delete the resource file based on the resource management table.
<プレイバックコントロールモジュール管理(Playback Control Module Management)>
ナビゲーションマネージャNVMNGにおけるプレイリストマネージャPLMNGは、アドバンストアプリケーションマネージャADAMNG内のプログラミングエンジンPRGENに対し、再生表示制御に関係する各種のコマンド(API)を発生させ、プレイリストマネージャPLMNGが前記プログラミングエンジンPRGENの制御を行う。前記プレイリストマネージャPLMNGから発生する各種コマンド(API)の例として、セカンダリービデオプレーヤSCDVP(図34)に対して制御を行うコマンドや、オーディオミキシングエンジンADMXEN(図38)に対する制御コマンド及びイフェクトオーディオEFTADの処理に関するAPIコマンドなどを発行する。
<Playback Control Module Management>
The playlist manager PLMNG in the navigation manager NVMNG generates various commands (API) related to playback display control to the programming engine PRGEN in the advanced application manager ADAMNG, and the playlist manager PLMNG controls the programming engine PRGEN. Do. Examples of various commands (API) generated from the playlist manager PLMNG include commands for controlling the secondary video player SCDVP (FIG. 34), control commands for the audio mixing engine ADMXEN (FIG. 38), and the effect audio EFTAD. Issue API commands related to processing.
<プレーヤシステムのインタフェース(Interface of Player System)>
また、プレイリストマネージャPLMNGは、アドバンストアプリケーションマネージャADAMNG内のプログラミングエンジンPRGENに対するプレーヤシステムAPIコマンドも発行する。これらのプレーヤシステムAPIコマンドは、システムインフォメーションにアクセスするコマンドなどが挙げられる。
<Interface of Player System>
The playlist manager PLMNG also issues a player system API command for the programming engine PRGEN in the advanced application manager ADAMNG. These player system API commands include commands for accessing system information.
<アドバンストアプリケーションマネージャ(Advanced Application Manager)>
本実施形態において、図28に示すアドバンストアプリケーションマネージャADAMNGの機能について説明を行う。前記アドバンストアプリケーションマネージャADAMNGは、アドバンストコンテンツADVCTの全ての再生表示処理に関する制御を行う。また更に前記アドバンストアプリケーションマネージャADAMNGは、アドバンストアプリケーションADAPLのマークアップMRKUPやスクリプトSCRPTの情報に関連して、連携作業として図30に示すアドバンストアプリケーションプレゼンテーションエンジンAAPENの制御も行う。図28に示すようにアドバンストアプリケーションマネージャADAMNGはディクレラティブエンジンDECENとプログラミングエンジンPRGENから構成される。
<Advanced Application Manager>
In this embodiment, the function of the advanced application manager ADAMNG shown in FIG. 28 will be described. The advanced application manager ADAMNG performs control related to all playback display processing of the advanced content ADVCT. Further, the advanced application manager ADAMNG also controls the advanced application presentation engine AAPEN shown in FIG. 30 as a cooperative operation in association with information on the markup MRKUP and script SCRPT of the advanced application ADAPL. As shown in FIG. 28, the advanced application manager ADAMNG includes a declarative engine DECEN and a programming engine PRGEN.
<ディクレラティブエンジン(Declarative Engine)>
前記ディクレラティブエンジンDECENは、アドバンストアプリケーションADAPLにおけるマークアップMRKUPに対応して、アドバンストコンテンツADVCTの宣言処理の管理及び制御を行う。前記ディクレラティブエンジンDECENは、以下の項目に対し対応する。
<Declarative Engine>
The declarative engine DECEN manages and controls the declaration processing of the advanced content ADVCT corresponding to the markup MRKUP in the advanced application ADAPL. The declarative engine DECEN corresponds to the following items.
* アドバンストアプリケーションプレゼンテーションエンジンAAPEN(図30)の制御
・ グラフィックオブジェクト(アドバンストアプリケーションADAPL)とアドバンストテキスト(アドバンストサブタイトルADSBT)のレイアウト処理
・ グラフィックオブジェクト(アドバンストアプリケーションADAPL)とアドバンストテキスト(アドバンストサブタイトルADSBT)の表示スタイル制御
・ グラフィックプレイン(アドバンストアプリケーションADAPLに関係した表示)の表示予定に合わせた表示タイミング制御とイフェクトオーディオEFTADの再生時のタイミング制御
* メインビデオMANVDの制御処理
・ プライマリーオーディオビデオPRMAVにおけるメインビデオMANVDの属性制御
…図39に示すようにメインビデオプレインMNVDPL内でのメインビデオMANVDの画面サイズは、アドバンストアプリケーションADAPL内のAPIコマンドにより設定される。この場合、ディクレラティブエンジンDECENがアドバンストアプリケーションADAPL内に記述されたメインビデオMANVDの画面サイズと画面配置場所情報に対応して前記メインビデオMANVDの表示制御を行う。
* Control of advanced application presentation engine AAPEN (Fig. 30)-Layout processing of graphic objects (advanced application ADAPL) and advanced text (advanced subtitle ADSBT)-Display style of graphic objects (advanced application ADAPL) and advanced text (advanced subtitle ADSBT) Control ・ Display timing control according to the display schedule of graphic plane (display related to advanced application ADAPL) and timing control during playback of effect audio EFTAD * Control processing of main video MANVD ・ Attributes of main video MANVD in primary audio video PRMAV control
As shown in FIG. 39, the screen size of the main video MANVD in the main video plane MNVDPL is set by an API command in the advanced application ADAPL. In this case, the declarative engine DECEN performs display control of the main video MANVD corresponding to the screen size and screen layout location information of the main video MANVD described in the advanced application ADAPL.
* サブビデオSUBVDの制御
・ プライマリーオーディオビデオPRMAV内またはセカンダリーオーディオビデオSCDAV内のサブビデオSUBVDの属性制御
…図39に示すようにサブビデオプレインSBVDPL内でのサブビデオSUBVDの画面サイズは、アドバンストアプリケーションADAPL内のAPIコマンドにより設定される。この場合、ディクレラティブエンジンDECENがアドバンストアプリケーションADAPL内に記述されたサブビデオSUBVDの画面サイズと画面配置場所情報に対応して前記サブビデオSUBVDの表示制御を行う。
* Control of sub video SUBVD ・ Attribute control of sub video SUBVD in primary audio video PRMAV or secondary audio video SCDAV
As shown in FIG. 39, the screen size of the sub video SUBVD in the sub video plane SBVDPL is set by an API command in the advanced application ADAPL. In this case, the declarative engine DECEN performs display control of the sub video SUBVD in accordance with the screen size and screen layout location information of the sub video SUBVD described in the advanced application ADAPL.
* スケジュール管理されたスクリプトコール
・ アドバンストアプリケーションADAPL内で記述されたタイミングエレメントの実行に対応してスクリプトコールのタイミングを制御する。
* Schedule-managed script calls-Controls the timing of script calls corresponding to the execution of timing elements described in the advanced application ADAPL.
<プログラミングエンジン(Programming Engine)>
本実施形態においてプログラミングエンジンPRGENは、APIセットコールや、アドバンストコンテンツADVCTのある種の制御などの各種イベントに対応した処理を管理する。また前記プログラミングエンジンPRGENにより、標準的にはリモコン操作処理などのユーザインタフェースイベントが取り扱われる。前記ユーザインタフェースイベントUIEVTなどにより、ディクレラティブエンジンDECEN内で定義されたアドバンストアプリケーションADAPLの処理変更や、アドバンストコンテンツADVCTの処理変更などをすることができる。
<Programming Engine>
In this embodiment, the programming engine PRGEN manages processes corresponding to various events such as API set calls and certain controls of the advanced content ADVCT. The programming engine PRGEN normally handles user interface events such as remote control operation processing. With the user interface event UIEVT or the like, it is possible to change processing of the advanced application ADAPL defined in the declarative engine DECEN, change processing of the advanced content ADVCT, or the like.
<ファイルキャッシュマネージャ(Flie Cache Manager)>
ファイルキャッシュマネージャFLCMNGは、以下の事柄に対応して処理する。
<Flie Cache Manager>
The file cache manager FLCMNG handles the following matters.
* プライマリーエンハンストビデオオブジェクトセットP-EVOBS内に多重化されているアドバンストアプリケーションADAPLに関するパックやアドバンストとサブタイトルADSBTに関するパックを抜き出し、ソースファイルとしてまとめてファイルキャッシュFLCCH内にリソースファイルとして保存する。前記、プライマリーエンハンストビデオオブジェクトセットP-EVOBS内に多重化されたアドバンストアプリケーションADAPLに対応したパックやアドバンストサブタイトルADSBTに対応したパックは図35に示すデマルチプレクサDEMUXにより、抽出される。 * Extract the advanced application ADAPL-related packs and the advanced and subtitle ADSBT-related packs multiplexed in the primary enhanced video object set P-EVOBS, collect them as source files, and save them as resource files in the file cache FLCCH. The pack corresponding to the advanced application ADAPL and the pack corresponding to the advanced subtitle ADSBT multiplexed in the primary enhanced video object set P-EVOBS are extracted by the demultiplexer DEMUX shown in FIG.
* 情報記憶媒体DISC、ネットワークサーバNTSRVまたはパーシステントストレージPRSTR内に記録されている各種ファイルを、ファイルキャッシュFLCCH内にリソースファイルとして保存する。 * Various files recorded in the information storage medium DISC, network server NTSRV, or persistent storage PRSTR are saved as resource files in the file cache FLCCH.
* プレイリストマネージャPLMNGやアドバンストアプリケーションマネージャADAMNGのリクエストに応じ過去に前記各種データソースからファイルキャッシュFLCCHに転送したソースファイルの再生を行う。 * In response to requests from the playlist manager PLMNG and the advanced application manager ADAMNG, the source files previously transferred from the various data sources to the file cache FLCCH are played.
* ファイルキャッシュFLCCH内におけるファイルシステム管理処理を行う。 * Performs file system management processing in the file cache FLCCH.
前述したように、プライマリーエンハンストビデオオブジェクトセットP-EVOBS内に多重化され、プライマリービデオプレーヤPRMVP内のデマルチプレクサDEMUXで抜き出されたアドバンストアプリケーションADAPLに関係したパックの処理を前記ファイルキャッシュマネージャFRCMNGで行うが、
この時にプライマリーエンハンストビデオオブジェクトセットP-EVOBS内に含まれているアドバンストストリームパック内のプレゼンテーションストリームヘッダは外され、アドバンストストリームデータとしてファイルキャッシュFLCCH内に記録される。また、プレイリストマネージャPLMNGやアドバンストアプリケーションマネージャADAMNGの要請に応じて情報記憶媒体DISC、ネットワークサーバNTSRVやパーシステントストレージPRSTR内に保存されていたリソースファイルの獲得もファイルキャッシュマネージャFLCMNGが行う。
As described above, the file cache manager FRCMNG performs pack processing related to the advanced application ADAPL multiplexed in the primary enhanced video object set P-EVOBS and extracted by the demultiplexer DEMUX in the primary video player PRMVP. But,
At this time, the presentation stream header in the advanced stream pack included in the primary enhanced video object set P-EVOBS is removed and recorded as advanced stream data in the file cache FLCCH. The file cache manager FLCMNG also acquires resource files stored in the information storage medium DISC, the network server NTSRV, or the persistent storage PRSTR in response to a request from the playlist manager PLMNG or the advanced application manager ADAMNG.
<ユーザインタフェースエンジン(User Interface Engine)>
ユーザインタフェースエンジンUIENGには、図28に示すようにリモートコントロールコントローラーRMCCTR、フロントパネルコントローラーFRPCTR、ゲームパッドコントローラーGMPCTR、キーボードコントローラーKBDCTR、マウスコントローラーMUSCTRやカーソルマネージャCRSMNGが含まれる。本実施形態において、フロントパネルコントローラーFRPCTRとリモートコントロールコントローラーRMCCTRのうちいずれか一方はサポートされなければならない。また、本実施形態において、カーソルマネージャCRSMNGは必須となり、画面上でのユーザ処理としてはパーソナルコンピュータと同様のカーソル利用が前提となる。それ以外の各種コントローラーについては本実施形態ではオプション扱いとする。図28に示したユーザインタフェースエンジンUIENG内の各種コントローラーは、実際の対応したデバイス(マウスやキーボードなど)が使用可能かどうかを検出するとともにユーザオペレーションのイベントを監視している。前記のユーザ入力処理が行われると、その情報がユーザインタフェースイベントUIEVTとアドバンストアプリケーションマネージャADAMNG内のプログラミングエンジンPRGENへ情報が伝わる。また、カーソルマネージャCRSMNGはカーソルの形状と画面上のカーソル位置の制御を行う。また、前記カーソルマネージャCRSMNGはユーザインタフェースエンジンUIENG内で検出された動き情報に対応し、図39に示すカーソルプレインCRSRPLのアップデートを行う。
<User Interface Engine>
As shown in FIG. 28, the user interface engine UIENG includes a remote control controller RMCCTR, a front panel controller FRPCTR, a game pad controller GMPCTR, a keyboard controller KBDCTR, a mouse controller MUSCTR, and a cursor manager CRSMNG. In this embodiment, one of the front panel controller FRPCTR and the remote control controller RMCCTR must be supported. In this embodiment, the cursor manager CRSMNG is indispensable, and the user processing on the screen is premised on the use of a cursor similar to a personal computer. Various other controllers are treated as options in this embodiment. Various controllers in the user interface engine UIENG shown in FIG. 28 detect whether or not an actual corresponding device (such as a mouse or a keyboard) is usable and monitor a user operation event. When the user input processing is performed, the information is transmitted to the user interface event UIEVT and the programming engine PRGEN in the advanced application manager ADAMNG. The cursor manager CRSMNG controls the shape of the cursor and the cursor position on the screen. The cursor manager CRSMNG updates the cursor plane CRSRPL shown in FIG. 39 corresponding to the motion information detected in the user interface engine UIENG.
<Player State Machine for Advanced Content Player>
図1に示す情報記録再生装置1内のアドバンストコンテンツ再生部ADVPLが処理する状態は、サスペンドステートSPDST、ポーズステートPSEST、ファストステートFASTST/スロウステートSLOWST/フォワードステートFWDST/リバースステートRVCST、スタートアップステートSTUPST/アップデートステートUPDTST、ストップステートSTOPST、プレイバックステートPBKST、プレジャンプステートPRJSTとポストジャンプステートPOJSTの8つの状態が存在する。前記アドバンストコンテンツ再生部ADVPLが持つ状態間の状態遷移図を図29に示す。これらの状態遷移図に示された各状態の制御は図14に示すようにアドバンストコンテンツ再生部ADAPL内でのナビゲーションマネージャNVMNGが制御する。例えば図1に示したシステム例の場合、ユーザがリモコンにより大画面テレビモニタ15へ向かい、リモコンを操作すると無線データ18が情報記録再生装置1内の無線LAN制御部7-1を介しアドバンストコンテンツ再生部ADVPL内に入力される。アドバンストコンテンツ再生部ADVPL内のナビゲーションマネージャNVMNGに上記ユーザオペレーションUOPEの情報が入力されると、図28に示すようにリモートコントロールコントローラーRMCCTRが作動し、ユーザインタフェースイベントUIEVTとしてアドバンストアプリケーションマネージャADAMNGに入力される。アドバンストアプリケーションマネージャADAMNG内ではユーザが指定した画面上の位置に対応して、ユーザ指定内容を解読しパーサーPARSERに通知する。パーサーPARSERはアドバンストアプリケーションマネージャADAMNGからの通知に対応し、図29に示す各ステートへの遷移を行う。図29に示すように各状態遷移が起きると、パーサーPARSERはプレイリストマネージャPLMNGで解析されたプレイリストPLLSTの情報に対応し、最適な処理の制御を行う。以下に各状態(ステート)の動作内容について説明を行う。
<Player State Machine for Advanced Content Player>
The state processed by the advanced content playback unit ADVPL in the information recording /
A) スタートアップステートSTUPST/アップデートステートUPDTST
アドバンストコンテンツ再生部ADVPLが起動処理またはアップデート処理を開始すると、アドバンストコンテンツ再生部ADVPLはスタートアップステートSTUPST/アップデートステートUPDTSTに遷移される。スタートアップステートSTUPST/アップデートステートUPDTSTが通常に完了すると、アドバンストコンテンツ再生部ADVPLはプレイバックステートPBKSTへ遷移する。
A) Startup state STUPST / Update state UPDTST
When the advanced content playback unit ADVPL starts the startup process or update process, the advanced content playback unit ADVPL transitions to the startup state STUPST / update state UPDTST. When the startup state STUPST / update state UPDTST is normally completed, the advanced content playback unit ADVPL transits to the playback state PBKST.
B) プレイバックステートPBKST
プレイバックステートPBKSTはアドバンストコンテンツADVCTの通常速度での再生状態を意味する。すなわち、前記アドバンストコンテンツ再生部ADVPLがプレイバックステートPBKSTにある時には、通常の再生速度でタイトルタイムラインTMLEに沿った処理がなされる。
B) Playback state PBKST
The playback state PBKST means a playback state at the normal speed of the advanced content ADVCT. That is, when the advanced content playback unit ADVPL is in the playback state PBKST, processing along the title timeline TMLE is performed at a normal playback speed.
C) ストップステートSTOPST
ストップステートSTOPSTは、アドバンストコンテンツ再生部ADVPLが終了状態になったことを意味し、この時にはタイトルタイムラインTMLEの時間軸に合わせた処理は行われず、またあらゆるアプリケーション処理も停止状態にある。
C) Stop state STOPST
The stop state STOPST means that the advanced content playback unit ADVPL is in an end state. At this time, processing in accordance with the time axis of the title timeline TMLE is not performed, and all application processes are in a stopped state.
D) ポーズステートPSEST
ポーズステートPSESTは一時停止の状態を表す。この時には一時的にタイトルタイムラインTMLEの時間進行(タイトルタイムラインTMLE上のカウントアップ)は一時的に停止された状態にある。
D) Pause state PSEST
The pause state PSEST represents a paused state. At this time, the time progress of the title timeline TMLE (count up on the title timeline TMLE) is temporarily stopped.
E) ファストFASTST /スロウSLOWST /フォワードFWDST /リバースRVCSTステート
ファストステートFASTSTは動画の高速再生モードを意味し、スロウステートSLOWSTは動画のゆっくりした再生モードを表し、フォワードステートFWDSTは通常の再生方向に沿った再生情報で、同一タイトル内への全方向へのジャンプ(特定の時間経過後の再生位置にアクセスする)の処理も含まれる。リバースステートRVCSTは通常の再生方向に対する逆方向の再生(巻戻し)を意味し特定時間前へのジャンプ再生なども含まれる。アドバンストコンテンツ再生部ADVPLが前記ステート上にある時には、タイトルタイムラインTMLE上の時間進み(カウント変化状況)は、それぞれの再生ステートに合わせてタイトルタイムラインTMLE上の時刻変化(カウントアップ/カウントダウン)の処理が行われる
F) プレジャンプステートPRJST
プレジャンプステートPRJSTは、再生中コンテンツ(タイトル)の終了処理を意味している。本実施形態において、アドバンストアプリケーションADAPLにより画面上に各種制御用ボタンを表示するがユーザがその中でジャンプをクリックするとアドバンストコンテンツ再生部ADVPLはプレジャンプステートPRJSTへ遷移する。アドバンストアプリケーションADAPLにより表示された“ジャンプボタン”で指定されたジャンプ先は異なるタイトル先にジャンプする場合や、同一タイトル内においてもタイトルタイムラインTMLEで指定された時刻(カウント値)と大きく異なる場合が有る。現在画面上に表示されているアドバンストアプリケーションADVPLが、移動先に対応したタイトルタイムラインTMLE時刻(カウント値)上では使用されない(有効期限が切れている)場合が有る。この場合には現在画面上に表示されているアドバンストアプリケーションADAPLの終了処理が必要となる。従って本実施形態においてはプレジャンプステートPRJST内において、移動先のタイトルタイムラインTMLEの時刻(カウント値)を調べ、有効期間の切れているアドバンストアプリケーションADAPLの終了処理や、新たに(ジャンプ前の画面には無かった)有効期間となるアドバンストアプリケーションADAPLの表示準備処理を行う。その後アドバンストコンテンツ再生部ADVPLは、ポストジャンプステートPOJSTへ遷移される。
E) Fast FASTST / Slow SLOWST / Forward FWDST / Reverse RVCST state Fast state FASTST means fast playback mode of video, slow state SLOWST indicates slow playback mode of video, forward state FWDST follows normal playback direction Also included is a process of jumping in all directions within the same title (accessing the playback position after a specific time has elapsed) with the playback information. The reverse state RVCST means playback (rewinding) in the reverse direction to the normal playback direction, and includes jump playback to a specific time. When the advanced content playback unit ADVPL is in the state, the time advance (count change state) on the title timeline TMLE is the time change (count up / count down) on the title timeline TMLE in accordance with each playback state. F) Pre-jump state PRJST
The pre-jump state PRJST means end processing of the content (title) being played back. In the present embodiment, various control buttons are displayed on the screen by the advanced application ADAPL. When the user clicks a jump in the screen, the advanced content playback unit ADVPL transits to the pre-jump state PRJST. The jump destination specified by the “jump button” displayed by the advanced application ADAPL may jump to a different title destination or may be significantly different from the time (count value) specified in the title timeline TMLE even within the same title. Yes. The advanced application ADVPL currently displayed on the screen may not be used (expired) on the title timeline TMLE time (count value) corresponding to the movement destination. In this case, the advanced application ADAPL currently displayed on the screen needs to be terminated. Therefore, in the present embodiment, the time (count value) of the destination title timeline TMLE is checked in the pre-jump state PRJST, and the advanced application ADAPL that has expired is terminated or newly (screen before the jump) The display preparation processing for the advanced application ADAPL, which is valid), is performed. Thereafter, the advanced content playback unit ADVPL transitions to the post-jump state POJST.
G) ポストジャンプステートPOJST
ポストジャンプステートPOJSTは次のコンテンツ(タイトル)のローディング処理モードを表す。図17に示すように各タイトル毎にそれぞれ独自のタイトルタイムラインTMLEが設定されている。プレジャンプステートPRJSTにおいて、例えばタイトル#2の再生途中にプレジャンプステートPRJSTに遷移するとタイトル#2のタイトルタイムラインTMLEの時間進行が停止され、例えばポストジャンプステートにおいてPOJST次のタイトル#3の再生準備がなされる場合にはタイトルタイムラインTMLEが#2のものからタイトル#3に対応したタイトルタイムラインTMLEに移動する。ポストジャンプステートPOJSTにおいては、例えばデータキャッシュDTCCHのメモリ空間の設定や前記設定されたデータキャッシュDTCCH内へのアドバンストアプリケーションADAPLのローディング処理などの準備が行われる。これら一連の準備が終了するとアドバンストコンテンツ再生部ADVPLはプレイバックステートPBKSTへ遷移する。
G) Post Jump State POJST
The post-jump state POJST represents a loading process mode for the next content (title). As shown in FIG. 17, each title has its own title timeline TMLE. In the pre-jump state PRJST, for example, if the transition to the pre-jump state PRJST occurs during the playback of the
H) サスペンドステートSPDST
サスペンドステートSPDSTは、アドバンストコンテンツ再生部ADVPLが待機状態にあることを意味する。この状態においてはタイトルタイムラインTMLEの時間進行は一時停止されると共に、各種再生表示オブジェクトも表示待機の状態にある。この状態の例として、例えば図1において、大画面テレビモニタ15上にはスタンダードコンテンツSTDCTのみが表示され、アドバンストコンテンツADVCTが非表示の状態などの時、この状態になる。
H) Suspend state SPDST
The suspend state SPDST means that the advanced content playback unit ADVPL is in a standby state. In this state, the time progress of the title timeline TMLE is temporarily stopped, and various playback display objects are also in a display standby state. As an example of this state, for example, in FIG. 1, only the standard content STDCT is displayed on the large-
ユーザが情報記憶媒体DISCを情報記録再生装置1内の情報記録再生部2内に挿入するとアドバンストコンテンツ再生部ADVPLはスタートアップステートSTUPSTになり、それと共にイニシャル状態としてのアップデートステートUPDTSTに入る。その後通常の場合にはすぐにプレイバックステートPBKSTに遷移し、アドバンストコンテンツADVCTの表示モードに入る。この時例えばユーザがスタンダードコンテンツSTDCTに切替えた場合、アドバンストコンテンツ再生部ADVPLはサスペンドステートSPDSTに遷移される。また再びユーザが、アドバンストコンテンツADVCTの再生を開始するとプレイバックステートPBKSTに遷移する。次にユーザが別の画面(タイトル)への画面遷移を支持するとプレジャンプステートPRJSTを経てポストジャンプステートPOJSTに遷移した後、ユーザが指定したタイトルのプレイバックステートPBKSTに遷移される。ここで、ユーザが再生時にポーズボタンを押すとポーズステートPSESTに遷移され、その後高速送りをユーザが指定するとファストステートへ遷移される。その後ユーザが情報記録再生装置1を終了させるとストップステートSTOPSTに遷移する。このような形でユーザオペレーションUOPEに対応してアドバンストコンテンツ再生部ADVPLの状態遷移が起こる。
When the user inserts the information storage medium DISC into the information recording / reproducing
<プレゼンテーションエンジン(Presentation Engine)>
図14に示すアドバンストコンテンツ再生部ADVPL内のプレゼンテーションエンジンPRSENの内部構造を図30に示す。
<Presentation Engine>
FIG. 30 shows the internal structure of the presentation engine PRSEN in the advanced content playback unit ADVPL shown in FIG.
まず初めにプレゼンテーションエンジンPRSENの位置づけを説明する。各種記録媒体に記録されたアドバンストコンテンツADVCTは、図14に示すようにデータアクセスマネージャDAMNGを通過した後、プレゼンテーションエンジンPRSENを経てAVレンダラーAVRNDへデータ転送される。この時の制御をナビゲーションマネージャNVMNGが行う。すなわち前記プレゼンテーションエンジンPRSENは、ナビゲーションマネージャNVMNGから発生される制御コマンドに対応し各種表示オブジェクトに対応した再生表示データをデコード処理し、その結果をAVレンダラーAVRNDへ転送する。図30に示すようにプレゼンテーションエンジンPRSENは、6種類の主な処理機能モジュールと1種類のグラフィックバッファメモリで構成される。前記6個の主な機能モジュールは、アドバンストアプリケーションプレゼンテーションエンジンAAPEN、フォントレンダリングシステムFRDSTM、アドバンストサブタイトルプレーヤASBPL、セカンダリービデオプレーヤSCDVP、プライマリービデオプレーヤPRMVPとデコーダーエンジンDCDENから構成される。また、前記グラフィックバッファメモリはピクセルバッファPIXBUFが対応する。例えばテキストイメージや、PNGイメージなどのようなピクセルイメージを保存するグラフィックメモリとして前記ピクセルバッファPIXBUFが共有利用される。図30に示すように前記ピクセルバッファPIXBUFはアドバンストアプリケーションプレゼンテーションエンジンAAPEN、フォントレンダリングシステムFRDSTM及びアドバンストサブタイトルプレーヤASBPLで共用される。すなわち、後述するようにアドバンストアプリケーションプレゼンテーションエンジンAAPENでは、アドバンストアプリケーションADAPLに関するイメージ画像(例えば図16に示すヘルプアイコン33からFFボタン38に至る一連の画面イメージ)を作成するが、その時に前記イメージ画像の一時保存場所として前記ピクセルバッファPIXBUFを利用する。同様、フォントレンダリングシステムFRDSTMでフォントに合わせたテキスト情報を作成するが、その特定指定されたフォント形状のテキスト情報であるイメージ画像も一時的に前記ピクセルバッファPIXBUFを一時保存場所として共有利用される。またアドバンストサブタイトルプレーヤASBPLで、例えばアドバンストサブタイトルADSBTの字幕情報を作った場合、そのイメージ画像も同様に前記ピクセルバッファPIXBUFに一時格納できる。
First, the positioning of the presentation engine PRSEN will be explained. The advanced content ADVCT recorded on various recording media passes through the data access manager DAMNG as shown in FIG. 14, and then is transferred to the AV renderer AVRND via the presentation engine PRSEN. The navigation manager NVMNG performs this control. That is, the presentation engine PRSEN decodes reproduction display data corresponding to various display objects corresponding to the control command generated from the navigation manager NVMNG, and transfers the result to the AV renderer AVRND. As shown in FIG. 30, the presentation engine PRSEN is composed of six types of main processing function modules and one type of graphic buffer memory. The six main functional modules include an advanced application presentation engine AAPEN, a font rendering system FRDSTM, an advanced subtitle player ASBPL, a secondary video player SCDVP, a primary video player PRMVP, and a decoder engine DCDEN. The graphic buffer memory corresponds to a pixel buffer PIXBUF. For example, the pixel buffer PIXBUF is commonly used as a graphic memory for storing a pixel image such as a text image or a PNG image. As shown in FIG. 30, the pixel buffer PIXBUF is shared by the advanced application presentation engine AAPEN, the font rendering system FRDSTM, and the advanced subtitle player ASBPL. That is, as will be described later, the advanced application presentation engine AAPEN creates an image (for example, a series of screen images from the
図10に示すように本実施形態において、再生表示オブジェクトは4種類存在し、それらの再生表示オブジェクトのアドバンストコンテンツ再生部ADVPL内でのデータの流れを図25に記述されている。図30と前述した図25の関係を以下に説明する。 As shown in FIG. 10, in this embodiment, there are four types of playback display objects, and the data flow of these playback display objects in the advanced content playback unit ADVPL is described in FIG. The relationship between FIG. 30 and the aforementioned FIG. 25 will be described below.
まず初めにプライマリービデオセットPRMVSについて説明する。図25に示すように、情報記憶媒体DISCに記録されたプライマリービデオセットPRMVSは直接プライマリービデオプレーヤPRMVPに転送され、各種デコーダーでデコード処理される。これに対応して図30を用いて説明すると、情報記憶媒体DISCに記録されたプライマリービデオセットPRMVSはデータアクセスマネージャDAMNGを経由し、プライマリービデオプレーヤPRMBVPを経た後デコーダーエンジンDCDENでデコードされAVレンダラーAVRNDで画像合成される。 First, the primary video set PRMVS will be described. As shown in FIG. 25, the primary video set PRMVS recorded on the information storage medium DISC is directly transferred to the primary video player PRMVP and decoded by various decoders. 30 corresponding to this, the primary video set PRMVS recorded on the information storage medium DISC passes through the data access manager DAMNG, passes through the primary video player PRMBVP, and then is decoded by the decoder engine DCDEN and AV renderer AVRND. The image is composited.
次にセカンダリービデオセットSCDVSについて説明する。図25に示すように、情報記憶媒体DISCまたはパーシステントストレージPRSTRに記録されたセカンダリービデオセットSCDVSは、セカンダリービデオプレーヤSCDVPを経由し各種デコーダーでデコード処理される。これに対応して図30を用いて説明すると、セカンダリービデオセットSCDVSはデータアクセスマネージャDAMNGを経由し、セカンダリービデオプレーヤSCDVPで処理された後デコーダーエンジンDCDENでデコード処理され、AVレンダラーAVRNDで画像合成される。また、図25に示すようにネットワークサーバNTSRV内に記録されているセカンダリービデオセットSCDVSはストリーミングバッファSTRBUFを経由し、セカンダリービデオプレーヤSCDVPへ到達するようになっている。これに対応して図30を用いて説明すると、ネットワークサーバNTSRVに記録されたセカンダリービデオセットSCDVSは、データキャッシュDTCCH内のストリーミングバッファSTRBUF(図示していないが)で一時保存された後、データキャッシュDTCCH内のストリーミングバッファSTRBUFからデータがセカンダリービデオプレーヤSCDVPへ送られデコーダーエンジンDCDENでデコードされた後AVレンダラーAVRNDで画像構成される。 Next, the secondary video set SCDVS will be described. As shown in FIG. 25, the secondary video set SCDVS recorded in the information storage medium DISC or persistent storage PRSTR is decoded by various decoders via the secondary video player SCDVP. 30 corresponding to this, the secondary video set SCDVS is processed by the secondary video player SCDVP via the data access manager DAMNG, then decoded by the decoder engine DCDEN, and is synthesized by the AV renderer AVRND. The Further, as shown in FIG. 25, the secondary video set SCDVS recorded in the network server NTSRV reaches the secondary video player SCDVP via the streaming buffer STRBUF. Correspondingly, the secondary video set SCDVS recorded in the network server NTSRV is temporarily stored in the streaming buffer STRBUF (not shown) in the data cache DTCCH, and then stored in the data cache. Data is sent from the streaming buffer STRBUF in the DTCCH to the secondary video player SCDVP, decoded by the decoder engine DCDEN, and then composed of an AV renderer AVRND.
次にアドバンストアプリケーションADAPLについて説明する。図25に示すように、アドバンストアプリケーションADAPLは一時的にファイルキャッシュFLCCHに一時保存された後、アドバンストエレメントプレゼンテーションエンジンAEPENへ転送される。これに対応して図30を用いて説明すると、アドバンストアプリケーションADAPLは、一時保存されたファイルキャッシュFLCCHからアドバンストアプリケーションプレゼンテーションエンジンAAPEN転送され、前記アドバンストアプリケーションプレゼンテーションエンジンAAPEN内でイメージ画像として構成された後、AVレンダラーAVRNDで画像合成される。 Next, the advanced application ADAPL will be described. As shown in FIG. 25, the advanced application ADAPL is temporarily stored in the file cache FLCCH and then transferred to the advanced element presentation engine AEPEN. Correspondingly, the advanced application ADAPL is transferred from the temporarily stored file cache FLCCH to the advanced application presentation engine AAPEN and configured as an image in the advanced application presentation engine AAPEN. The image is synthesized by AV renderer AVRND.
最後にアドバンストサブタイトルADSBTについて説明する。図25に示すように、アドバンストサブタイトルADSBTは必ずファイルキャッシュFLCCH内に一時保存された後、アドバンストサブタイトルプレーヤASBPLへ転送される。これに対応して図30を用いて説明すると、ファイルキャッシュFLCCH内に保存されたアドバンストサブタイトルADSBTは、アドバンストサブタイトルプレーヤASBPLでテキスト内容を表現したイメージ画像に変換され、AVレンダラーAVRND上で画像合成される。特に指定されたフォント形式で画面に表示したい場合には図11に示すようにアドバンストエレメントディレクトリADVEL内に保存されたフォントファイルFONTを利用し、そのデータを使いファイルキャッシュFLCCH内に保存されたアドバンストサブタイトルADSBTがフォントレンダリングシステムFRDSTM内で指定されたフォント形式での文字画像(イメージ画像)に変換された後、AVレンダラーAVRNDで画像合成される。本実施形態においては、フォントレンダリングシステムFRDSTMで作成した独自のフォント形式の文字画像(イメージ画像)がピクセルバッファPIXBUFに一時保存され、そのイメージ画像はアドバンストサブタイトルプレーヤASBPLを経由してAVレンダラーAVRNDへ転送される。 Finally, the advanced subtitle ADSBT will be described. As shown in FIG. 25, the advanced subtitle ADSBT is always temporarily stored in the file cache FLCCH and then transferred to the advanced subtitle player ASBPL. 30 corresponding to this, the advanced subtitle ADSBT stored in the file cache FLCCH is converted into an image image representing the text content by the advanced subtitle player ASBPL, and the image is synthesized on the AV renderer AVRND. The In particular, if you want to display on the screen in the specified font format, use the font file FONT saved in the advanced element directory ADVEL as shown in FIG. 11 and use that data to save the advanced subtitle saved in the file cache FLCCH. The ADSBT is converted into a character image (image image) in the font format specified in the font rendering system FRDSTM, and then the image is synthesized by the AV renderer AVRND. In this embodiment, the original font format character image (image image) created by the font rendering system FRDSTM is temporarily stored in the pixel buffer PIXBUF, and the image image is transferred to the AV renderer AVRND via the advanced subtitle player ASBPL. Is done.
<アドバンストアプリケーションプレゼンテーションエンジン(Advanced Application Presentation Engine)>
図14に示すように本実施形態において、アドバンストコンテンツ再生部ADVPL内にはプレゼンテーションエンジンPRSENが存在する。図30に示すプレゼンテーションエンジンPRSEN内のアドバンストアプリケーションプレゼンテーションエンジンAAPENの内部構造を図31に示す。
<Advanced Application Presentation Engine>
As shown in FIG. 14, in this embodiment, a presentation engine PRSEN exists in the advanced content playback unit ADVPL. FIG. 31 shows the internal structure of the advanced application presentation engine AAPEN in the presentation engine PRSEN shown in FIG.
本実施形態においてアドバンストアプリケーションプレゼンテーションエンジンAAPENは、以下に述べる2種類の再生表示ストリーム(再生表示オブジェクト)をAVレンダラーAVRNDへ転送する。AVレンダラーAVRNDへ転送する再生表示ストリームの1つは、図39に示すグラフィックプレインGRPHPL上で表示されるフレームイメージである。また、次の再生表示ストリームはイフェクトオーディオストリームEFTADが対応する。図31に示すように、アドバンストアプリケーションプレゼンテーションエンジンAAPENは、サウンドデコーダーSNDDEC、グラフィックスデコーダーGHCDECとレイアウトマネージャLOMNGから構成される。 In this embodiment, the advanced application presentation engine AAPEN transfers the following two types of playback display streams (playback display objects) to the AV renderer AVRND. One of the playback display streams to be transferred to the AV renderer AVRND is a frame image displayed on the graphic plane GRPHPL shown in FIG. The next playback display stream corresponds to the effect audio stream EFTAD. As shown in FIG. 31, the advanced application presentation engine AAPEN includes a sound decoder SNDDEC, a graphics decoder GHCDEC, and a layout manager LOMNG.
アドバンストアプリケーションADAPL内におけるイフェクトオーディオEFTAD(図10参照)情報は、事前に一時保管されたファイルキャッシュFLCCH内からサウンドデコーダーSNDDECに転送され、前記サウンドデコーダーSNDDEC内でデコードされた後AVレンダラーAVRND内でオーディオミキシングされる。また、アドバンストアプリケーションADAPL内のイメージ画像を構成する個々の静止画IMAGE(図10参照)は、一時保管されたファイルキャッシュFLCCHからグラフィックデコーダーGHCDEC内でビットマップ上のイメージ画像(の構成要素)に変換される。さらにレイアウトマネージャLOMNGでサイズ変換(スケーラーの処理)を行い、静止画IMAGE毎にレイアウト上の合成をされてイメージ画像が形成された後、AVレンダラーAVRNDで画像構成される。 The effect audio EFTAD (see FIG. 10) information in the advanced application ADAPL is transferred from the file cache FLCCH temporarily stored in advance to the sound decoder SNDDEC, decoded in the sound decoder SNDDEC, and then audio in the AV renderer AVRND. It is mixed. In addition, the individual still images IMAGE (see FIG. 10) constituting the image images in the advanced application ADAPL are converted from the temporarily stored file cache FLCCH to the image images (components) on the bitmap in the graphic decoder GHCDEC. Is done. Further, size conversion (scalar processing) is performed by the layout manager LOMNG, and an image is formed by synthesizing the layout for each still image IMAGE, and then an image is formed by the AV renderer AVRND.
図16に示した例を用いて上記の処理の説明を行う。図16に示すように、アドバンストアプリケーションADAPLに対応してヘルプアイコン33、ストップボタン34、プレイボタン35、FRボタン36、ポーズボタン37およびFFボタン38に対応した個々の静止画像情報がファイルキャッシュFLCCH内に保存されている。グラフィックレコーダGHCDEC内では前記個々の静止画像をデコーダー処理によりビットマップ上のイメージ画像(の構成要素)に変換する。次にレイアウトマネージャLOMNGにより前記ヘルプアイコン33の位置やストップボタン34の位置などが設定され、ヘルプアイコン33からFFボタン38までの画像の並びとして構成されるイメージ画像がレイアウトマネージャLOMNG内で作成される。このレイアウトマネージャLOMNGで作成されたヘルプアイコン33からFFボタン38までの一連のイメージ画像がAVレンダラーAVRNDで他の画像と合成される。
The above processing will be described using the example shown in FIG. As shown in FIG. 16, individual still image information corresponding to the
<サウンドデコーダー(Sound Decoder)>
サウンドデコーダーSNDDECはファイルキャッシュFLCCHからWAVファイルを読取り、連続的にAVレンダラーAVRNDへリニアPCMの形で連続的に出力を行う。図28に示すように、ナビゲーションマネージャNVMNG内にプログラミングエンジンPRGENが存在する。この前記プログラムエンジンPRGENからプレゼンテーションエンジンPRSENに対してAPIコマンドが発行されるが、そのAPIコマンドをトリガーとして前記データ処理が行われる。
<Sound Decoder>
The sound decoder SNDDEC reads WAV files from the file cache FLCCH and outputs them continuously to the AV renderer AVRND in the form of linear PCM. As shown in FIG. 28, the programming engine PRGEN exists in the navigation manager NVMNG. An API command is issued from the program engine PRGEN to the presentation engine PRSEN, and the data processing is performed using the API command as a trigger.
<グラフィックデコーダー(Graphics Decoder)>
グラフィックデコーダーGHCDECは、ファイルキャッシュFLCCH内に保存されたグラフィックデータのデコード処理を行う。本実施形態において取り扱うイメージ画像(の構成要素)は、MNGイメージ、PNGイメージ、またはMPEGイメージなどを取り扱う。これらイメージ画像に関する情報が記録されたイメージファイルは前記グラフィックデコーダーGHCDEC内でデコードされると共に前記デコードされたイメージ画像(の構成要素)は、図30に示すピクセルバッファPIXBUF内に一時保存される。その後一時保存されたイメージ画像(の構成要素)は、レイアウトマネージャLOMNGからリクエストを受けて前記レイアウトマネージャLOMNGへ転送される。
<Graphics Decoder>
The graphic decoder GHCDEC decodes graphic data stored in the file cache FLCCH. Image images (components) handled in the present embodiment handle MNG images, PNG images, MPEG images, and the like. The image file in which the information on the image is recorded is decoded in the graphic decoder GHCDEC, and the decoded image (components thereof) is temporarily stored in the pixel buffer PIXBUF shown in FIG. Thereafter, the temporarily stored image (component) is received from the layout manager LOMNG and transferred to the layout manager LOMNG.
<レイアウトマネージャ(Layout Manager)>
本実施形態において、前記アドバンストアプリケーションプレゼンテーションエンジンAAPENで扱うイメージ画像は図39に示すグラフィックプレインGRPHPL上の表示画面を構成する。これらグラフィックプレインGRPHPL上のイメージ画像を作成し、AVレンダラーAVRNDへ合成のため転送する処理を行うのがレイアウトマネージャLOMNGである。図39に示すグラフィックプレインGRPHPL内の表示画面(イメージ画像の構成要素)毎にそれぞれ対応したレイアウト情報が存在しており、グラフィックプレインGRPHPL内の画面内容が変化する毎に対応した異なるレイアウトインフォメーションが存在し、そのレイアウトインフォメーションに基づきレイアウトマネージャLOMNG内でレイアウト設定される。このレイアウト情報は図28に示すように、ナビゲーションマネージャNVMNG内のアドバンストアプリケーションマネージャADAMNGに含まれるディクレラティブエンジンDECENから発行される前記レイアウトインフォメーションがレイアウトマネージャLOMNGに転送される。前記レイアウトマネージャLOMNG内には、グラフィックスサーフェスGRPHSFと呼ばれるメモリを内蔵しており、グラフィックプレインGRPHPL上のイメージ画像を作成する時に利用される。グラフィックプレインGRPHPL内に複数の画像(イメージ画像の構成要素)を配置する場合には、前記レイアウトマネージャLOMNGが個々にグラフィックデコーダーGHCDECを起動させ、それぞれのイメージ画像の構成要素毎のデコードをさせた後フレームイメージ(イメージ画像)としてそれぞれのイメージ画像の構成要素毎の配置設定を行う。図30に示すようにプレゼンテーションエンジンPRSEN内にフォントレンダリングシステムFRDSTMが存在し、指定されたフォント形式による文字情報をイメージ画像に変換するということを説明したが、この特定のフォントによる表示を行う場合には、前記レイアウトマネージャLOMNGから前記フォントレンダリングシステムFRDSTMを動かし、テキスト情報をフレームイメージ(イメージ画像)に変換しグラフィックプレインGRPHPL上に配置することもできる。本実施形態では図39に示すようにグラフィックプレインGRPHPL上のイメージ画像全体または個々のイメージ画像の構成要素を半透明とし、その下側に存在するサブピクチャープレインSBPCPLやサブビデオプレインSBVDPLまたはメインビデオプレインMNVDPLの映像が透けて見えるように設定することができる。上記グラフィックプレインGRPHPL内の各イメージ画像の構成要素(またはイメージ画像全体)の下側の面に対する透明度をアルファ値で定義される。もしこのようにアルファ値が設定された場合には、そのアルファ値に応じて半透明な形としてグラフィックプレインGRPHPL上の指定された場所に配置するように前記レイアウトマネージャLOMNGが設定する。
<Layout Manager>
In the present embodiment, the image handled by the advanced application presentation engine AAPEN constitutes a display screen on the graphic plane GRPHPL shown in FIG. The layout manager LOMNG performs processing for creating an image on the graphic plane GRPHPL and transferring it to the AV renderer AVRND for composition. 39. There is layout information corresponding to each display screen (component of image image) in the graphic plane GRPHPL shown in FIG. 39, and different layout information corresponding to each change in the screen contents in the graphic plane GRPHPL. The layout is set in the layout manager LOMNG based on the layout information. As shown in FIG. 28, the layout information is transferred from the declarative engine DECEN included in the advanced application manager ADAMNG in the navigation manager NVMNG to the layout manager LOMNG. The layout manager LOMNG includes a memory called a graphics surface GRPHSF, which is used when creating an image on the graphic plane GRPHPL. When multiple images (components of image images) are arranged in the graphic plane GRPHPL, after the layout manager LOMNG individually activates the graphic decoder GHCDEC and decodes each component of the image image An arrangement setting for each component of each image is performed as a frame image (image image). As shown in FIG. 30, it has been explained that the font rendering system FRDSTM exists in the presentation engine PRSEN and character information in the specified font format is converted into an image image. However, when displaying with this specific font, The font rendering system FRDSTM can be moved from the layout manager LOMNG to convert text information into a frame image (image image) and arrange it on the graphic plane GRPHPL. In the present embodiment, as shown in FIG. 39, the entire image on the graphic plane GRPHPL or the components of individual image images are made translucent, and the sub-picture plane SBPCPL, sub-video plane SBVDPL, or main video plane existing below the image plane MNVDPL video can be set to show through. The transparency with respect to the lower surface of the component (or the entire image) of each image in the graphic plane GRPHPL is defined by an alpha value. If the alpha value is set in this way, the layout manager LOMNG sets the semi-transparent shape according to the alpha value so that the layout manager LOMNG is arranged at a designated location on the graphic plane GRPHPL.
<グラフィックプロセスモデル>
本実施形態におけるプレゼンテーションエンジンPRSENにおけるグラフィックプロセスモデルを図32に示す。
<Graphic process model>
FIG. 32 shows a graphic process model in the presentation engine PRSEN in this embodiment.
グラフィックプロセスを行う前にアドバンストアプリケーションADAPLの情報は、本実施形態では予めファイルキャッシュFLCCH内に圧縮された形で(コンプレッションフォームCMPFRM)記録されている。また、前記グラフィックプロセスにより作成されたグラフィックイメージ(イメージ画像)は、後述するように図39のグラフィックプレインGRPHPL上に表示される。また前記グラフィックプレインGRPHPL上においては図40に示すようにカンバス座標CNVCRDが定義され、前記カンバス座標CNVCRD上に各デコード後のグラフィックイメージ(アニメーションを含むイメージ画像)が配置される。 Prior to the graphic process, the information of the advanced application ADAPL is recorded in a compressed form (compression form CMPFRM) in the file cache FLCCH in the present embodiment. The graphic image (image image) created by the graphic process is displayed on the graphic plane GRPHPL in FIG. 39 as will be described later. On the graphic plane GRPHPL, canvas coordinates CNVCRD are defined as shown in FIG. 40, and each decoded graphic image (image image including animation) is arranged on the canvas coordinates CNVCRD.
1) 図32の実施形態では、ファイルキャッシュFLCCH内に(a)(b)(c)の3種類のグラフィックオブジェクトがコンプレッションフォームCMPFRM(圧縮された形)で事前に記録されている。また、ファイルキャッシュFLCCH内に“ABC”の例に示すようにアドバンストアプリケーションADAPLのテキスト情報も記録することができる。 1) In the embodiment of FIG. 32, three types of graphic objects (a), (b), and (c) are recorded in advance in a compression form CMPFRM (compressed form) in the file cache FLCCH. Further, as shown in the example of “ABC”, text information of the advanced application ADAPL can be recorded in the file cache FLCCH.
2) 図31に示すグラフィックデコーダーGHCDECにより図32(1)に示す圧縮された(a)(b)(c)の情報がデコード処理されてイメージ画像(ピクセルイメージPIXIMG)に変換され、その結果がピクセルバッファPIXBUF内に保存される(図32(2))。また同様にファイルキャッシュFLCCH内に記録されたテキスト情報“ABC”は、フォントレンダリングシステムFRDSTMによりイメージ画像(ピクセルイメージPIXIMG)に変換され、ピクセルバッファPIXBUF内に記録される。図28に示すように本実施形態では、ナビゲーションマネージャNVMNG内にマウスコントローラーMUSCTRもサポートしている。前記マウスコントローラーMUSCTRを経由し、ユーザがマウスにより図形を描画する場合、各線の始点と終点位置の座標としてラインオブジェクトの形で図形入力されるが、前記ラインオブジェクトはマウスコントローラーMUSCTRを経由しAPIコマンドの形で前述したカンバス座標CNVCRD上にイメージ画像(ピクセルイメージPIXIMG)として描かれる。前記ラインオブジェクトとして描かれたイメージ画像(ピクセルイメージPIXIMG)も同様にピクセルバッファPIXBUF内に記録される。 2) The graphic decoder GHCDEC shown in FIG. 31 decodes the compressed information (a), (b), and (c) shown in FIG. 32 (1) and converts them into an image (pixel image PIXIMG). It is stored in the pixel buffer PIXBUF (FIG. 32 (2)). Similarly, the text information “ABC” recorded in the file cache FLCCH is converted into an image image (pixel image PIXIMG) by the font rendering system FRDSTM and recorded in the pixel buffer PIXBUF. As shown in FIG. 28, in this embodiment, a mouse controller MUSCTR is also supported in the navigation manager NVMNG. When a user draws a figure with the mouse via the mouse controller MUSCTR, the figure is input in the form of a line object as the coordinates of the start point and end point of each line, but the line object is an API command via the mouse controller MUSCTR. Is drawn as an image image (pixel image PIXIMG) on the canvas coordinate CNVCRD described above. An image image (pixel image PIXIMG) drawn as the line object is also recorded in the pixel buffer PIXBUF.
3) 前記一時保存されたデコード後の各種イメージ画像(ピクセルイメージPIXIMG)は、図31のレイアウトマネージャLOMNG内によりグラフィックサーフェスGRPHSF上(グラフィックプレインGRPHPL上)での配置位置と表示サイズが設定される。図32(3)に示すように同一グラフィックサーフェスGRPHSF上(グラフィックプレインGRPHPL上)に(a)(b)(c)の図面とテキストイメージ“ABC”及びAPIコマンドにより描かれた図形が重なって表示されている。本実施形態においては、各イメージ画像(ピクセルイメージPIXIMG)に対し透明度を規定することで重なった部分の裏側の図形が透けて見えるようになっている。前記各イメージ画像(ピクセルイメージPIXIMG)毎の半透明度をアルファ値(アルファインフォメーション)で定義する。前記レイアウトマネージャLOMNGでは、各イメージ画像(ピクセルイメージPIXIMG)毎にアルファ値を計算し、重なっている部分において裏側が透けて見えるように設定することができる。図32(3)の例においては(a)(b)のアルファ値を40%(40%透過する)にしている。 3) The arrangement position and display size of various temporarily decoded image images (pixel image PIXIMG) on the graphic surface GRGHSF (on the graphic plane GRPHPL) are set in the layout manager LOMNG of FIG. As shown in FIG. 32 (3), the drawings of (a), (b), and (c), the text image “ABC”, and the graphic drawn by the API command are displayed on the same graphic surface GRPHSF (on the graphic plane GRPHPL). Has been. In the present embodiment, by defining transparency for each image image (pixel image PIXIMG), the figure on the back side of the overlapped portion can be seen through. The translucency for each image image (pixel image PIXIMG) is defined by an alpha value (alpha information). In the layout manager LOMNG, an alpha value is calculated for each image image (pixel image PIXIMG), and can be set so that the back side can be seen through in the overlapping portion. In the example of FIG. 32 (3), the alpha value of (a) and (b) is 40% (40% is transmitted).
4) このように合成したグラフィックサーフェスGRPHSF上(グラフィックプレインGRPHPL上)のイメージ画像(フレームイメージ)は、レイアウトマネージャLOMNGからAVレンダラーAVRNDへ送られる。 4) The image image (frame image) on the graphic surface GRGPSF (graphic plane GRPHPL) synthesized in this way is sent from the layout manager LOMNG to the AV renderer AVRND.
<アドバンストアプリケーションプレゼンテーションエンジン(Advanced Application Presentation Engine)>
図1に示すように情報記録再生装置1内にアドバンストコンテンツ再生部ADVPLが存在する。前記アドバンストコンテンツ再生部ADVPL内には、図14に示すようにプレゼンテーションエンジンPRSENが存在する。またその中に図30に示すようにアドバンストサブタイトルプレーヤASBPLが存在している。以下に前記アドバンストサブタイトルプレーヤASBPL内の構造を説明する。
<Advanced Application Presentation Engine>
As shown in FIG. 1, an advanced content playback unit ADVPL exists in the information recording /
図39に示すように、表示画面上にサブピクチャーやアドバンストサブタイトルADSBTを表示するサブピクチャープレインSBPCPLが存在するが、前記アドバンストサブタイトルプレーヤASBPLは、前記サブピクチャープレインSBPCPLに表示するサブタイトルイメージを出力する。前記アドバンストサブタイトルプレーヤASBPLは図33に示すように、パーサーPARSER、ディクレラティブエンジンDECENとレイアウトマネージャLOMNGから構成されている。また、アドバンストサブタイトルADSBTはアドバンストアプリケーションADAPLのサブセットとして位置づけられる。従って、アドバンストアプリケーションマネージャADAMNG(図28参照)とアドバンストアプリケーションプレゼンテーションエンジンAAPEN(図30参照)のサブセットモジュールを前記アドバンストサブタイトルプレーヤASBPL内に持っている。すなわち図30に示すようにアドバンストサブタイトルプレーヤASBPLとアドバンストアプリケーションプレゼンテーションエンジンAAPENが同一のピクセルバッファPIXBUFを共有している。また図33に示すようにアドバンストサブタイトルプレーヤASBPL内のレイアウトマネージャLOMNGが図31に示すようにアドバンストアプリケーションプレゼンテーションエンジンAAPEN内のレイアウトマネージャLOMNGと共用し、またアドバンストサブタイトルプレーヤASBPL内のディクレラティブエンジンDECENが図28に示すようにアドバンストアプリケーションマネージャADAMNG内のディクレラティブエンジンDECENを共有している。 As shown in FIG. 39, there is a sub-picture plane SBPCPL for displaying a sub-picture and an advanced sub-title ADSBT on the display screen. The advanced sub-title player ASBPL outputs a sub-title image to be displayed on the sub-picture plane SBPCPL. As shown in FIG. 33, the advanced subtitle player ASBPL includes a parser PARSER, a declarative engine DECEN, and a layout manager LOMNG. The advanced subtitle ADSBT is positioned as a subset of the advanced application ADAPL. Therefore, the advanced subtitle player ASBPL has subset modules of the advanced application manager ADAMNG (see FIG. 28) and the advanced application presentation engine AAPEN (see FIG. 30). That is, as shown in FIG. 30, the advanced subtitle player ASBPL and the advanced application presentation engine AAPEN share the same pixel buffer PIXBUF. As shown in FIG. 33, the layout manager LOMNG in the advanced subtitle player ASBPL is shared with the layout manager LOMNG in the advanced application presentation engine AAPEN as shown in FIG. 31, and the declarative engine DECEN in the advanced subtitle player ASBPL is used. As shown in FIG. 28, the declarative engine DECEN in the advanced application manager ADAMNG is shared.
まず初めにアドバンストサブタイトルプレーヤASBPL内のパーサーPARSERはデータキャッシュDTCCH内のファイルキャッシュFLCCH内に格納されているアドバンストサブタイトルのマークアップファイルMRKUPSを読取り、その内容の解析を行う。その解析結果をディクレラティブエンジンDECENへ転送する。前記ディクレラティブエンジンDECENは、アドバンストサブタイトルADSBTのレイアウトや表示形式(スタイル)、表示タイミングに関するプレゼンテーションインフォメーションを管理する。タイトルタイムラインTMLE上の時間進行に合わせてサブタイトルイメージ(テロップ文字のイメージなど)を作成するため、ディクレラティブエンジンDECENは各種コマンドをレイアウトマネージャLOMNGに転送する。前記ディクレラティブエンジンDEDENから送られるコマンド情報に合わせて、前記レイアウトマネージャLOMNGはプレゼンテーションエンジンPRSEN内のフロントレンダリングシステムFRDSTMを動かしてテキストイメージ(イメージ画像)を作成する。その後サブピクチャーフレームイメージ(サブピクチャープレインSBPCPL)内における適切な位置に、前記作成したテキストイメージ(イメージ画像)を配置する。その時、前記作成されたテキストイメージ(イメージ画像)はピクセルバッファPIXBUF上に記録されると共に、レイアウトマネージャLOMNGによりサブピクチャープレインSBPCPL上にレイアウト処理される。そして、その結果のイメージ画像(フレームイメージ)をサブピクチャープレインSBPCPL上に出力する。 First, the parser PARSER in the advanced subtitle player ASBPL reads the markup file MRKUPS of the advanced subtitle stored in the file cache FLCCH in the data cache DTCCH and analyzes its contents. The analysis result is transferred to the declarative engine DECEN. The declarative engine DECEN manages presentation information regarding the layout, display format (style), and display timing of the advanced subtitle ADSBT. The declarative engine DECEN transfers various commands to the layout manager LOMNG in order to create a subtitle image (such as a telop character image) as time progresses on the title timeline TMLE. In accordance with command information sent from the declarative engine DEDEN, the layout manager LOMNG moves the front rendering system FRDSTM in the presentation engine PRSEN to create a text image (image image). Thereafter, the created text image (image image) is arranged at an appropriate position in the sub-picture frame image (sub-picture plane SBPCPL). At that time, the created text image (image image) is recorded on the pixel buffer PIXBUF and is subjected to layout processing on the sub-picture plane SBPCPL by the layout manager LOMNG. Then, the resulting image (frame image) is output on the sub-picture plane SBPCPL.
<フォントレンダリングシステム(Font Rendering System)>
図30に示すようにフォントレンダリングシステムFRDSTMはプレゼンテーションエンジンPRSEN内に存在し、アドバンストアプリケーションプレゼンテーションエンジンAAPENや、アドバンストサブタイトルプレーヤASBPLからのリクエストに応じテキストイメージ(イメージ画像)を作成する。前記フォントレンダリングシステムFRDSTM内の構造を図34に示す。
<Font Rendering System>
As shown in FIG. 30, the font rendering system FRDSTM exists in the presentation engine PRSEN, and creates a text image (image image) in response to requests from the advanced application presentation engine AAPEN and the advanced subtitle player ASBPL. The structure in the font rendering system FRDSTM is shown in FIG.
フォントレンダリングシステムFRDSTMは、フォントエンジンFONTENを内蔵したデコーダーDECDERとラステライザーRSTRZとフォントキャッシュFONTCCから構成される。ファイルキャッシュFLCCHから読み出されたアドバンストサブタイトルADSBT情報あるいはアドバンストアプリケーションADAPL情報がフォントエンジンFONTENを利用してデコーダーDECDER内によりテキストのイメージ(イメージ画像)が作られる。作成されたテキストイメージ(イメージ画像)のサブピクチャープレインSBPCPL(図39参照)内での表示サイズがラステライザーRSTRZ内のスケーラーSCALERにより設定される。その後、前記作成されたテキストイメージ(イメージ画像)の透明度がアルファマップジェネレーションAMGRTにより指定される。前記作成されたテキストイメージ(イメージ画像)は、必要に応じてフォントキャッシュFONTCC内に一時保存され、必要なタイミングでフォントキャッシュFONTCCからテキストイメージ(イメージ画像)が読み出されて画像表示される。前記アルファマップジェネレーションAMGRTにより作成されたテキストイメージ(イメージ画像)の透明度が規定される。その結果、テキストイメージの重なった部分の下にあるサブビデオプレインSBVDPLまたはメインビデオプレインMNVDPLの(図39参照)の映像を透けて見ることができる。 The font rendering system FRDSTM consists of a decoder DECDER with built-in font engine FONTEN, rasterizer RSTRZ, and font cache FONTCC. The advanced subtitle ADSBT information or advanced application ADAPL information read from the file cache FLCCH is used to create a text image (image) in the decoder DECDER using the font engine FONTEN. The display size of the created text image (image image) in the sub-picture plane SBPCPL (see FIG. 39) is set by the scaler SCALER in the rasterizer RSTRZ. Thereafter, the transparency of the created text image (image image) is designated by the alpha map generation AMGRT. The created text image (image image) is temporarily stored in the font cache FONTCC as necessary, and the text image (image image) is read from the font cache FONTCC at a necessary timing and displayed. The transparency of the text image (image image) created by the alpha map generation AMGRT is defined. As a result, the video of the sub video plane SBVDPL or the main video plane MNVDPL (see FIG. 39) below the overlapped portion of the text image can be seen through.
本実施形態において前記アルファマップジェネレーションAMGRTでは、その前段にあるデコーダーDECDERで作成されたテキストイメージ(イメージ画像)全体の透明度を均一に設定できるばかりでなく、前記テキストイメージ(イメージ画像)内の透明度を部分的に変化させることもできる。本実施形態においては、デコーダーDECDERによりテキストキャラクターからテキストイメージ(イメージ画像)に変換する段階でピクセルバッファPIXBUFを使うこともできる。本実施形態において前記フォントレンダリングシステムFRDSTMがサポートするフォントタイプは、基本的にオープンタイプ(従来一般的に使われるフォントタイプ)である。しかし、それに限らず図11に示したアドバンストエレメントディレクトリADVELの下にあるフォントファイルFONTを利用して、前記フォントファイルFONTに対応したフォントタイプの形でテキストイメージを作成することもできる。 In this embodiment, the alpha map generation AMGRT can not only uniformly set the transparency of the entire text image (image image) created by the decoder DECDER at the preceding stage, but also can set the transparency in the text image (image image). It can also be changed partially. In this embodiment, the pixel buffer PIXBUF can also be used at the stage of conversion from a text character to a text image (image image) by the decoder DECDER. In the present embodiment, the font type supported by the font rendering system FRDSTM is basically an open type (a font type generally used in the past). However, the present invention is not limited to this, and a text image can be created in the form of a font type corresponding to the font file FONT using the font file FONT under the advanced element directory ADVEL shown in FIG.
<セカンダリービデオプレーヤ(Secondary Video Player)>
図14に示すようにアドバンストコンテンツ再生部ADVPL内にプレゼンテーションエンジンPRSENが存在し、前記プレゼンテーションエンジンPRSEN内にセカンダリービデオプレーヤSCDVPが存在する(図30参照)。図35を用い本実施形態におけるセカンダリービデオプレーヤSCDVP内構造説明を行う。
<Secondary Video Player>
As shown in FIG. 14, a presentation engine PRSEN exists in the advanced content playback unit ADVPL, and a secondary video player SCDVP exists in the presentation engine PRSEN (see FIG. 30). The internal structure of the secondary video player SCDVP in this embodiment will be described with reference to FIG.
図10に示すようにセカンダリービデオセットSCDVSにはサブスティテュートオーディオビデオSBTAV、サブスティテュートオーディオSBTAD、とセカンダリーオーディオビデオSCDAVが含まれるが、これらの再生処理を行う部分が前記セカンダリービデオプレーヤSCDVPである。前記セカンダリービデオセットSCDVSの再生表示オブジェクトは、情報記憶媒体DISC、ネットワークサーバNTSRVおよびパーシステントストレージPRSTRのいずれ内に保存しておくことができる。図16に示す表示画面例のようにプライマリービデオセットPRMVSとセカンダリービデオセットSCDVSとを同時に同一画面上に表示する場合には、前記セカンダリービデオセットSCDVSの表示再生オブジェクトを事前にファイルキャッシュFLCCH内に保存し、セカンダリービデオセットSCDVSからは前記ファイルキャッシュFLCCHから再生する必要がある。例えば同一の情報記憶媒体DISC内にプライマリービデオセットPRMVSとセカンダリービデオセットSCDVSが異なる場所に記録されている場合、両者を同時に再生しようとすると図1に示す情報記録再生装置1内の情報記録再生部2の中に存在する光学ヘッド(図示していないが)がプライマリービデオセットPRMVSの記録場所とセカンダリービデオセットSCDVSの記録場所間を交互のアクセス制御の繰返しが必要となり、光学ヘッドのアクセス時間の影響で両者を同時に連続再生することが難しくなる。それを回避するため本実施形態ではセカンダリービデオセットSCDVSをファイルキャッシュFLCCH内に保存しておき、情報記録再生部2内の光学ヘッドはプライマリービデオセットPRMVSのみを再生できるようにする。その結果、光学ヘッドのアクセス回数が大幅に低減しプライマリービデオセットPRMVSとセカンダリービデオセットSCDVSとを連続に同一画面上に表示することが可能となる。また、ネットワークサーバNTSRV内に記録されたセカンダリービデオセットSCDVSをセカンダリービデオプレーヤSCDVPで再生処理する場合には、セカンダリービデオプレーヤSCDVP内のデマルチプレクサDEMUXにデータを転送する前に、事前にデータキャッシュDTCCH内のストリーミングバッファSTRBUF内にセカンダリービデオセットSCDVSを保存しておく必要がある(図25参照)。それにより、ネットワーク経路の転送レートの変動が生じても転送するデータの枯渇を防止することができる。基本的にはネットワークサーバNTSRV内に保存されたセカンダリービデオセットSCDVSは、データキャッシュDTCCH内のストリーミングバッファSTRBUF内に事前に保存されるが、本実施形態ではそれに限らずセカンダリービデオセットSCDVSのデータサイズが小さい場合には、データキャッシュDTCCH内のファイルキャッシュFLCCH内に保存することもできる。この場合には、データキャッシュDTCCH内のファイルキャッシュFLCCHからセカンダリービデオセットSCDVSがデマルチプレクサDEMUXへ転送される。図35に示すようにセカンダリービデオプレーヤSCDVPは、セカンダリービデオプレイバックエンジンSVPBENとデマルチプレクサDEMUXから構成される。図10に示すようにセカンダリービデオセットSCDVS内にはメインオーディオMANADとメインビデオMANVDがパック単位で多重化され、データが記録される(サブビデオSUBVDとサブオーディオSUBADについてもパック単位で多重化され記録されている)。デマルチプレクサDEMUXで、それらのデータをパック毎に分割しデコーダーエンジンDCDENに転送する。すなわちデマルチプレクサDEMUXで抽出されたサブピクチャーパックSP_PCKはサブピクチャーデコーダーSPDECに転送され、サブオーディオパックAS_PCKはサブオーディオデコーダーSADECに転送され、サブビデオパックVS_PCKはサブビデオデコーダーSVDECに転送され、メインオーディオパックAM_PCKはメインオーディオデコーダーMADECに転送されるとともにメインビデオVM_PCKにはメインビデオデコーダーMVDEDに転送される。
As shown in FIG. 10, the secondary video set SCDVS includes a substitute audio video SBTAV, a substitute audio SBTAD, and a secondary audio video SCDAV. The portion that performs the reproduction processing is the secondary video player SCDVP. The reproduction display object of the secondary video set SCDVS can be stored in any of the information storage medium DISC, the network server NTSRV, and the persistent storage PRSTR. When the primary video set PRMVS and the secondary video set SCDVS are simultaneously displayed on the same screen as in the display screen example shown in FIG. 16, the display playback object of the secondary video set SCDVS is stored in the file cache FLCCH in advance. However, it is necessary to reproduce from the file cache FLCCH from the secondary video set SCDVS. For example, when the primary video set PRMVS and the secondary video set SCDVS are recorded in different locations in the same information storage medium DISC, if both are to be played back simultaneously, the information recording / playback unit in the information recording /
<セカンダリービデオプレイバックエンジン(Secondary Video Playback Engine)>
図35に示すセカンダリービデオプレイバックエンジンSVPBENは、セカンダリービデオプレーヤSCDVPにおける全ての機能モジュールの制御処理を行う。このセカンダリービデオプレイバックエンジンSVPBENの制御は図28に示すナビゲーションマネージャNVMNG内のプレイリストマネージャPLMNGからのリクエストに応じて処理を行う。セカンダリービデオセットSCDVSの再生表示を行う場合には、図12に示すようにプレイリストPLLSTがセカンダリービデオセットSCDVSのタイムマップSTMAPを参照することを既に説明した。前記セカンダリービデオプレイバックエンジンSVPBENは、前記セカンダリービデオセットSCDVSのタイムマップSTMAPファイルを再生すると共に内容解析を行い、セカンダリーエンハンストビデオオブジェクトデータS-EVOBの最適な再生開始位置を算出し、情報記録再生部2(図1参照)内の光学ヘッドに対するアクセス指示を行う。
<Secondary Video Playback Engine>
The secondary video playback engine SVPBEN shown in FIG. 35 performs control processing for all functional modules in the secondary video player SCDVP. Control of the secondary video playback engine SVPBEN performs processing in response to a request from the playlist manager PLMNG in the navigation manager NVMNG shown in FIG. When the secondary video set SCDVS is reproduced and displayed, it has already been described that the playlist PLLST refers to the time map STMAP of the secondary video set SCDVS as shown in FIG. The secondary video playback engine SVPBEN reproduces the time map STMAP file of the secondary video set SCDVS and performs content analysis, calculates an optimal playback start position of the secondary enhanced video object data S-EVOB, and an information recording / playback unit 2 (see FIG. 1) is instructed to access the optical head.
<デマルチプレクサ(Demux)>
セカンダリービデオプレーヤSCDVP内のデマルチプレクサDEMUXは、セカンダリーエンハンストビデオオブジェクトデータS-EVOBストリームを再生し、各パック毎に分割し、前述したようにデコーダーエンジンDCDEN内の各種デコーダーにパック単位でデータを転送する。デマルチプレクサDEMUXがデコーダーエンジンDCDENに各パックを転送する時には、デコーダーエンジンDCDEN内に含まれる標準クロックのシステムクロックタイミング(SCRタイミング)に合わせ、各パック内に記述されたDTS(デコーディングタイムスタンプ)のタイミングで各種デコーダーへ転送される。
<Demux>
The demultiplexer DEMUX in the secondary video player SCDVP reproduces the secondary enhanced video object data S-EVOB stream, divides it into each pack, and transfers the data in pack units to the various decoders in the decoder engine DCDEN as described above. . When the demultiplexer DEMUX transfers each pack to the decoder engine DCDEN, the DTS (decoding time stamp) described in each pack is matched with the system clock timing (SCR timing) of the standard clock included in the decoder engine DCDEN. It is transferred to various decoders at timing.
<プライマリービデオプレーヤ(Primary Video Player)>
図1に示すアドバンストコンテンツ再生部ADVPL内には、図14に示すようにプレゼンテーションエンジンPRSENが存在する。図30に示すように前記プレゼンテーションエンジンPRSEN内にプライマリービデオプレーヤPRMVPが存在するが、その内部構造を図36に示す。
<Primary Video Player>
In the advanced content playback unit ADVPL shown in FIG. 1, a presentation engine PRSEN exists as shown in FIG. As shown in FIG. 30, the primary video player PRMVP exists in the presentation engine PRSEN, and its internal structure is shown in FIG.
本実施形態においてプライマリービデオプレーヤPRMVPは、プライマリービデオセットPRMVSの再生に対応している。前記プライマリービデオセットPRMVSは情報記憶媒体DISC内にのみ保存される。図36に示すようにプライマリービデオプレーヤPRMVPは、DVDプレイバックエンジンDPBKENとデマルチプレクサDEMUXから構成される。図10に示すようにプライマリービデオセットPRMVSの各種のデータタイプには、メインビデオMANVDから副映像SUBPTに至る各種のデータタイプが存在する。デマルチプレクサDEMUXはそれらの各種のデータタイプに応じてデコーダーエンジンDCDEN内の対応したデコーダーに接続されている。すなわち、プライマリーエンハンストビデオオブジェクトデータP-EVOB内に存在するサブピクチャーパックSP_PCKは、サブピクチャーデコーダーSPDEC内へ転送され、サブオーディオパックAS_PCKはサブオーディオデコーダーSADECに転送され、サブビデオパックVS_PCKはサブビデオデコーダーSVDECに転送され、メインビデオパックAM_PCKはメインオーディオデコーダーMADECに転送されるとともに、メインビデオパックVM_PCKは、メインビデオデコーダーMADECへ転送される。 In the present embodiment, the primary video player PRMVP supports playback of the primary video set PRMVS. The primary video set PRMVS is stored only in the information storage medium DISC. As shown in FIG. 36, the primary video player PRMVP includes a DVD playback engine DPBKEN and a demultiplexer DEMUX. As shown in FIG. 10, the various data types of the primary video set PRMVS include various data types from the main video MANVD to the sub video SUBPT. The demultiplexer DEMUX is connected to a corresponding decoder in the decoder engine DCDEN according to their various data types. That is, the sub-picture pack SP_PCK existing in the primary enhanced video object data P-EVOB is transferred into the sub-picture decoder SPDEC, the sub-audio pack AS_PCK is transferred to the sub-audio decoder SADEC, and the sub-video pack VS_PCK is sub-video decoder. The main video pack AM_PCK is transferred to the SVDEC, the main video pack AM_PCK is transferred to the main audio decoder MADEC, and the main video pack VM_PCK is transferred to the main video decoder MADEC.
<DVDプレイバックエンジン(DVD Playback Engine)>
図28に示すように、ナビゲーションマネージャNVMNG内にはプレイリストファイルPLLSTの内容を解析するプレイリストマネージャPLMNGが存在する。前記プレイリストマネージャPLMNGからの要求に対応して、プライマリービデオプレーヤPRMVP内のあらゆる機能モジュールの制御に対応する部分が図36に示すDVDプレイバックエンジンDPBKENである。まず、前記DVDプレイバックエンジンDPBKENはプレイバックに関する管理情報(図11に示すプレイリストファイルPLLSTとビデオタイトルセットインフォメーションファイルADVTSI)の内容を解析し、プライマリービデオセットディレクトリPRMAVの下にあるタイムマップファイルPTMAPを利用し、プライマリーエンハンストビデオオブジェクトデータP-EVOB内の再生開始位置へアクセス制御する。また、それのみならず前記DVDプレイバックエンジンDPBKENは例えばマルチアングル、オーディオ、サブピクチャーのトラック(ストリーム)切替え、サブビデオSUBVDやサブオーディオSUBADを用いた2画面同時再生などプライマリービデオセットPRMVSの特殊な再生機能の制御も行う。
<DVD Playback Engine>
As shown in FIG. 28, the navigation manager NVMNG includes a playlist manager PLMNG that analyzes the contents of the playlist file PLLST. The part corresponding to the control of all functional modules in the primary video player PRMVP in response to the request from the playlist manager PLMNG is the DVD playback engine DPBKEN shown in FIG. First, the DVD playback engine DPBKEN analyzes the contents of management information relating to playback (a playlist file PLLST and a video title set information file ADVTSI shown in FIG. 11), and a time map file PTMAP under the primary video set directory PRMAV. Is used to control access to the playback start position in the primary enhanced video object data P-EVOB. In addition, the DVD playback engine DPBKEN has special features of the primary video set PRMVS such as multi-angle, audio, sub-picture track (stream) switching, and simultaneous playback of two screens using sub-video SUBVD and sub-audio SUBAD. It also controls playback functions.
<デマルチプレクサ(Demux)>
デマルチプレクサDEMUXは、プライマリーエンハンストビデオオブジェクトデータP-EVOB内に分散配置されている各種ストリーム(パック)データを、プライマリービデオプレーヤPRMVPに接続されているデコーダーエンジンDCDEN内の対応したデコーダーへ転送しデコード処理をさせる。図示していないが、プライマリーエンハンストビデオオブジェクトデータP-EVOB内の各パックPCK内にはDTS(デコーディングタイムスタンプ)の情報が含まれており、システムクロック(SCR)のタイミングに合わせ、指定されたDTSの時刻に各パック情報を各種デコーダーへ送り込んでいる。マルチアングルストリームに対しては、プライマリービデオセットのタイムマップファイルPTMAP内の情報またはナビゲーションパックNV_PCKの情報に対応して、情報記憶媒体DISC内に記録されたプライマリーエンハンストビデオオブジェクトデータP-EVOBのインターリーブドブロック内の適正なデータを再生する処理をデマルチプレクサDEMUXが対応している。
<Demux>
The demultiplexer DEMUX transfers various stream (pack) data distributed in the primary enhanced video object data P-EVOB to the corresponding decoder in the decoder engine DCDEN connected to the primary video player PRMVP for decoding processing. Let Although not shown, each pack PCK in the primary enhanced video object data P-EVOB contains DTS (decoding time stamp) information, which is specified according to the system clock (SCR) timing. Each pack information is sent to various decoders at the time of DTS. For multi-angle streams, the interleaved primary enhanced video object data P-EVOB recorded in the information storage medium DISC corresponding to the information in the time map file PTMAP of the primary video set or the information in the navigation pack NV_PCK. The demultiplexer DEMUX supports the process of reproducing the appropriate data in the block.
<デコーダー(Decoder)>
図14に示すように本実施形態におけるアドバンストコンテンツ再生部ADVPL内にプレゼンテーションエンジンPRSENが存在し、図30に示すようにプレゼンテーションエンジンPRSEN内にデコーダーエンジンDCDENが存在する。前記デコーダーエンジンDCDEN内は図37に示すようにサブオーディオデコーダーSADEC、サブビデオデコーダーSVDEC、メインオーディオデコーダーMADEC、メインビデオデコーダーMVDECとサブピクチャーデコーダーSPDECの5種類のデコーダーから構成されている。また、各デコーダーにはそれぞれサブオーディオバッファSABUF、サブビデオバッファSVBUF、メインオーディオバッファMABUF、メインビデオバッファMVBUFとサブピクチャーバッファSPBUFが存在する。また、サブビデオデコーダーSVDECとメインビデオデコーダーMVDEC及びサブピクチャーデコーダーSPDECには、画面上の表示サイズと表示場所を設定するスケーラーSCALERが付属されている。各デコーダーはプライマリービデオプレーヤPRMVP内のDVDプレイバックエンジンDPBKENと接続されるとともにその制御を受けるばかりでなく、またセカンダリービデオプレーヤSCDVP内のセカンダリービデオプレイバックエンジンSVPBENと接続されるとともにその制御を受ける。
<Decoder>
As shown in FIG. 14, the presentation engine PRSEN exists in the advanced content playback unit ADVPL in this embodiment, and the decoder engine DCDEN exists in the presentation engine PRSEN as shown in FIG. As shown in FIG. 37, the decoder engine DCDEN comprises five types of decoders: a sub audio decoder SADEC, a sub video decoder SVDEC, a main audio decoder MADEC, a main video decoder MVDEC, and a sub picture decoder SPDEC. Each decoder has a sub audio buffer SABUF, a sub video buffer SVBUF, a main audio buffer MABUF, a main video buffer MVBUF, and a sub picture buffer SPBUF. The sub video decoder SVDEC, main video decoder MVDEC, and sub picture decoder SPDEC are provided with a scaler SCALER for setting the display size and display location on the screen. Each decoder is not only connected to and controlled by the DVD playback engine DPBKEN in the primary video player PRMVP, but also connected to and controlled by the secondary video playback engine SVPBEN in the secondary video player SCDVP.
プライマリービデオセットPRMVSとセカンダリービデオセットSCDVSは図10内のデータタイプ欄に記載された各種のデータを持っている。 The primary video set PRMVS and the secondary video set SCDVS have various data described in the data type column in FIG.
プライマリービデオセットPRMVSに含まれる各データは、プライマリービデオプレーヤPRMVP内のデマルチプレクサDEMUXからそれぞれ5種類のストリームに分離されて出力される。各ストリームの処理方法について以下に説明する。メインビデオMANVDのデータが記録されているメインビデオパックVM_PCKは、メインビデオバッファMVBUFを経由しメインビデオデコーダーMVDEC内でデコード処理される。また、メインオーディオMANADのデータが記録されたメインオーディオパックAM_PCKは、メインオーディオバッファMABUFを経由し、メインオーディオデコーダーMADEC内でデコード処理される。また、サブビデオSUBVDのデータが記録されたサブビデオパックVS_PCKは、サブビデオバッファSVBUFを経由し、サブビデオデコーダーSVDEC内でデコード処理される。また、サブオーディオSUBADのデータが記録されたサブオーディオパックAS_PCKは、サブオーディオバッファSABUFを経由し、サブオーディオデコーダーMADEC内でデコード処理される。最後に副映像SUBPTのデータが記録された副映像パックSP_PCKは、サブビデオバッファSVBUFを経由し、サブピクチャーデコーダーSPDEC内でデコード処理される。 Each data included in the primary video set PRMVS is separated into five types of streams from the demultiplexer DEMUX in the primary video player PRMVP and output. A method for processing each stream will be described below. The main video pack VM_PCK in which the data of the main video MANVD is recorded is decoded in the main video decoder MVDEC via the main video buffer MVBUF. The main audio pack AM_PCK in which the data of the main audio MANAD is recorded is decoded in the main audio decoder MADEC via the main audio buffer MABUF. The sub video pack VS_PCK in which the data of the sub video SUBVD is recorded is decoded in the sub video decoder SVDEC via the sub video buffer SVBUF. The sub audio pack AS_PCK in which the data of the sub audio SUBAD is recorded is decoded in the sub audio decoder MADEC via the sub audio buffer SABUF. Finally, the sub-picture pack SP_PCK in which the sub-picture SUBPT data is recorded is decoded in the sub-picture decoder SPDEC via the sub-video buffer SVBUF.
同様にセカンダリービデオセットSCDVSに含まれる各データは、セカンダリービデオプレーヤSCDVP内のデマルチプレクサDEMUXからそれぞれ4種類のストリームに分離され出力される。各ストリームの処理方法について以下に説明する。サブスティテュートオーディオSBTADまたはサブスティテュートオーディオビデオSBTAV内に含まれるメインオーディオMANADのデータが記録されたメインオーディオパックAM_PCKは、メインオーディオバッファMABUFを経由し、メインオーディオデコーダーMADEC内でデコード処理される。また、サブスティテュートオーディオビデオSBTAV内のメインビデオMANVDのデータが記録されたメインビデオパックVM_PCKは、メインビデオバッファMVBUFを経由し、メインビデオデコーダーMVDEC内でデコード処理される。また、セカンダリーオーディオビデオSCDAV内のサブビデオSUBVDのデータが記録されたサブビデオパックVS_PCKは、サブビデオバッファSVBUFを経由し、サブビデオデコーダーSVDEC内でデコード処理される。最後にセカンダリーオーディオビデオSCDAV内のサブオーディオSUBADのデータが記録されたサブオーディオパックAS_PCKはサブオーディオバッファSABUFを経由し、サブオーディオデコーダーSADEC内でデコード処理される。 Similarly, each data included in the secondary video set SCDVS is separated into four types of streams from the demultiplexer DEMUX in the secondary video player SCDVP and output. A method for processing each stream will be described below. The main audio pack AM_PCK in which the data of the main audio MANAD included in the substitute audio SBTAD or the substitute audio video SBTAV is recorded is decoded in the main audio decoder MADEC via the main audio buffer MABUF. The main video pack VM_PCK in which the data of the main video MANVD in the substitute audio video SBTAV is recorded is decoded in the main video decoder MVDEC via the main video buffer MVBUF. Further, the sub video pack VS_PCK in which the data of the sub video SUBVD in the secondary audio video SCDAV is recorded is decoded in the sub video decoder SVDEC via the sub video buffer SVBUF. Finally, the sub audio pack AS_PCK in which the data of the sub audio SUBAD in the secondary audio video SCDAV is recorded is decoded in the sub audio decoder SADEC via the sub audio buffer SABUF.
<サブピクチャーデコーダー(Subpicture Decoder)>
図37に示すプライマリービデオプレーヤPRMVP内のDVDプレイバックエンジンDPBKEN、またはセカンダリービデオプレーヤSCDVP内のセカンダリービデオプレイバックエンジンSVPBENからのリクエストに対応して、サブピクチャーデコーダーSPDECはサブピクチャーストリームのデコード処理を行う。図39の所で表示画面上の各画面レイヤーについて説明してあるが、前記サブピクチャーデコーダーSPDECの出力はサブピクチャープレインSBPCPL上に表示される。また、本実施形態においては前記サブピクチャープレインSBPCPL内では副映像SUBPTと、アドバンストサブタイトルADSBTのデコード結果を共通に(2者択一的に)表示する。前記アドバンストサブタイトルADSBTは、図30に示すアドバンストサブタイトルプレーヤASBPL内でデコード処理され出力される。
<Subpicture Decoder>
In response to a request from the DVD playback engine DPBKEN in the primary video player PRMVP shown in FIG. 37 or the secondary video playback engine SVPBEN in the secondary video player SCDVP, the sub-picture decoder SPDEC performs decoding processing of the sub-picture stream. . 39, each screen layer on the display screen is described. The output of the sub picture decoder SPDEC is displayed on the sub picture plane SBPCPL. In this embodiment, the sub-picture plane SBPCPL displays the sub-picture SUBPT and the decoding result of the advanced subtitle ADSBT in common (or alternatively). The advanced subtitle ADSBT is decoded and output in the advanced subtitle player ASBPL shown in FIG.
<Sub Audio Decoder>
サブオーディオデコーダーSADECは、サブオーディオSUBADと呼ばれるオーディオストリームのデコーディングを処理する。本実施形態においてサブビデオデコーダーSVDECは、最大2チャンネルまでの対応を可能とすると共にサンプルレートを48kHz以下にしている。このようにサブオーディオデコーダーSADECの性能を低く抑えることにより、デコーダーエンジンDCDEN内の製造コストを安く抑えることができる。また、前記サブオーディオデコーダーSADECから出力されるオーディオストリームは、サブオーディオストリームSUBADと呼ばれている。
<Sub Audio Decoder>
The sub audio decoder SADEC processes decoding of an audio stream called sub audio SUBAD. In the present embodiment, the sub video decoder SVDEC can handle up to two channels and the sample rate is 48 kHz or less. Thus, by suppressing the performance of the sub audio decoder SADEC to a low level, the manufacturing cost in the decoder engine DCDEN can be reduced. An audio stream output from the sub audio decoder SADEC is called a sub audio stream SUBAD.
<サブビデオデコーダー(Sub Video Decoder)>
サブビデオデコーダーSVDECは、サブビデオSUBVDと呼ばれるビデオストリームのデコード処理をサポートする。前記サブビデオデコーダーSVDECは、SD(スタンダードデフィニション)の解像度のサポートを必須とし、オプションとしてHD(ハイデフィニション)の解像度もサポート可能にしている。前記サブビデオデコーダーSVDECから出力されるデータは、サブビデオプレインSBVDPL(図39参照)上に表示される。
<Sub Video Decoder>
The sub video decoder SVDEC supports a video stream decoding process called sub video SUBVD. The sub video decoder SVDEC is required to support SD (standard definition) resolution, and can optionally support HD (high definition) resolution. Data output from the sub video decoder SVDEC is displayed on the sub video plane SBVDPL (see FIG. 39).
<サブビデオデコーダーのスケーリング機能(Scaling Function in Sub Video Decorder)>
サブビデオデコーダーSVDECの出力側に存在するスケーラーSCALERは以下の3種類の機能を持っている。
<Scaling Function in Sub Video Decorder>
The scaler SCALER present on the output side of the sub video decoder SVDEC has the following three functions.
1) 出力に必要なディスプレイ解像度に合わせて、サブビデオSUBVDの解像度を変化させる。 1) Change the resolution of the sub video SUBVD according to the display resolution required for output.
図1に示す大画面テレビモニタ15に出力される時の理想的なサブビデオSUBVDの解像度が決まっている場合、どのような大画面テレビモニタ15の解像度にも対応するように前記スケーラーSCALERによりデコードされたサブビデオSUBVDの解像度変化を行う。
If the resolution of the ideal sub-video SUBVD when it is output to the large-
2) 表示するアスペクト比に合わせたスケーリング機能
大画面テレビモニタ15に表示される画面のアスペクト比が元々サブビデオSUBVDで表示すべきアスペクト比と異なっていた場合には、アスペクト比変換を行い大画面テレビモニタ15に最適な形で表示するような処理を行う。
2) Scaling function according to the aspect ratio to be displayed If the aspect ratio of the screen displayed on the large-
3) APIコマンドに基づくスケーリング処理
図39に示した例のように、サブビデオSUBVDとしてコマーシャル用の別画面32を同一画面上の一部に表示する場合、アドバンストアプリケーションADAPLに基づくAPIコマンドにより、前記コマーシャル用の別画面32(サブビデオSUBVD)のサイズを設定することができる。このように本実施形態ではAPIコマンドに基づき、前記スケーラーSCALER内で最適な表示画面サイズを設定する。この場合には元々設定されていたサブビデオSUBVDのアスペクト比は、変わらず全体のサイズのみが変化される形となる。
3) Scaling processing based on API command As shown in the example shown in FIG. 39, when another
<メインオーディオデコーダー(Main Audio Decoder)>
本実施形態においてメインオーディオデコーダーMADEC内は、7.1チャンネルまでのマルチチャンネルオーディオとサンプリングレート192kHzまでの音声に対してデコードをサポートする。前記、メインオーディオデコーダーMADECでデコードされたデータをメインオーディオMANADと呼ぶ。
<Main Audio Decoder>
In the present embodiment, the main audio decoder MADEC supports decoding for multi-channel audio up to 7.1 channels and audio up to a sampling rate of 192 kHz. The data decoded by the main audio decoder MADEC is called main audio MANAD.
<メインビデオデコーダー(Main Video Decoder)>
メインビデオデコーダーMVDECは、HD(ハイデフィニション)の解像度をサポートすることができ、デコードされた映像情報はメインビデオMANVDと呼ばれている。このようにメインビデオデコーダーMVDECで高解像度のデコードを可能とすることによりユーザ要求に応じた高画質を可能とする。さらにそれと平行してサブビデオデコーダーSVDECを持つことで、同時に2画面表示が可能になるばかりでなく、サブビデオデコーダーSVDECのデコード能力を制限することにより、デコーダーエンジンDCDENの価格を抑えることができる。前記メインビデオデコーダーMVDECでデコードされた画面は、メインビデオプレインMNVDPL(図39参照)上に表示される。メインビデオデコーダーMVDECはメインビデオMANVDをデコードするが、本実施形態においてデコード後の映像の表示サイズは、アパーチャーAPTR(図40参照)と呼ばれるグラフィックプレインGRPHPL(図39参照)上のサイズと一致しなければならない。また、本実施形態ではナビゲーションマネージャNVMNGから与えられるポジションインフォメーションPOSITIとスケールインフォメーションSCALEIに対応し(図41参照)、デコード後のメインビデオMANVDはスケーラーSCALERにより、前記アパーチャーAPTR上の適正なサイズにスケーリングされるとともに前記アパーチャーAPTR上の適正な位置に配置される。また、前記ナビゲーションマネージャNVMNGから転送されるスケール情報の中には、メインビデオプレインMNVDPLの画面の枠を表示する枠部分の色に対する情報も含まれる。本実施形態においては、前記枠組みの色はデフォルト状態において、“0,0,0”(黒色)として設定されている。
<Main Video Decoder>
The main video decoder MVDEC can support HD (high definition) resolution, and the decoded video information is called main video MANVD. In this way, the main video decoder MVDEC enables high-resolution decoding, thereby enabling high image quality according to user requirements. Furthermore, by having the sub video decoder SVDEC in parallel therewith, not only can two screens be displayed at the same time, but also the price of the decoder engine DCDEN can be reduced by limiting the decoding capability of the sub video decoder SVDEC. The screen decoded by the main video decoder MVDEC is displayed on the main video plane MNVDPL (see FIG. 39). The main video decoder MVDEC decodes the main video MANVD. In this embodiment, the display size of the decoded video must match the size on the graphic plane GRPHPL (see FIG. 39) called the aperture APTR (see FIG. 40). I must. In this embodiment, the position information POSITI and scale information SCALEI given from the navigation manager NVMNG are supported (see FIG. 41), and the decoded main video MANVD is scaled to an appropriate size on the aperture APTR by the scaler SCALER. And arranged at an appropriate position on the aperture APTR. Further, the scale information transferred from the navigation manager NVMNG includes information on the color of the frame portion that displays the frame of the screen of the main video plane MNVDPL. In the present embodiment, the color of the frame is set as “0, 0, 0” (black) in the default state.
<メインビデオデコーダーのスケーリング機能(Scaling Function in Main Video Decoder)>
メインビデオデコーダーMVDECの出力側に存在するスケーラーSCALERは、以下に述べる3種類の機能を持っている。
<Scaling Function in Main Video Decoder>
The scaler SCALER present on the output side of the main video decoder MVDEC has the following three functions.
1) 出力に必要なディスプレイ解像度に合わせて、メインビデオMANVDの解像度を変化させる。 1) Change the resolution of the main video MANVD according to the display resolution required for output.
図1に示す大画面テレビモニタ15に出力される時の理想的なメインビデオMANVDの解像度が決まっている場合、どのような大画面テレビモニタ15(図1参照)にも対応するように前記スケーラーSCALERによりデコードされたサブビデオSUBVDメインビデオMANVDを行う。
If the resolution of the ideal main video MANVD when it is output to the large-
2) 表示するアスペクト比に合わせたスケーリング機能
大画面テレビモニタ15に表示される画面のアスペクト比が元々メインビデオMANVDで表示すべきアスペクト比と異なった場合、大画面テレビモニタ15に最適な形で表示するようにアスペクト比の変換処理を行う。
2) Scaling function according to the aspect ratio to be displayed When the aspect ratio of the screen displayed on the large-
3) APIコマンドに基づくスケーリング処理
図39に示すようにメインビデオMANVD(本編31)を表示する場合、アドバンストアプリケーションADAPLに対応したAPIコマンドによりメインビデオMANVD(本編31)のサイズを指定することができる。このようにAPIコマンドに基づき、前記スケーラーSCALER内で最適な画面サイズを設定する場合には、元々設定されていたメインビデオMANVDのアスペクト比は、元のまま変わらずに全体のサイズのみが変化される(APIコマンドによっては特定のアスペクト比への変換は許されない)ことになる。この場合デフォルト状態において、メインビデオMANVDはフルスクリーンに表示されるように設定されている。例えばアスペクト比が4:3の場合にはワイド画面に表示すると幅が狭くなるので、ワイド画面上の中央部に幅の狭い表示画面が表示される。また、特にアパーチャーAPTRのサイズを「1920×1080」もしくは「1280×720」と設定した場合(ワイド画面対応)には、ワイド画面全体に表示される。
<AVレンダラー(AV Renderer)>
図1に示すように情報記録再生装置1内にはアドバンストコンテンツ再生部ADVPLが存在するが、図14に示すように前記アドバンストコンテンツ再生部ADVPL内には、AVレンダラーAVRNDが存在する。前記AVレンダラーAVRNDは図38に示すように、グラフィックレンダリングエンジンGHRNENとオーディオミキシングエンジンADMXENから構成されている。グラフィックレンダリングエンジンGHRNENは、図14に示すナビゲーションマネージャNVMNGとプレゼンテーションエンジンPRSENから来る情報を元にグラフィックプレインGRPHPL(図39参照)上での画像の合成処理を行う。また、前記オーディオミキシングエンジンADMXENでは、プレゼンテーションエンジンPRSENから来る音声情報(PCMストリーム)を合成し、合成された音声情報を出力する。
3) Scaling processing based on API command When displaying the main video MANVD (main part 31) as shown in FIG. 39, the size of the main video MANVD (main part 31) can be designated by an API command corresponding to the advanced application ADAPL. . In this way, when setting the optimal screen size in the scaler SCALER based on the API command, the aspect ratio of the main video MANVD that was originally set remains unchanged and only the overall size is changed. (Conversion to a specific aspect ratio is not permitted for some API commands). In this case, the main video MANVD is set to be displayed on the full screen in the default state. For example, when the aspect ratio is 4: 3, the width becomes narrow when displayed on a wide screen, and therefore a narrow display screen is displayed at the center of the wide screen. In particular, when the aperture APTR size is set to “1920 × 1080” or “1280 × 720” (compatible with a wide screen), it is displayed on the entire wide screen.
<AV Renderer>
As shown in FIG. 1, an advanced content playback unit ADVPL exists in the information recording /
<グラフィックレンダリングエンジン(Graphic Rendering Engine)>
ユーザに表示する画面は図39で詳しく説明するように、カーソルプレインCRSRPL、グラフィックプレインGHRHPL、サブピクチャープレインSBPCPL、サブビデオプレインSBVDPLとメインビデオプレインMDVDPLの5プレインから構成されており、前記グラフィックレンンダリングエンジンGHRNEN上で前記5プレインを合成処理する。図38に示すプレゼンテーションエンジンPRSENは、グラフィックプレインGHRHPL、サブピクチャープレインSBPCPL、サブビデオプレインSBVDPLとメインビデオプレインMNVDPLの各プレイン上の画像を作成し、グラフィックレンダリングエンジンGHRNENへ転送する。前記グラフィックレンダリングエンジンGHRNEN内では新たにカーソルプレインCRSRPLを作成する。前記グラフィックレンダリングエンジンGHRNEN内でカーソルイメージCRSIMGを作成するとともにナビゲーションマネージャNVMNGから送られてくるカーソルのカーソルイメージCRSIMGの位置情報に基づいてカーソルプレインCRSRPL上にカーソルイメージCRSIMGを配置する。その結果、前記グラフィックレンダリングエンジンGHRNENは、ナビゲーションマネージャNVMNGからの制御情報に基づき前記5プレインを合成処理した後、合成した画像をビデオ信号として出力する。
<Graphic Rendering Engine>
As will be described in detail with reference to FIG. 39, the screen displayed to the user is composed of five planes: a cursor plane CRSRPL, a graphic plane GHRHPL, a sub-picture plane SBPCPL, a sub-video plane SBVDPL, and a main video plane MDVDPL. The 5 planes are synthesized on the engine GHRNEN. The presentation engine PRSEN shown in FIG. 38 creates images on each of the graphic plane GHRHPL, the sub-picture plane SBPCPL, the sub-video plane SBVDPL, and the main video plane MNVDPL, and transfers them to the graphic rendering engine GHRNEN. A cursor plane CRSRPL is newly created in the graphic rendering engine GHRNEN. A cursor image CRSIMG is created in the graphic rendering engine GHRNEN, and the cursor image CRSIMG is arranged on the cursor plane CRSRPL based on the position information of the cursor image CRSIMG of the cursor sent from the navigation manager NVMNG. As a result, the graphic rendering engine GHRNEN combines the five planes based on the control information from the navigation manager NVMNG, and then outputs the combined image as a video signal.
<オーディオミキシングエンジン(Audio Mixing Engine)>
オーディオミキシングエンジンADMXENは、プレゼンテーションエンジンPRSENから送られてくる最大3種類までのリニアPCMストリームを同時に受取り、音声合成することができる。その時、前記オーディオミキシングエンジンADMXENは、ナビゲーションマネージャNVMNGから与えられるミキシングレベル情報に基づき前記リニアPCMストリーム毎の音量設定をした後出力する。
<Audio Mixing Engine>
The audio mixing engine ADMXEN can simultaneously receive and synthesize up to three types of linear PCM streams sent from the presentation engine PRSEN. At that time, the audio mixing engine ADMXEN sets the volume for each linear PCM stream based on the mixing level information given from the navigation manager NVMNG and outputs the result.
<ビデオ合成モデル(Video Compositing Model)>
図39に示すように本実施形態において表示画面上では画面がカーソルプレインCRSRPL、グラフィックプレインGRPHPL、サブピクチャープレインSBPCPL、サブビデオプレインSBVDPLとメインビデオプレインMNVDPLの5画面レイヤーから構成されている。本実施形態において、カーソルプレインCRSRPLである1画面レイヤーは、AVレンダラーAVRND内のグラフィックレンダリングエンジンGHRNEN(図41参照)内で作成される。また、図39におけるグラフィックプレインGRPHPL、サブピクチャープレインSBPCPL、サブビデオプレインSBVDPLとメインビデオプレインMNVDPLの4画面レイヤーはプレゼンテーションエンジンPRSEN(図41参照)内で作成される。前記グラフィックレンダリングエンジンGHRNENに入力されるプレゼンテーションエンジンPRSEN内で作成されるグラフィックプレインGRPHPL、サブピクチャープレインSBPCPL、サブビデオプレインSBVDPLとメインビデオプレインMNVDPLの4画面レイヤーのフレームレートはそれぞれ独自に設定することが可能となっている。すなわち、プレゼンテーションエンジンPRSEN内のアドバンストアプリケーションプレゼンテーションエンジンAAPENから出力される映像のフレームレートとアドバンストサブタイトルプレーヤASBPLから出力される映像のフレームレートとセカンダリービデオプレーヤSCDVPから出力される映像のフレームレート及び、プライマリービデオプレーヤPRMVPから出力される映像のフレームレートがそれぞれ独自のフレームレートを持つことが可能となっている。図39に示すメインビデオプレインMNVDPLは、図41または図30に示すプライマリービデオプレーヤPRMVPからデコーダーエンジンDCDENを経由しスケーラーSCALERを経た後の出力として得られる。また、サブビデオプレインSBVDPLの画面レイヤーはセカンダリービデオプレーヤSCDVPからデコーダーエンジンDCDENを経た後スケーラーSCALERの出力として作成される。また、サブビデオプレインSBVDPLは、図41または図30に示すアドバンストサブタイトルプレーヤASBPLの出力またはサブピクチャーデコーダーSPDECからスケーラーSCALERを経た画面のいずれかが選択されて作成される。グラフィックプレインGRPHPLとアドバンストアプリケーションプレゼンテーションエンジンAAPENの出力として得られる。
<Video Compositing Model>
As shown in FIG. 39, in the present embodiment, on the display screen, the screen is composed of five screen layers of a cursor plane CRSRPL, a graphic plane GRPHPL, a sub-picture plane SBPCPL, a sub-video plane SBVDPL, and a main video plane MNVDPL. In the present embodiment, the one-screen layer that is the cursor plane CRSRPL is created in the graphic rendering engine GHRNEN (see FIG. 41) in the AV renderer AVRND. Also, the four screen layers of the graphic plane GRPHPL, the sub-picture plane SBPCPL, the sub-video plane SBVDPL, and the main video plane MNVDPL in FIG. 39 are created in the presentation engine PRSEN (see FIG. 41). The frame rates of the four screen layers of the graphic plane GRPHPL, sub-picture plane SBPCPL, sub-video plane SBVDPL and main video plane MNVDPL created in the presentation engine PRSEN input to the graphic rendering engine GHRNEN can be set independently. It is possible. That is, the frame rate of video output from the advanced application presentation engine AAPEN in the presentation engine PRSEN, the frame rate of video output from the advanced subtitle player ASBPL, the frame rate of video output from the secondary video player SCDVP, and the primary video Each frame rate of video output from the player PRMVP can have its own frame rate. The main video plane MNVDPL shown in FIG. 39 is obtained as an output after passing through the scaler SCALER via the decoder engine DCDEN from the primary video player PRMVP shown in FIG. The screen layer of the sub video plane SBVDPL is created as an output of the scaler SCALER after passing through the decoder engine DCDEN from the secondary video player SCDVP. Further, the sub video plane SBVDPL is created by selecting either the output of the advanced subtitle player ASBPL shown in FIG. 41 or FIG. 30 or the screen through the scaler SCALER from the sub picture decoder SPDEC. Obtained as output of graphic plane GRPHPL and advanced application presentation engine AAPEN.
以下に図39の例を用いてグラフィックプレインGRPHPL内の領域定義について説明する。図39の下側に示す合成画面はユーザが見る画面のフルサイズ画面を現している。テレビの画面に対するワイド画面や標準画面などにより最適に表示すべき画面寸法サイズ(解像度)が異なる。本実施形態ではこのユーザに表示すべき最適な画面サイズをグラフィックプレインGRPHPLで定義する。すなわち、グラフィックプレインGRPHPL上でユーザに表示する最適な画面サイズ(走査線の数とドット数で設定されるが、このユーザに表示される最適な画面サイズ(画素数)をグラフィックプレインGRPHPL上のアパーチャーAPTR(グラフィック領域)サイズとして定義する。従って、ユーザに表示する画面が高解像度の画面の場合には、グラフィックプレインGRPHPL上でのアパーチャーAPTR(グラフィック領域)のサイズが大きくなり、ユーザに表示すべき画面サイズ(解像度)が従来の標準サイズの場合には、アパーチャーAPTR(グラフィック領域)のサイズが解像度(トータル画素数)に比例して小さくなる。もし、図39に示した例と異なり、ユーザ画面上前面に亘りプライマリーオーディオビデオPRMAVのメインビデオMANVDをフル画面で表示した場合には、このメインビデオプレインMNVDPL上の画面サイズがグラフィックプレインGRPHPL上でのアパーチャーAPTR(グラフィック領域)のサイズに完全に一致する。図39に示すように、合成画面の下側領域にヘルプアイコン33からFFボタン38までに至るアドバンストアプリケーションADAPLをまとめて表示する場合には、アパーチャーAPTR(グラフィック領域)内で前記アドバンストアプリケーションADAPLをまとめて表示する領域(アプリケーション領域APPRGN)を定義したほうが表示制御し易くなる。このため本実施形態ではアドバンストアプリケーションADAPLに含まれる複数のエレメントをまとめて表示する領域としてアプリケーション領域APPRGNを定義することができる。本実施形態においては、グラフィックプレインGRPHPL上のアパーチャーAPTR(グラフィック領域)内に複数のアプリケーション領域APPRGNを設定することができる。以下の内容の詳細については図40を用いて詳細に説明する。
The area definition in the graphic plane GRPHPL will be described below using the example of FIG. The composite screen shown at the bottom of FIG. 39 represents a full-size screen that the user sees. The screen size size (resolution) that should be optimally displayed differs depending on the wide screen or standard screen of the TV screen. In the present embodiment, the optimal screen size to be displayed to the user is defined by the graphic plane GRPHPL. In other words, the optimal screen size displayed to the user on the graphic plane GRPHPL (which is set by the number of scanning lines and the number of dots). Defined as APTR (graphic area) size, so if the screen displayed to the user is a high resolution screen, the aperture APTR (graphic area) size on the graphic plane GRPHPL will be larger and should be displayed to the user When the screen size (resolution) is the conventional standard size, the size of the aperture APTR (graphic area) becomes smaller in proportion to the resolution (total number of pixels), unlike the example shown in FIG. When the main video MANVD of the primary audio video PRMAV is displayed in full screen across the top and front In FIG. 39, the screen size on the main video plane MNVDPL completely matches the size of the aperture APTR (graphic area) on the graphic plane GRPHPL. When displaying the advanced application ADAPL from to the
<グラフィックプレイン(Graphic Plane)>
図39に合成画面の画面サイズに合わせてグラフィックプレインGRPHPL上にアパーチャーAPTR(グラフィック領域)が設定できることを説明した。また前記アパーチャーAPTR(グラフィック領域)内に1以上のアドバンストアプリケーションADAPLをまとめて表示する領域として、1以上のアプリケーション領域APPRGNが設定できることを説明した。図40を用いて、より詳細な説明を行う。
<Graphic Plane>
FIG. 39 illustrates that the aperture APTR (graphic area) can be set on the graphic plane GRPHPL in accordance with the screen size of the composite screen. Further, it has been described that one or more application areas APPRGN can be set as an area for collectively displaying one or more advanced applications ADAPL in the aperture APTR (graphic area). A more detailed description will be given with reference to FIG.
グラフィックプレインGRPHPLは、カンバスと呼ばれる座標系(カンバス座標CNVCRD)を定義することができる。本実施形態において、グラフィックプレインGRPHPL上に画面合成することができる四角い領域が、前記カンバス座標CNVCRD内に定義することができる。この四角い領域をアパーチャーAPTR(グラフィック領域)と呼ぶ。前記カンバス座標CNVCRDにおけるグラフィック領域の原点位置(0,0)と前記アパーチャーAPTR(グラフィック領域)の端点(原点)の位置が本実施形態では一致させている。従ってカンバス座標CNVCRDにおいて、アパーチャーAPTR(グラフィック領域)の端点(原点)の位置は(0,0)となる。アパーチャーAPTR(グラフィック領域)のX軸とY軸の単位はそれぞれ画素数単位で識別される。例えばユーザに表示する画面の画素数が1920×1080の場合には、それに対応したアパーチャーAPTR(グラフィック領域)のもう一方の端の位置の(1920,1080)を定義することができる。前記アパーチャーAPTR(グラフィック領域)のサイズは、プレイリストPLLST内で定義される。本実施形態においてアドバンストアプリケーションADSBTは、独自の座標系を設定することができる。前記独自の座標系は、四角い領域で前記カンバス座標CNVCRD内に設定することができ、前記四角い領域はアプリケーション領域APPRGNと呼ぶ。各アドバンストアプリケーションADAPLは、それぞれ少なくとも1個のアプリケーション領域APPRGNを持つことができる。また、前記アプリケーション領域APPRGNの設定場所は前記カンバス座標CNVCRD上のX、Y座標値により指定することができる。すなわち図40に示すようにアプリケーション領域APPRGN#1のアパーチャーAPTRグラフィック領域)の配置場所はアプリケーション領域APPRGN#1の端点(原点)のカンバス座標CNVCRD内でのカンバス座標CNVCRD座標値で設定される。
The graphic plane GRPHPL can define a coordinate system called a canvas (canvas coordinate CNVCRD). In the present embodiment, a square area that can be synthesized on the graphic plane GRPHPL can be defined in the canvas coordinates CNVCRD. This square area is called an aperture APTR (graphic area). In the present embodiment, the origin position (0, 0) of the graphic area in the canvas coordinates CNVCRD and the position of the end point (origin point) of the aperture APTR (graphic area) are matched. Accordingly, in the canvas coordinate CNVCRD, the position of the end point (origin) of the aperture APTR (graphic area) is (0, 0). The unit of the X-axis and Y-axis of the aperture APTR (graphic area) is identified by the number of pixels. For example, when the number of pixels of the screen displayed to the user is 1920 × 1080, (1920,1080) at the position of the other end of the aperture APTR (graphic region) corresponding to the pixel number can be defined. The size of the aperture APTR (graphic area) is defined in the playlist PLLST. In this embodiment, the advanced application ADSBT can set its own coordinate system. The unique coordinate system can be set in the canvas coordinates CNVCRD as a square area, and the square area is called an application area APPRGN. Each advanced application ADAPL can have at least one application area APPRGN. Further, the setting location of the application area APPRGN can be designated by the X and Y coordinate values on the canvas coordinates CNVCRD. That is, as shown in FIG. 40, the location of the application
本実施形態では前記アプリケーション領域APPRGN内にアドバンストアプリケーションADAPL内の複数のエレメント(アプリケーションエレメント又はチャイルドエレメント)として特定の静止画IMAGEなどを配置することができる。前記アプリケーション領域内の各エレメントの配置場所を示す方法として、前記アプリケーション領域APPRGN内の独立した座標系のX、Y値を定義することができる。すなわち図40に示すように、アプリケーション領域APPRGN#1内に独自のアプリケーション領域内座標系を持ち、前記アプリケーション領域内座標値として前記エレメントの配置場所を指定することができる。例えば図40に示すように、アプリケーション領域APPRGN#1のサイズが原点(0,0)から(x2,y2)まで規定されていた場合、エレメント例として白抜き四角の部分を配置する時に(x1,y1)の座標により、前記白抜き四角のアプリケーション領域APPRGN内の位置を指定することができる。このように複数の前記エレメントは、独自な座標系(アプリケーション領域内座標)により配置することができ、前記エレメントの一部が前記アプリケーション領域APPRGNからはみ出してもよい。この場合にはアパーチャーAPTR(グラフィック領域)内に配置されたアプリケーション領域APPRGN内の中に含まれるエレメント部分のみがユーザに対して表示される。
In the present embodiment, a specific still image IMAGE or the like can be arranged as a plurality of elements (application element or child element) in the advanced application ADAPL in the application area APPRGN. As a method for indicating the arrangement location of each element in the application area, X and Y values of independent coordinate systems in the application area APPRGN can be defined. That is, as shown in FIG. 40, the application
図38に示したAVレンダラーAVRND内のグラフィックレンダリングエンジンGHRNEN内の詳細構造と図30に示したプレゼンテーションエンジンPRSEN内の各種エンジンとプレーヤとの関係を図41に示す。 FIG. 41 shows the detailed structure of the graphic rendering engine GHRNEN in the AV renderer AVRND shown in FIG. 38 and the relationship between the various engines and players in the presentation engine PRSEN shown in FIG.
本実施形態において図39に示すようにユーザに表示する画面は、5つの画面レイヤーから構成され、それらの各画面レイヤーの画像はオーバーレイコントローラーOVLCTRで合成される。また本実施形態においては、オーバーレイコントローラーOVLCTRへ入力される各画面レイヤーにおけるフレームレート(1秒間に表示される画面の数)を、それぞれ各画面レイヤー毎に独自に設定できるところに本実施形態の大きな特徴がある。それによりフレームレートの制約を受けることなく、各画面レイヤー毎の最適なフレームレートが設定でき、ユーザに対してより効果的な画面を表示することができる。 In this embodiment, as shown in FIG. 39, the screen displayed to the user is composed of five screen layers, and the images of these screen layers are synthesized by the overlay controller OVLCTR. Also, in this embodiment, the frame rate (number of screens displayed per second) in each screen layer input to the overlay controller OVLCTR can be set independently for each screen layer. There are features. Thereby, an optimal frame rate for each screen layer can be set without being restricted by a frame rate, and a more effective screen can be displayed to the user.
図39に示すメインビデオプレインMNVDPLに関しては、プライマリービデオプレーヤPRMVPの出力動画とセカンダリービデオプレーヤSCDVPの出力動画の中のサブスティテュートオーディオビデオSBTAVのうち、いずれか一方が選択されクロマインフォメーションCRMIを考慮された後、デコーダーエンジンDCDEN内のメインビデオデコーダーMVDEC内でデコード処理される。その後、スケーラーSCALERにより画面サイズと表示画面位置が設定され、オーバーレイコントローラーOVLCTRに入力される。 For the main video plane MNVDPL shown in FIG. 39, either one of the output video of the primary video player PRMVP and the substitute audio video SBTAV in the output video of the secondary video player SCDVP is selected and the chroma information CRMI is considered. After that, decoding processing is performed in the main video decoder MVDEC in the decoder engine DCDEN. After that, the screen size and display screen position are set by the scaler SCALER and input to the overlay controller OVLCTR.
サブビデオプレインSBVDPLにおいては、プライマリービデオプレーヤPRMVPから出力されたサブビデオSUBVDかセカンダリープレーヤSCDVPから出力されたサブビデオSUBVDを、クロマインフォメーションCRMIを考慮した上でデコーダーエンジンDCDEN内のサブビデオデコーダーSVDECに入力される。そこでデコードされた出力動画は、スケーラーSCALERにより表示サイズと画面上の表示位置が設定された後クロマイフェクトCRMEFTの処理を行い、オーバーレイコントローラーOVLCTRに入力される。この時サブビデオプレインSBVDPLは、下側のメインビデオプレインMNVDPLを表示できるようにする透明度を表すアルファインフォメーションに対応して、半透明な形でオーバーレイコントローラーOVLCTRに入力することができる。 In the sub video plane SBVDPL, the sub video SUBVD output from the primary video player PRMVP or the sub video SUBVD output from the secondary player SCDVP is input to the sub video decoder SVDEC in the decoder engine DCDEN in consideration of chroma information CRMI. Is done. The decoded output video is processed by the chromifect CRMEFT after the display size and the display position on the screen are set by the scaler SCALER and input to the overlay controller OVLCTR. At this time, the sub video plane SBVDPL can be input to the overlay controller OVLCTR in a semi-transparent form corresponding to the alpha information indicating the transparency so that the lower main video plane MNVDPL can be displayed.
サブピクチャープレインSBPCPLに表示される映像は、アドバンストサブタイトルADSBTかプライマリーオーディオビデオPRMAVの副映像SUBPTのいずれかが表示される。すなわちアドバンストサブタイトルADSBTはアドバンストサブタイトルプレーヤASBPL内のレイアウトマネージャLOMNGで表示画面サイズと表示位置が設定された後、スイッチSWITCHへ入力される。また、プライマリーオーディオビデオPRMAVの副映像SUBPTはプライマリービデオプレーヤPRMVPからデコーダーエンジンDCDEN内のサブピクチャーデコーダーSPDEC内に副映像SUBPTが入力され、そこでデコードされた後スケーラーSCALERにより表示画面サイズと表示位置画面サイズが設定される。その後同様にスイッチSWITCHに入力される。本実施形態では、図41に示すようにスイッチSWITCHによる選択処理によりアドバンストサブタイトルADSBTかプライマリーオーディオビデオPRMAV内の副映像SUBPTのいずれか一方が選択され、オーバーレイコントローラーOVLCTRへ入力される。 As the video displayed on the sub-picture plane SBPCPL, either the advanced subtitle ADSBT or the sub-video SUBPT of the primary audio video PRMAV is displayed. That is, the advanced subtitle ADSBT is input to the switch SWITCH after the display screen size and display position are set by the layout manager LOMNG in the advanced subtitle player ASBPL. Also, the sub-picture SUBPT of the primary audio video PRMAV is input from the primary video player PRMVP into the sub-picture decoder SPDEC in the decoder engine DCDEN, and is decoded there and then the display screen size and display position screen size by the scaler SCALER. Is set. Thereafter, it is similarly input to the switch SWITCH. In this embodiment, as shown in FIG. 41, either the advanced subtitle ADSBT or the sub-picture SUBPT in the primary audio video PRMAV is selected by the selection process by the switch SWITCH, and is input to the overlay controller OVLCTR.
グラフィックプレインGRPHPLについては、アドバンストアプリケーションプレゼンテーションエンジンAAPEN内のレイアウトマネージャLOMNGで表示サイズと表示位置が設定された後、直接オーバーレイコントローラーOVLCTRに入力される。 The graphic plane GRPHPL is directly input to the overlay controller OVLCTR after the display size and display position are set by the layout manager LOMNG in the advanced application presentation engine AAPEN.
カーソルプレインCRSRPLに対してはナビゲーションマネージャNVMNG内のカーソルマネージャCRSMNGによりカーソルイメージCRSIMGとカーソルの表示位置を示すポジションインフォメーションPOSITIが出力され、オーバーレイコントローラーOVLCTR内でカーソルの画面レイヤーが作成される。以下に各画面レイヤー毎の詳細な説明を行う。 For the cursor plane CRSRPL, the cursor manager CRSMNG in the navigation manager NVMNG outputs the cursor image CRSIMG and position information POSITI indicating the display position of the cursor, and the cursor screen layer is created in the overlay controller OVLCTR. A detailed description for each screen layer is given below.
<カーソルプレイン(Cursor Plane)>
カーソルプレインCRSRPLは、本実施形態の映像合成モデルにおいては、5画面レイヤー存在する中で最も上側に存在する画面レイヤーを表し、グラフィックレンダリングエンジンGHRNEN内で画面が作成される。カーソルプレインCRSRPLの解像度はグラフィックプレインGRPHPL上のアパーチャーAPTR(グラフィック領域)の解像度と一致する(図39の説明文章を参照のこと)。前述したように、前記カーソルプレインCRSRPLはグラフィックレンダリングエンジンGHRNEN内のオーバーレイコントローラーOVLCTR内で作成・管理される。ナビゲーションマネージャNVMNG内に存在するカーソルマネージャCRSMNGは、カーソルイメージCRSIMGを作成し前記オーバーレイコントローラーOVLCTRへ転送する。また、前記カーソルマネージャCRSMNGは画面上のカーソル位置を表すポジションインフォメーションPOSITIの情報を管理作成し、前記オーバーレイコントローラーOVLCTRに転送するとともに、ユーザ入力に対応し常に前記カーソルのポジションインフォメーションPOSITIをタイムリーにアップデートし、オーバーレイコントローラーOVLCTRに転送する。デフォルト(初期状態)におけるカーソルイメージCRSIMGとその位置を表すX,Y座標(hotspotXY)は、各アドバンストコンテンツ再生部ADVPLに依存する。本実施形態においてデフォルト(初期状態)におけるカーソル位置(X,Y)は、(0,0)(原点位置)に設定される。前記カーソルイメージCRSIMGとその位置を示すポジションインフォメーションPOSITIはアドバンストアプリケーションマネージャADAMNG内のプログラミングエンジンPRGEN(図28参照)からのAPIコマンドによりアップデートされる。本実施形態において、前記カーソルイメージCRSIMGの最大解像度を256×256ピクセル(画素)に設定する。この数値を設定することにより、ある程度表現力のあるカーソルイメージCRSIMGを表現できるとともに、無駄な解像度設定を防ぐことでカーソル表示処理速度を早くすることができる。また、前記カーソルイメージCRSIMGのファイルフォーマットはPMG(8ビットカラー表現)により設定される。また、本実施形態において前記カーソルイメージCRSIMGは、APIコマンドにより完全に画面上に表示される状態かまたは完全に透明で画面上には見えない状態かのいずれかに切替えることができる。カーソルマネージャCRSMNGから送られるポジションインフォメーションPOSITIに応じて、前記オーバーレイコントローラーOVLCTR内でカーソルプレインCRSRPL上にカーソルイメージCRSIMGが配置される。それとともにオーバーレイコントローラーOVLCTRによりカーソルプレインCRSRPLよりも下側の画面レイヤーの画面に対する半透明の状態を示すアルファミックスの設定(アルファインフォメーションに基づく透明度の設定)を行うことができる。
<Cursor Plane>
The cursor plane CRSRPL represents the uppermost screen layer among the five screen layers in the video composition model of the present embodiment, and a screen is created in the graphic rendering engine GHRNEN. The resolution of the cursor plane CRSRPL matches the resolution of the aperture APTR (graphic area) on the graphic plane GRPHPL (see the explanatory text in FIG. 39). As described above, the cursor plane CRSRPL is created and managed in the overlay controller OVLCTR in the graphic rendering engine GHRNEN. The cursor manager CRSMNG existing in the navigation manager NVMNG creates a cursor image CRSIMG and transfers it to the overlay controller OVLCTR. The cursor manager CRSMNG manages and creates position information POSITI information representing the cursor position on the screen, transfers it to the overlay controller OVLCTR, and constantly updates the cursor position information POSITI in response to user input. And transfer to the overlay controller OVLCTR. The cursor image CRSIMG in the default (initial state) and the X and Y coordinates (hotspotXY) representing the position depend on each advanced content playback unit ADVPL. In the present embodiment, the cursor position (X, Y) in the default (initial state) is set to (0, 0) (origin position). The cursor image CRSIMG and position information POSITI indicating its position are updated by an API command from the programming engine PRGEN (see FIG. 28) in the advanced application manager ADAMNG. In the present embodiment, the maximum resolution of the cursor image CRSIMG is set to 256 × 256 pixels (pixels). By setting this numerical value, it is possible to express a cursor image CRSIMG that has a certain level of expressiveness, and it is possible to increase the cursor display processing speed by preventing unnecessary resolution setting. The file format of the cursor image CRSIMG is set by PMG (8-bit color expression). In the present embodiment, the cursor image CRSIMG can be switched to either a state that is completely displayed on the screen by an API command or a state that is completely transparent and invisible on the screen. In accordance with the position information POSITI sent from the cursor manager CRSMNG, the cursor image CRSIMG is arranged on the cursor plane CRSRPL in the overlay controller OVLCTR. At the same time, the overlay controller OVLCTR can be used to set the alpha mix (transparency setting based on alpha information) indicating the translucent state of the screen layer below the cursor plane CRSRPL.
<グラフィックプレイン(Graphic Plane)>
本実施形態の映像合成モデルにおいてグラフィックプレインGRPHPLにおいては、グラフィックレンダリングエンジンGHRNEN内で作成する上から2番目の画面レイヤーに相当する。図28に示すナビゲーションマネージャNVMNG内のアドバンストアプリケーションマネージャADAMNGからの制御を受けて、図41に示すアドバンストアプリケーションプレゼンテーションエンジンAAPENによりグラフィックプレインGRPHPLの画面が作成される。図28に示すナビゲーションマネージャNVMNG内のアドバンストアプリケーションマネージャADAMNGが、図31に示すアドバンストアプリケーションプレゼンテーションエンジンAAPEN内のグラフィックデコーダーGHCDECとフォントレンダリングシステムFRDSTMを動かしてグラフィックプレインGRPHPLの画面の一部を作成する。最終的にはアドバンストアプリケーションプレゼンテーションエンジンAAPEN内のレイアウトマネージャLOMNGによりグラフィックプレインGRPHPLの合成画面を作成する。前記レイアウトマネージャLOMNGによりそこから出力される画面(フレーム)の出力ビデオサイズとその表示場所が設定される。前記レイアウトマネージャLOMNGから出力されるフレームレート(1秒間に変化する画面数)は、例えばメインビデオMANVDやサブビデオSUBVDなどの映像のフレームレートに関わりなく独自に設定することができる。また本実施形態では、アニメーションなどグラフィックイメージの連続としてアニメーションイフェクトを表示することもできる。
<Graphic Plane>
The graphic plane GRPHPL in the video composition model of this embodiment corresponds to the second screen layer from the top created in the graphic rendering engine GHRNEN. Under the control of the advanced application manager ADAMNG in the navigation manager NVMNG shown in FIG. 28, a screen of the graphic plane GRPHPL is created by the advanced application presentation engine AAPEN shown in FIG. The advanced application manager ADAMNG in the navigation manager NVMNG shown in FIG. 28 moves the graphic decoder GHCDEC and the font rendering system FRDSTM in the advanced application presentation engine AAPEN shown in FIG. 31 to create a part of the graphic plane GRPHPL screen. Finally, a graphic plane GRPHPL composite screen is created by the layout manager LOMNG in the advanced application presentation engine AAPEN. The layout manager LOMNG sets the output video size of the screen (frame) output therefrom and the display location thereof. The frame rate (number of screens that change per second) output from the layout manager LOMNG can be set independently regardless of the frame rate of the video such as the main video MANVD and the sub video SUBVD. In the present embodiment, an animation effect can also be displayed as a series of graphic images such as animation.
図31に示すレイアウトマネージャLOMNGでグラフィックプレインGRPHPL上の画面設定をする時には個々の構成画面に対してアルファインフォメーション(アルファ値)の条件を設定することはできない。本実施形態においては、グラフィックプレインGRPHPL内の各グラフィックイメージ(個々の構成画面)単位でアルファ値を設定することはできず、グラフィックプレインGRPHPL全体でのアルファ値を設定することができる。従って下の画面に対する透明度(アルファ値)はグラフィックプレインGRPHPL上至るところで一定に設定される。 When setting the screen on the graphic plane GRPHPL with the layout manager LOMNG shown in FIG. 31, the condition of alpha information (alpha value) cannot be set for each component screen. In the present embodiment, an alpha value cannot be set for each graphic image (individual configuration screen) in the graphic plane GRPHPL, and an alpha value for the entire graphic plane GRPHPL can be set. Accordingly, the transparency (alpha value) for the lower screen is set constant throughout the graphic plane GRPHPL.
<サブピクチャープレイン(Subpicture Plane)>
本実施形態における映像合成モデルにおいてサブピクチャープレインSBPCPLは、グラフィックレンダリングエンジンGHRNENで作成される上から3番目の画面レイヤーに対応している。前記サブピクチャープレインSBPCPLは、アドバンストサブタイトルプレーヤASBPLまたはデコーダーエンジンDCDEN内のサブピクチャーデコーダーSPDECにより作成される(図41参照)。プライマリービデオセットPRMVSは指定された表示フレームサイズを持った副映像SUBPTイメージを含んでいる。前記副映像SUBPTのイメージの表示サイズが指定された場合には、サブピクチャーデコーダーSPDECは前記副映像SUBPTイメージを直接スケーラーSCALERによるサイズ変更をせずに直接グラフィックレンダリングエンジンGHRNENへ転送される。例えば図39の説明で示したように、合成画面の表示サイズがグラフィックプレインGRPHPL上のアパーチャーAPTR(グラフィック領域)のサイズで規定されており、メインビデオプレインMNVDPL上のメインビデオMANVDが合成画面上にフル画面で表示された場合には、メインビデオMANVDの表示サイズは前記アパーチャーAPTR(グラフィック領域)のサイズと一致する。この場合、副映像SUBPTの表示サイズは前記アパーチャーAPTR(グラフィック領域)のサイズにより自動的に副映像SUBPTの表示サイズが決まる。このような場合には、前述したようにサブピクチャーデコーダーSPDECの出力画面(フレーム)がスケーラーSCALERの処理をせずに直接グラフィックレンダリングエンジンGHRNENへ転送される。逆に図39に示すように、メインビデオプレインMAVDPL上の本編31の表示サイズがアパーチャーAPTR(グラフィック領域)のサイズよりも大幅に小さい場合には、対応して副映像SUBPTのフレームサイズも変える必要がある。このように副映像SUBPTイメージの適正な表示サイズが設定されない場合には、サブピクチャーデコーダーSPDECの後ろに存在するスケーラーSCALERが前記アパーチャーAPTR(グラフィック領域)の最適な表示サイズと表示位置が設定され、その後グラフィックレンダリングエンジンGHRLENへ転送される。しかし本実施形態では上記に限らず、前期副映像の表示適正サイズがわからない(存在しない)場合には、前記副映像SUBPTを前記アパーチャーAPTR(グラフィック領域)における左上に詰めて表示することもできる。本実施形態においては、図41に示すようにサブピクチャープレインSBPCPLのグラフィックレンダリングエンジンGHRNENに転送する画面のフレームレートは、ビデオ出力のフレームレートとは関わりなく独自に設定することができる。このように副映像SUBPTやアドバンストサブタイトルADSBT、あるいはアドバンストアプリケーションADAPLを表示する前記サブピクチャープレインSBPCPLやグラフィックプレインGRPHPLのフレームレートをメインビデオプレインMNVDPLやサブビデオプレインSBVDPLのフレームレートと関わりなく独自に設定することで、プレゼンテーションエンジンPRSENの処理の効率化を図ることができる。何故ならメインビデオプレインMNVDPLやサブビデオプレインSBVDPLは1秒間に50ないしは60フィールド変化するが、サブピクチャープレインSBPCPLやグラフィックプレインGRPHPLで表示される画面は比較的画面変化の速度が遅く、例えばグラフィックプレインGRPHPLで表示される画面は10秒間同じ画面が表示されることがある。この時に前記ビデオプレインに合わせて1秒間に50ないしは60フィールドに合わせたフレームレートで画像をAVレンダラーAVRNDに転送する場合にはアドバンストアプリケーションプレゼンテーションエンジンAAPENやアドバンストサブタイトルプレーヤASBPLの付加が重くなりすぎるため、フレーム転送レートを独自に設定することで両者の負担を大幅に低減することができる。また、アドバンストサブタイトルプレーヤASBPLは、アドバンストアプリケーションADAPLのサブセットに対応したサブピクチャープレインSBPCPLの画面を提供することができる。前述したように各画面レイヤーを合成した合成画面を作成するオーバーレイコントローラーOVLCTRに転送するサブピクチャープレインSBPCPLは、アドバンストサブタイトルプレーヤASBPLかサブピクチャーデコーダーSPDECの出力のうち、どちらか一方のみが使われる。本実施形態ではナビゲーションマネージャNVMNGから転送されるオーバーレイインフォメーションOVLYIに基づき、プレゼンテーションエンジンPRSENから供給されるサブピクチャープレインSBPCPLに表示される画面がグラフィックレンダリングエンジンGHRNEN内のスイッチモジュールSWITCHにより選択される。本実施形態においてサブピクチャープレインSBPCPLに表示される画面も透明度を設定することができ、その下に存在するサブピクチャープレインSBPCPLやメインビデオプレインMNVDPLの画面が透けて見えるように設定することができる。本実施形態ではサブピクチャープレインSBPCPLに対し、透明度を表すアルファ値(アルファインフォメーション)を設定することができ、サブピクチャープレインSBPCPL内の至るところで同一のアルファ値(アルファインフォメーション)が設定される。
<Subpicture Plane>
In the video composition model in this embodiment, the sub-picture plane SBPCPL corresponds to the third screen layer from the top created by the graphic rendering engine GHRNEN. The sub-picture plane SBPCPL is created by the advanced subtitle player ASBPL or the sub-picture decoder SPDEC in the decoder engine DCDEN (see FIG. 41). The primary video set PRMVS includes a sub-picture SUBPT image having a designated display frame size. When the display size of the sub-picture SUBPT image is designated, the sub-picture decoder SPDEC directly transfers the sub-picture SUBPT image to the graphic rendering engine GHRNEN without changing the size by the scaler SCALER. For example, as shown in the description of FIG. 39, the display size of the composite screen is defined by the size of the aperture APTR (graphic area) on the graphic plane GRPHPL, and the main video MANVD on the main video plane MNVDPL is displayed on the composite screen. When displayed on the full screen, the display size of the main video MANVD matches the size of the aperture APTR (graphic area). In this case, the display size of the sub-picture SUBPT is automatically determined according to the size of the aperture APTR (graphic area). In such a case, as described above, the output screen (frame) of the sub-picture decoder SPDEC is directly transferred to the graphic rendering engine GHRNEN without being processed by the scaler SCALER. Conversely, as shown in FIG. 39, if the display size of the
<サブビデオプレイン(Sub Video Plane)>
本実施形態の映像合成モデルについて、サブビデオプレインSBVDPLはグラフィックレンダリングエンジンGHRNENから合成される上から4番目の画面レイヤーに相当する(図39参照)。前記サブビデオプレインSBVDPLは、デコーダーエンジンDCDEN内のサブビデオデコーダーSVDEC内でデコードされた映像が表示される。ナビゲーションマネージャNVMNGから送られるスケールインフォメーションSCALEIとポジションインフォメーションPOSITIに基づき、サブビデオデコーダーSVDECの出力側に存在するスケーラーSCALERによりサブビデオプレインSBVDPL上の副映像SUBPT画面のサイズと表示位置が設定され、最終的な表示ビデオサイズとしてスケーラーSCALERから出力される(図41参照)。デフォルト(初期値)において、前記スケールインフォメーションSCALEIで示されるスケーリングレーシオは1(縮小されずアパーチャーAPTR(グラフィック領域)サイズ全体に表示される)と設定される。また、デフォルト(初期値)においては前記ポジションインフォメーションPOSITIの情報としてはX方向のポジションは“0”、Y方向のポジションも“0”(アパーチャーAPTR(グラフィック領域)の原点位置)に設定される。また、アルファ値は100%透過するように設定される。また、本実施形態においてはそれに限らずアルファ値としては、100%表示される(透明度0%)と設定することもできる。前記のアルファ値及びスケールインフォメーションSCALEI、ポジションインフォメーションPOSITIの値は、APIコマンドにより変更することができる。もし、新しいタイトルを表示する場合には、前記の値はデフォルト値(初期値)に設定される。本実施形態において、サブビデオプレインSBVDPLの出力フレームレートはアドバンストコンテンツ再生部ADVPLの映像出力のフレームレート(メインビデオプレインMNVDPLにおけるフレームレート)とは関係なく独自に設定することができる。それにより、例えばサブビデオプレインSBVDPLのフレームレートを落とすことでネットワークサーバNTSRVから転送される時のローディング時の連続性を保証することができる。前記サブビデオSUBVDストリームにおいてクロマインフォメーションCRMIが設定された場合には、グラフィックレンダリングエンジンGHRNEN内においてクロマイフェクトCRMEFTによりサブビデオSUBVD内の映像オブジェクトの輪郭抽出をすることができる。映像において例えば青い背景上に移った人の映像があった場合、クロマキーの処理をすることにより青色部分を透明にし、青以外の色で構成された人物などを不透明にし、青色部分に別の画面を重ねる処理が可能となる。例えば、図39の各画面レイヤー説明図を用いた例の場合、例えばメインビデオプレインMNVDPLの画面をアパーチャーAPTR(グラフィック領域)のサイズにフル画面表示し、その1部に重ねてサブビデオプレインSBVDPL上の画面を重ねて表示した場合を考える。この時、サブビデオプレインSBVDPL上の画面が青色背景上に特定の人物が移されている映像があった場合、クロマカラーを青色に設定して、青色の部分だけを透明とすることによりサブビデオプレインSBVDPL上の人物のみを後ろ側のメインビデオプレインMNVDPL上の映像と重ねて表示することができる。このようにクロマキー(クロマイフェクトCRMEFT)の技術を利用することにより、サブビデオプレインSBVDPL上の特定オブジェクトに対し輪郭抽出し、背景色を透明にして後ろ側のメインビデオプレインMNVDPLと重ねる処理などができる。このように本実施形態においては、セカンダリービデオプレーヤSCDVPまたはプライマリービデオプレーヤPRMVPに対応したサブビデオプレーヤモジュールに対し、前記クロマインフォメーションCRMIを適用することができる。前記クロマイフェクトCRMEFTからの出力映像に対しては、2つのアルファ値(アルファインフォメーション)が設定される。すなわち、一方のアルファ値は100%可視の状態であり、裏側に存在するサブビデオプレインSBVDPLの映像は見えない。前記の例では青色の背景の中に存在する青とは異なる色を持ったオブジェクト(人物)などがそれに対応する。また、もう一方のアルファ値は100%透過するように設定され、前記の例では青色の背景部分がそれに対応する。その部分は100%透過となり、下側に存在するメインビデオプレインMNVDPLの画面が透けて見える。本実施形態においてはそれに限らずアルファ値として100%と0%の中間の値を設定することができる。最も下側に存在するメインビデオプレインMNVDPLと重なるサブビデオプレインSBVDPL内の映像の各位置のアルファ値(アルファインフォメーション)の中間の値は、ナビゲーションマネージャNVMNGから転送されるオーバーレイインフォメーションOVLYIにより設定され、その値に基づきグラフィックレンダリングエンジンGHRNEN内のオーバーレイコントローラーOVLCTRにより設定される。
<Sub Video Plane>
In the video synthesis model of the present embodiment, the sub video plane SBVDPL corresponds to the fourth screen layer from the top synthesized from the graphic rendering engine GHRNEN (see FIG. 39). The sub video plane SBVDPL displays the video decoded in the sub video decoder SVDEC in the decoder engine DCDEN. Based on the scale information SCALEI and position information POSITI sent from the navigation manager NVMNG, the scaler SCALER on the output side of the sub video decoder SVDEC sets the size and display position of the sub video SUBPT screen on the sub video plane SBVDPL. The display video size is output from the scaler SCALER (see FIG. 41). In the default (initial value), the scaling ratio indicated by the scale information SCALEI is set to 1 (not reduced and displayed in the entire aperture APTR (graphic area) size). In the default (initial value), the position information POSITI information is set to “0” for the position in the X direction and “0” for the position in the Y direction (the origin position of the aperture APTR (graphic area)). The alpha value is set to be 100% transparent. In the present embodiment, the alpha value is not limited to this, and the alpha value can be set to 100% (
<メインビデオプレイン(Main Video Plane)>
本実施形態の映像合成モデルにおいて、メインビデオプレインMNVDPLはグラフィックレンダリングエンジンGHRNEN内で合成される最も下側に存在する画面レイヤーに対応する。前記メインビデオプレインMNVDPLの映像は、デコーダーエンジンDCDEN内のメインビデオデコーダーMVDECによりデコードされた映像で構成される。ナビゲーションマネージャNVMNGから転送されるスケールインフォメーションSCALEIとポジションインフォメーションPOSITIに基づき、メインビデオデコーダーMVDECの出力段に配置されたスケーラーSCALERにより、メインビデオプレインMNVDPL上の表示画面サイズと表示位置が設定される。メインビデオプレインMNVDPL上のメインビデオ画面のデフォルト(初期値)におけるサイズと表示場所はアパーチャーAPTR(グラフィック領域)のサイズと一致する。本実施形態におけるアパーチャーAPTR(グラフィック領域)のサイズ情報は、図21に示すようにプレイリストPLLSTファイル内の構造情報CONFGI内に規定され、画面のアスペクト比が元の状態で保持された形で指定される。例えばメインビデオプレインMNVDPL上に表示される映像のアスペクト比が4:3であり、グラフィックプレインGRPHPL上で規定されるアパーチャーAPTR(グラフィック領域)のアスペクト比が16:9で指定された場合、メインビデオプレインMNVDPLの映像の前記アパーチャーAPTR(グラフィック領域)内での表示位置は、表示画面の高さが前記アパーチャーAPTR(グラフィック領域)と一致し、画面の横方向においてはアパーチャーAPTR(グラフィック領域)の中央位置にフル画面に対して幅の狭い画面が表示される。前記プレイリストファイルPLLST内の構造情報CONFGIで指定されたビデオの表現色とメインビデオプレインMNVDPLで設定された表現色が異なった場合には、前記メインビデオプレインMNBDPLにおけるデフォルト(初期値)における表示色条件を前記構造情報CONFGIに変換処理を行わず、元々のデフォルト時の色を使用する。メインビデオプレインMNVDPL内における映像の表示サイズ、表示位置、および表示色、アスペクト比などの値はAPIコマンドにより変更することが可能である。プレイリストPLLST内の新たな別のタイトルに移動する場合には、移動前において前記映像サイズ、映像表示位置、表示色やアスペクト比などの情報はデフォルト(初期値)に設定される。その後、次のタイトルの再生開始時に前記映像サイズ、表示位置、表現色とアスペクトレシオなどの値がプレイリストPLLSTで設定された指定値に変更される。
<Main Video Plane>
In the video composition model of the present embodiment, the main video plane MNVDPL corresponds to the lowermost screen layer synthesized in the graphic rendering engine GHRNEN. The video of the main video plane MNVDPL is composed of video decoded by the main video decoder MVDEC in the decoder engine DCDEN. Based on the scale information SCALEI and position information POSITI transferred from the navigation manager NVMNG, the display screen size and display position on the main video plane MNVDPL are set by the scaler SCALER arranged at the output stage of the main video decoder MVDEC. The default size (initial value) of the main video screen on the main video plane MNVDPL and the display location match the size of the aperture APTR (graphic area). The size information of the aperture APTR (graphic area) in this embodiment is specified in the structure information CONFGI in the playlist PLLST file as shown in FIG. 21, and is specified in a form in which the screen aspect ratio is retained in the original state. Is done. For example, when the aspect ratio of the video displayed on the main video plane MNVDPL is 4: 3 and the aspect ratio of the aperture APTR (graphic area) defined on the graphic plane GRPHPL is specified as 16: 9, the main video is displayed. The display position of the plain MNVDPL video in the aperture APTR (graphic area) is the same as the aperture APTR (graphic area) in the horizontal direction of the screen. A screen narrower than the full screen is displayed at the position. When the video expression color specified by the structure information CONFGI in the playlist file PLLST is different from the expression color set by the main video plane MNVDPL, the display color in the default (initial value) of the main video plane MNBDPL The original default color is used without converting the condition into the structure information CONFGI. Values such as the video display size, display position, display color, and aspect ratio in the main video plane MNVDPL can be changed by an API command. When moving to another new title in the playlist PLLST, information such as the video size, video display position, display color, and aspect ratio is set to default (initial value) before the movement. Thereafter, when the reproduction of the next title is started, values such as the video size, display position, expression color and aspect ratio are changed to designated values set in the playlist PLLST.
<オーディオミキシングモデル(Audio Mixing Model)>
本実施形態において情報記録再生装置1内にアドバンストコンテンツ再生部ADVPLが存在する(図1参照)が、図14に示すように前記アドバンストコンテンツ再生部ADVPL内にAVレンダラーAVRNDが存在し、図38に示すように前記AVレンダラーAVRND内にオーディオミキシングエンジンADMXENが存在する。前記オーディオミキシングエンジンADMXENとその前段に存在するプレゼンテーションエンジンPRSEN間の関係を示す音声ミキシングモデルを図42に示す。
<Audio Mixing Model>
In this embodiment, the advanced content playback unit ADVPL exists in the information recording / playback apparatus 1 (see FIG. 1), but as shown in FIG. 14, the AV renderer AVRND exists in the advanced content playback unit ADVPL. As shown, an audio mixing engine ADMXEN exists in the AV renderer AVRND. FIG. 42 shows an audio mixing model showing the relationship between the audio mixing engine ADMXEN and the presentation engine PRSEN existing in the preceding stage.
本実施形態において、オーディオミキシングエンジンADMXENに入力されるオーディオストリームは、イフェクトオーディオEFTADとサブオーディオSUBADとメインオーディオMANADの3種類のオーディオストリーム(図10参照)が存在する。前記3種類のオーディオストリームにおいて、イフェクトオーディオEFTADは図42におけるアドバンストアプリケーションプレゼンテーションエンジンAAPEN内のサウンドデコーダーSNDDECの出力として与えられる。また、前記サブオーディオストリームSUBADはデコーダーエンジンDCDEN内のサブオーディオデコーダーSADECの出力として与えられ、メインオーディオストリームMANADは前記デコーダーエンジンDCDEN内のメインオーディオデコーダーMADECの出力として与えられる。本実施形態において、前記各種オーディオストリーム間のサンプル周波数は一致している必要はなく、それぞれのオーディオストリーム毎に異なるサンプリング周波数(サンプルレート)を持つことが許容される。これら3種類の異なるサンプリング周波数を持ったオーディオストリームを合成するにあたって、オーディオミキシングエンジンADMXEN内にはそれぞれのオーディオストリームに対応したサンプリングレートコンバーターSPRTCVが存在している。すなわち、前記サンプリングレートコンバーターSPRTCVは各種オーディオデコーダー(SNDDEC、SADEC、MADEC)の出力時のサンプル周波数(サンプリングレート)を最終的な音声出力のサンプリング周波数(サンプルレート)に統一する働きを持っている。本実施形態において図42に示すように、ナビゲーションマネージャNVMNGからミキシングレベルインフォメーションMXLVIの情報がオーディオミキシングエンジンADMXEN内のサウンドミキサーSNDMIXへ向けて転送され、その転送された情報に基づき前記サウンドミキサーSNDMIX内で前記3種類のオーディオストリームの合成時のミキシングレベルが設定される。その後の最終的なオーディオ出力AOUTの出力ダイナミックレンジは各種アドバンストコンテンツ再生部ADVPLによりそれぞれ独自に設定が可能となる。 In the present embodiment, the audio stream input to the audio mixing engine ADMXEN includes three types of audio streams (see FIG. 10): effect audio EFTAD, sub audio SUBAD, and main audio MANAD. In the three types of audio streams, the effect audio EFTAD is given as an output of the sound decoder SNDDEC in the advanced application presentation engine AAPEN in FIG. The sub audio stream SUBAD is provided as an output of the sub audio decoder SADEC in the decoder engine DCDEN, and the main audio stream MANAD is provided as an output of the main audio decoder MADEC in the decoder engine DCDEN. In the present embodiment, the sample frequencies between the various audio streams do not need to match, and it is allowed to have a different sampling frequency (sample rate) for each audio stream. In synthesizing these three types of audio streams having different sampling frequencies, the audio mixing engine ADMXEN has sampling rate converters SPRTCV corresponding to the respective audio streams. That is, the sampling rate converter SPRTCV has a function of unifying the sampling frequency (sampling rate) at the time of output of various audio decoders (SNDDEC, SADEC, MADEC) to the sampling frequency (sample rate) of the final audio output. In this embodiment, as shown in FIG. 42, the information of the mixing level information MXLVI is transferred from the navigation manager NVMNG to the sound mixer SNDMIX in the audio mixing engine ADMXEN, and in the sound mixer SNDMIX based on the transferred information. A mixing level at the time of synthesizing the three types of audio streams is set. Thereafter, the output dynamic range of the final audio output AOUT can be set independently by various advanced content playback units ADVPL.
<イフェクトオーディオストリーム(Effect Audio Stream)>
本実施形態の音声ミキシングモデルにおける3種類のオーディオストリームの対応方法及び内容について以下に説明を行う。
<Effect Audio Stream>
A method and contents of the three types of audio streams in the audio mixing model of this embodiment will be described below.
イフェクトオーディオストリームEFTAD(図10参照)は、基本的にユーザがグラフィカルボタンをクリックした時に使われるオーディオストリームである。図16を用いて使用例を説明する。図16に示すように、アドバンストアプリケーションADAPLが画面上に表示され、その中にヘルプアイコン33が表示されているが、例えばユーザがヘルプアイコン33をクリック(指定)した時にユーザに対してヘルプアイコン33をクリックしたことを示す一つの手段として、ヘルプアイコン33を押した直後に特定の音声が出力され、ユーザにヘルプアイコン33をクリックしたことを明示することが可能となる。このようにクリックしたことを知らせる効果音が前記イフェクトオーディオEFTADに対応する。本実施形態において前記イフェクトオーディオEFTADはシングルチャンネル(モノラル)又はステレオチャンネル(2チャンネル)のWAVフォーマットをサポートしている。本実施形態においてナビゲーションマネージャNVMNGから送られるコントロールインフォメーションCTRLIの情報内容に応じて、アドバンストアプリケーションプレゼンテーションエンジンAAPEN内のサウンドデコーダーSNDDECでイフェクトオーディオストリームEFTADを発生した後、オーディオミキシングエンジンADMXEN内に転送される。また、このイフェクトオーディオストリームEFTADの音源はファイルキャッシュFLCCH内にWAVファイルとして事前に保存されており、アプリケーションプレゼンテーションエンジンAAPEN内のサウンドデコーダーSNDDECが前記WAVファイルを読取り、リニアPCMの形に変換し、オーディオミキシングエンジンADMXENへ転送する。本実施形態において、イフェクトオーディオEFTADは2以上のストリームを同時に表示することはできない。本実施形態において例えば1個のイフェクトオーディオストリームEFTADを表示している間に次のイフェクトオーディオストリームEFTADの表示出力を要求された場合、次に指定されたイフェクトオーディオEFTADストリームが優先されて出力される。図16を用い、具体的な例として説明を行うと例えばユーザがFFボタン38を押していた場合を考える。イフェクトボタン38を押した時にはユーザに表示するためにそれに対応したイフェクトオーディオEFTADが例えば数秒間鳴り続ける場合を考える。ユーザがFFボタン38を押した直後にイフェクトオーディオEFTADが鳴り終わる前にプレイボタン35を押した場合、FFボタン38のイフェクトオーディオEFTADが鳴り終らない段階でプレイボタン35を押したことを示すイフェクトオーディオEFTADが変わって出力されるようになる。そうすることによって、ユーザが画面上に表示されたアドバンストアプリケーションADAPLの複数のイメージオブジェクトを続けて押した時にユーザに対するクイックなレスポンスを表示することができユーザの使いやすさを大幅に向上させることができる。
The effect audio stream EFTAD (see FIG. 10) is basically an audio stream used when the user clicks a graphical button. An example of use will be described with reference to FIG. As shown in FIG. 16, the advanced application ADAPL is displayed on the screen and a
<サブオーディオストリーム(Sub Audio Stream)>
本実施形態においてサブオーディオストリームSUBADは、セカンダリーオーディオビデオSCDAVにおけるサブオーディオストリームSUBADとプライマリーオーディオビデオPRMAVにおけるサブオーディオストリームSUBADの2つのサブオーディオストリームSUBADをサポートする。
<Sub Audio Stream>
In the present embodiment, the sub audio stream SUBAD supports two sub audio streams SUBAD, that is, the sub audio stream SUBAD in the secondary audio video SCDAV and the sub audio stream SUBAD in the primary audio video PRMAV.
セカンダリーオーディオビデオSCDAVは、タイトルタイムラインTMLEに対して同期して表示することも、非同期な形で表示することもできる。もし、前記セカンダリーオーディオビデオSCDAVがサブビデオSUBVDとサブオーディオSUBADの両方を含む場合には、セカンダリーオーディオビデオSCDAVがタイトルタイムラインTMLEに同期していようがいまいが、前記サブビデオSUBVDと前記サブオーディオSUBADは互いに同期していなければならない。プライマリーオーディオビデオPRMAVにおけるサブオーディオSUBADに対してはタイトルタイムラインTMLEと同期していなければならない。また、本実施形態においてはサブオーディオストリームSUBADのエレメンタリーストリーム内のメタデータ制御情報も前記サブオーディオデコーダーSADECで処理される。 The secondary audio video SCDAV can be displayed synchronously or asynchronously with respect to the title timeline TMLE. If the secondary audio video SCDAV includes both the sub video SUBVD and the sub audio SUBAD, the secondary audio video SCDAV is synchronized with the title timeline TMLE regardless of whether the sub video SUBVD and the sub audio SUBAD are synchronized. Must be synchronized with each other. The sub audio SUBAD in the primary audio video PRMAV must be synchronized with the title timeline TMLE. In the present embodiment, metadata control information in the elementary stream of the sub audio stream SUBAD is also processed by the sub audio decoder SADEC.
<メインオーディオストリーム(Main Audio Stream)>
本実施形態においてメインオーディオストリームMANADは、サブスティテュートオーディオビデオSBTAV内のメインオーディオビデオMANAD、サブスティテュートオーディオ内SBTADのメインオーディオストリームMANADとプライマリーオーディオビデオPRMAV内のメインオーディオストリームMANADの3種類のメインオーディオストリームMANADが存在する。前記各異なる再生表示オブジェクト内に含まれる全てのメインオーディオストリームMANADは、タイトルタイムラインTMLEに同期していなければならない。
<Main Audio Stream>
In this embodiment, the main audio stream MANAD has three main audio streams: a main audio video MANAD in the substitute audio video SBTAV, a main audio stream MANAD in the SBTAD in substitute audio, and a main audio stream MANAD in the primary audio video PRMAV. MANAD exists. All main audio streams MANAD included in the different playback / display objects must be synchronized with the title timeline TMLE.
<ネットワークサーバとパーシステントストレージメモリからのデータ供給モデル(Network and Persistent Storage Data Supply Model)>
本実施形態におけるネットワークサーバNTSRVとパーシステントストレージPRSTRメモリからのデータ供給モデルを図43に示す。
<Network and Persistent Storage Data Supply Model>
FIG. 43 shows a data supply model from the network server NTSRV and the persistent storage PRSTR memory in this embodiment.
本実施形態においてはパーシステントストレージPRSTR内にアドバンストコンテンツファイルADVCTを保存することができる。また、ネットワークサーバNTSRV内にはプライマリービデオセットPRMVSを除くアドバンストコンテンツADVCTを保存しておくことができる。本実施形態において、図43のデータアクセスマネージャDAMNG内のネットワークマネージャNTMNGとパーシステントストレージマネージャPRMNGは、前記アドバンストコンテンツADVCTに関する各種ファイルへのアクセス処理を行う。更に前記ネットワークマネージャNTMNGは、プロトコルレベルでのアクセス機能を持っている。ネットワークサーバNTSRVやパーシステントストレージPRSTRからネットワークマネージャNTMNG、パーシステントストレージマネージャPRMNGを介して、アドバンストアプリケーションADAPLに関するアドバンストストリームファイルを直接入手する時の制御をナビゲーションマネージャNVMNG内のファイルキャッシュマネージャFLCMNGが行う。前記パーサーPARSERはアドバンストコンテンツ再生部ADVPLの起動時において、プレイリストファイルPLLSTの中身を直接読取ることはできる。前記プレイリストファイルPLLSTは、情報記憶媒体DISCに入っていることが前提とされるが、本実施形態においてそれに限らず前記プレイリストファイルPLLSTがパーシステントストレージPRSTRやネットワークサーバNTSRVなどに保存され、そこから直接プレイリストファイルPLLSTを読取ることも可能である(図50及び図51参照)。本実施形態においてはアドバンストナビゲーションファイル(図11参照)に示すアドバンストナビゲーションディレクトリADVNVの下に存在し、ネットワークサーバNTSRVやパーシステントストレージPRSTRから得られるマニュフェストファイルMNFST、マークアップファイルMRKUPおよびスクリプトファイルSCRPTなどのファイルをナビゲーションマネージャNVMNG内のパーサーPARSERが直接再生することはできない。 In the present embodiment, the advanced content file ADVCT can be stored in the persistent storage PRSTR. Further, advanced content ADVCT excluding the primary video set PRMVS can be stored in the network server NTSRV. In the present embodiment, the network manager NTMNG and persistent storage manager PRMNG in the data access manager DAMNG of FIG. 43 perform access processing to various files related to the advanced content ADVCT. Further, the network manager NTMNG has an access function at the protocol level. The file cache manager FLCMNG in the navigation manager NVMNG performs control when the advanced stream file related to the advanced application ADAPL is directly obtained from the network server NTSRV or persistent storage PRSTR via the network manager NTMNG or persistent storage manager PRMNG. The parser PARSER can directly read the contents of the playlist file PLLST when the advanced content playback unit ADVPL is started. The playlist file PLLST is assumed to be stored in the information storage medium DISC. It is also possible to read the playlist file PLLST directly from (see FIGS. 50 and 51). In the present embodiment, there are a manifest file MNFST, a markup file MRKUP, a script file SCRPT, etc. that exist under the advanced navigation directory ADVNV shown in the advanced navigation file (see FIG. 11) and are obtained from the network server NTSRV or persistent storage PRSTR. The file cannot be directly played back by the parser PARSER in the navigation manager NVMNG.
つまり、本実施形態においてはアドバンストナビゲーションADVNV (内のマニュフェストファイルMNFST、マークアップファイルMRKUPおよびスクリプトファイルSCRPTなどのファイル)をパーサーPARSERが再生する場合には事前にファイルキャッシュFLCCH内に1度記録され、その後ファイルキャッシュFLCCHから前記アドバンストナビゲーションADVNVを前記パーサーPARSERが再生することを前提としている。プレゼンテーションエンジンPRSEN内のアドバンストアプリケーションプレゼンテーションエンジンAAPENが使用するアドバンストエレメントADVEL(図11に示す静止画ファイルIMAGE、イフェクトオーディオファイルEFTAD、フォントファイルFONT及びその他のファイルOTHERなどのファイル)は、事前にファイルキャッシュFLCCHに保存されていることを前提としている。すなわち前記アドバンストエレメントADVELは、事前にネットワークサーバNTSRVやパーシステントストレージマネージャPRMNGからアドバンストコンテンツADVCTをアクセスマネージャDAMNGに介してアドバンストコンテンツADVCTをファイルキャッシュFLCCH内に事前保存し、アドバンストアプリケーションプレゼンテーションエンジンAAPENは前記ファイルキャッシュFLCCH内に保存されたアドバンストエレメントADVELを読取る。またプレゼンテーションエンジンPRSEN内にあるアドバンストアプリケーションプレゼンテーションエンジンAAPENは、ネットワークサーバNTSRVやパーシステントストレージPRSTR内にある各種ファイルをファイルキャッシュFLCCHにコピーする制御を行う。前記アドバンストアプリケーションプレゼンテーションエンジンAAPENはナビゲーションマネージャNVMNG内のファイルキャッシュマネージャFLCMNGを動かして、ファイルキャッシュFLCCH内に必要なファイル(や必要な情報の中で足りないファイル)を保存させる。それに応じファイルキャッシュマネージャFLCMNGは、ファイルキャッシュFLCCH内に保存されているリストを表すファイルキャッシュテーブルの内容を確認し、アドバンストアプリケーションプレゼンテーションエンジンAAPENから要求されたファイルが前記ファイルキャッシュFLCCH内に一時保存されているかどうかの確認を行う。本実施形態において、前記説明したようにプレゼンテーションエンジンPRSEN内のアドバンストアプリケーションプレゼンテーションエンジンAAPENがナビゲーションマネージャNVMNG内のファイルキャッシュマネージャFLCMNGを動かして必要なアドバンストコンテンツADVCTをファイルキャッシュFLCCH内に事前保存するように説明を行った。しかし、本実施形態はそれに限らず例えばナビゲーションマネージャNVMNG内のプレイリストマネージャPLMNGがプレイリストPLLST内のリソースインフォメーションRESRCIの内容を解読し、その結果をパーサーPASERに報告して、パーサーPARSERが前記リソースインフォメーションRESRCIに基づきファイルキャッシュマネージャFLCMNGを動かして事前に必要なアドバンストコンテンツADVCTをファイルキャッシュFLCCH内に保存することもできる。その結果、ファイルキャッシュFLCCH内に必要なファイルが全て一時保存されている場合にはファイルキャッシュマネージャFLCMNGは、必要なファイルデータをファイルキャッシュFLCCHから直接アドバンストアプリケーションプレゼンテーションエンジンAAPENに転送処理を行う。また逆に前記ファイルキャッシュFLCCH内に必要な全てのファイルが存在していない場合には、ファイルキャッシュマネージャFLCMNGは元々あった場所(ネットワークサーバNTSRVまたはパーシステントストレージPRSTR内)から必要なファイルを読取り、前記ファイルキャッシュFLCCHに転送する。その後、必要なファイルデータを前記アドバンストアプリケーションプレゼンテーションエンジンAAPENへ転送する。セカンダリービデオプレーヤSCDVPは、例えばセカンダリービデオセットのタイムマップファイルSTMAP(図11参照)やセカンダリーエンハンストビデオオブジェクトファイルS-EVOBのセカンダリービデオセットファイルSCDVSをネットワークサーバNTSRVやパーシステントストレージPRSTRからネットワークマネージャNTMNGやパーシステントストレージマネージャPRMNGを介してファイルキャッシュFLCCHへ転送させる。ネットワークサーバNTSRVから読み取ったセカンダリーエンハンストビデオオブジェクトS-EVOBデータは、一時的にストリーミングバッファ内に保存される。その後ストリーミングバッファSTRBUFから前記保存したセカンダリーエンハンストビデオオブジェクトS-EVOBをセカンダリービデオプレーヤSCDVP内のセカンダリービデオプレイバックエンジンSVPBENが再生する。また、ストリーミングバッファSTRBUF内に保存されたセカンダリーエンハンストビデオオブジェクトS-EVOBの一部はセカンダリービデオプレーヤSCDVP内のデマルチプレクサDEMUX内に転送され、デマルチプレクス処理される。 In other words, in this embodiment, when the parser PARSER reproduces the advanced navigation ADVNV (the files such as the manifest file MNFST, the markup file MRKUP, and the script file SCRPT), it is recorded once in the file cache FLCCH in advance. Thereafter, it is assumed that the parser PARSER reproduces the advanced navigation ADVNV from the file cache FLCCH. Advanced element ADVEL (files such as still image file IMAGE, effect audio file EFTAD, font file FONT, and other file OTHER shown in FIG. 11) used by advanced application presentation engine AAPEN in presentation engine PRSEN is file cache FLCCH in advance. It is assumed that it is stored in. That is, the advanced element ADVEL pre-stores the advanced content ADVCT from the network server NTSRV or persistent storage manager PRMNG via the access manager DAMNG in advance in the file cache FLCCH, and the advanced application presentation engine AAPEN stores the file The advanced element ADVEL stored in the cache FLCCH is read. The advanced application presentation engine AAPEN in the presentation engine PRSEN controls to copy various files in the network server NTSRV and the persistent storage PRSTR to the file cache FLCCH. The advanced application presentation engine AAPEN moves the file cache manager FLCMNG in the navigation manager NVMNG to store necessary files (or files that are missing from the necessary information) in the file cache FLCCH. In response, the file cache manager FLCMNG checks the contents of the file cache table representing the list stored in the file cache FLCCH, and the file requested from the advanced application presentation engine AAPEN is temporarily stored in the file cache FLCCH. Check if it is. In the present embodiment, as described above, the advanced application presentation engine AAPEN in the presentation engine PRSEN moves the file cache manager FLCMNG in the navigation manager NVMNG to pre-store necessary advanced content ADVCT in the file cache FLCCH. Went. However, this embodiment is not limited thereto, for example, the playlist manager PLMNG in the navigation manager NVMNG decodes the contents of the resource information RESRCI in the playlist PLLST, reports the result to the parser PASER, and the parser PARSER The advanced content ADVCT required in advance can be stored in the file cache FLCCH by operating the file cache manager FLCMNG based on RESRCI. As a result, when all the necessary files are temporarily stored in the file cache FLCCH, the file cache manager FLCMNG transfers the necessary file data directly from the file cache FLCCH to the advanced application presentation engine AAPEN. Conversely, if all the necessary files are not present in the file cache FLCCH, the file cache manager FLCMNG reads the necessary files from the original location (in the network server NTSRV or persistent storage PRSTR), Transfer to the file cache FLCCH. Thereafter, necessary file data is transferred to the advanced application presentation engine AAPEN. The secondary video player SCDVP, for example, sends the secondary video set time map file STMAP (see FIG. 11) and the secondary enhanced video object file S-EVOB secondary video set file SCDVS from the network server NTSRV or persistent storage PRSTR to the network manager NTMNG or persistent storage PRSTR. Transfer to the file cache FLCCH via the stent storage manager PRMNG. The secondary enhanced video object S-EVOB data read from the network server NTSRV is temporarily stored in the streaming buffer. Thereafter, the stored secondary enhanced video object S-EVOB is reproduced from the streaming buffer STRBUF by the secondary video playback engine SVPBEN in the secondary video player SCDVP. Further, a part of the secondary enhanced video object S-EVOB stored in the streaming buffer STRBUF is transferred to the demultiplexer DEMUX in the secondary video player SCDVP, and is demultiplexed.
<ユーザ入力モデル(User Input Model)>
本実施形態においてアドバンストコンテンツADVCTの再生時には、あらゆるユーザ入力イベントがアドバンストアプリケーションマネージャADAMNG内のプログラミングエンジンPRGENにより最初に処理される。本実施形態におけるユーザ入力ハンドリングモデルを図44に示す。
<User Input Model>
In the present embodiment, when the advanced content ADVCT is played back, every user input event is first processed by the programming engine PRGEN in the advanced application manager ADAMNG. FIG. 44 shows a user input handling model in the present embodiment.
例えばキーボードやマウスあるいはリモコンなどの各種ユーザインタフェースドライブで発生されるユーザオペレーションUOPEの信号は図28に示すようにユーザインタフェースエンジンUIENG内の各種デバイスコントローラーモジュール(例えばリモートコントロールコントローラーRMCCTR、キーボードコントローラーKBDCTRやマウスコントローラーMUSCTRなど)によりユーザインタフェースイベントUIEVTとして入力される。すなわち、ユーザオペレーションUOPEの信号は、図44に示すようにユーザインタフェースエンジンUIENGを介し、ユーザインタフェースイベントUIEVTとしてアドバンストアプリケーションマネージャADAMNG内のプログラミングエンジンPRGEN内に入力される。各種スクリプトSCRPTの実行を対応するECMA(エクマ)スクリプトプロセッサECMASPがアドバンストアプリケーションマネージャADAMNG内のプログラミングエンジンPRGEN内に存在する。本実施形態においてアドバンストアプリケーションマネージャADAMNG内のプログラミングエンジンPRGEN内には図44に示すようにアドバンストアプリケーションのスクリプトADAPLSの保存場所とデフォルトイベントハンドラースクリプトDEVHSPの保存場所がある。本実施形態におけるユーザ入力イベントの一覧表を図45に示す。前記図45に示すように、例えば画面上でカーソルを移動させるなどの簡単な操作またはそれらの簡単な操作の組合せをユーザ入力イベントと呼び、早送り再生を行うなどの一連の操作の組合せ処理をインプットハンドラーと呼ぶ。また前記ユーザ入力イベントやインプットハンドラーに対応してバーチャルキーコード(インプットハンドラーコード)が設定されている。本実施形態においてプログラミングエンジンPRGEN内に図45に示したデフォルトインプットハンドラーコードやユーザ入力イベントに対応したバーチャルキーコードの情報がデフォルトイベントハンドラースクリプトDEVHSP内に予め記録されている。またネットワークサーバNTSRVや情報記憶媒体DISC、パーシステントストレージPRSTRから取り込んだアドバンストアプリケーションADAPLのスクリプトファイルSCRPT(図11参照)内に記録された情報が図44に示すようにプログラミングエンジンPRGEN内のアドバンストアプリケーションのスクリプト記録領域ADAPLS内に記録される。 For example, user operation UOPE signals generated by various user interface drives such as a keyboard, a mouse or a remote controller, as shown in FIG. 28, are various device controller modules (for example, a remote control controller RMCCTR, a keyboard controller KBDCTR and a mouse) Input as user interface event UIEVT by controller MUSCTR). That is, the signal of the user operation UOPE is input into the programming engine PRGEN in the advanced application manager ADAMNG as the user interface event UIEVT through the user interface engine UIENG as shown in FIG. An ECMA script processor ECMASP corresponding to the execution of various scripts SCRPT exists in the programming engine PRGEN in the advanced application manager ADAMNG. In the present embodiment, the programming engine PRGEN in the advanced application manager ADAMNG has a storage location for the advanced application script ADAPLS and a storage location for the default event handler script DEVHSP, as shown in FIG. FIG. 45 shows a list of user input events in this embodiment. As shown in FIG. 45, for example, a simple operation such as moving the cursor on the screen or a combination of these simple operations is called a user input event, and a combination process of a series of operations such as fast-forward playback is input. Called a handler. A virtual key code (input handler code) is set corresponding to the user input event and the input handler. In the present embodiment, the default input handler code shown in FIG. 45 and the virtual key code information corresponding to the user input event are recorded in advance in the default event handler script DEVHSP in the programming engine PRGEN. In addition, the information recorded in the script file SCRPT (see FIG. 11) of the advanced application ADAPL taken from the network server NTSRV, the information storage medium DISC, and the persistent storage PRSTR shows the advanced application in the programming engine PRGEN as shown in FIG. It is recorded in the script recording area ADAPLS.
ECMA(エクマ)スクリプトプロセッサECMASPがユーザインタフェースイベントUIEVTを受取るとそのユーザインタフェースイベントUIEVT内に含まれるイベントハンドラーコード(デフォルトインプットハンドラーコードまたはユーザ入力イベントに対応したバーチャルキーコード)を解析し、ユーザインタフェースイベントUIEVT内に記述されたイベントハンドラーコードがアドバンストアプリケーションのスクリプト記録領域ADAPLS内に全て登録されているイベントハンドラーコードに対応しているかどうかの検索を行う。もしユーザインタフェースイベントUIEVT内に記述された全てのイベントハンドラーコードがアドバンストアプリケーションのスクリプト記録領域ADAPLS内に登録されたイベントハンドラーコードに該当していた場合にはECMA(エクマ)スクリプトプロセッサECMASPは直ちにその内容に応じた実行処理を開始する。もし、前記ユーザインタフェースイベントUIEVT内に記述されたイベントハンドラーコードがアドバンストアプリケーションのスクリプト記録領域ADAPLS内に登録されていないイベントハンドラーコードが存在した場合には、ECMA(エクマ)スクリプトプロセッサECMASPは、デフォルトイベントハンドラースクリプトDEVHSP内を検索し、対応したイベントハンドラーコードが存在するか否かを調べる。デフォルトイベントハンドラースクリプトDEVHSP内に不足したイベントハンドラーコードに対する情報が全て存在していた場合には、ECMA(エクマ)スクリプトプロセッサECMASPはアドバンストアプリケーションのスクリプト記録領域ADAPLSとデフォルトイベントハンドラースクリプトDEVHSP内に登録されているイベントハンドラーコードを利用し、ユーザインタフェースイベントUIEVTの内容に従い実行処理を行う。もし、前記デフォルトイベントハンドラースクリプトDEVHSP内にもユーザインタフェースイベントUIEVT内に含まれるイベントハンドラーコードが登録されていない場合にはECMA(エクマ)スクリプトプロセッサECMASPは、前記ユーザインタフェースイベントUIEVTの内容を無視し、ユーザインタフェースイベントUIEVTの実行を無効とする。 When the ECMA script processor ECMASP receives the user interface event UIEVT, it analyzes the event handler code (default input handler code or virtual key code corresponding to the user input event) included in the user interface event UIEVT, and the user interface event The event handler code described in UIEVT is searched for whether it corresponds to all event handler codes registered in the script recording area ADAPLS of the advanced application. If all the event handler codes described in the user interface event UIEVT correspond to the event handler codes registered in the script recording area ADAPLS of the advanced application, the ECMA script processor ECMASP immediately contains the contents. The execution process corresponding to is started. If the event handler code described in the user interface event UIEVT is not registered in the script recording area ADAPLS of the advanced application, the ECMA script processor ECMASP is the default event. Search the handler script DEVHSP to see if the corresponding event handler code exists. If all the information about the missing event handler code exists in the default event handler script DEVHSP, the ECMA script processor ECMASP is registered in the advanced application script recording area ADAPLS and the default event handler script DEVHSP. The event handler code is used to execute the execution according to the contents of the user interface event UIEVT. If the event handler code included in the user interface event UIEVT is not registered in the default event handler script DEVHSP, the ECMA script processor ECMASP ignores the contents of the user interface event UIEVT, Disable execution of user interface event UIEVT.
<デフォルトインプットハンドラー(Default Input Handler)>
図44の説明文内で記述したイベントハンドラーとイベントハンドラーコードの内容を図45に示す。図45の内容は図44のデフォルトイベントハンドラースクリプトDEVHSP内に事前に登録されたイベントハンドラーやバーチャルキーコードの内容を表し、図44で説明したユーザイベントハンドラーが図45のデフォルトインプットハンドラーに対応し、図44で説明したデフォルトイベントハンドラーコードが図45のバーチャルキーコードに対応する。図45におけるインストラクションとは前記バーチャルキーコードに対応した実行内容を表し、具体的な内容は機能概要により説明する。
<Default Input Handler>
FIG. 45 shows the contents of the event handler and event handler code described in the explanatory text of FIG. The contents of FIG. 45 represent the contents of event handlers and virtual key codes registered in advance in the default event handler script DEVHSP of FIG. 44. The user event handler described in FIG. 44 corresponds to the default input handler of FIG. The default event handler code described in FIG. 44 corresponds to the virtual key code in FIG. The instruction in FIG. 45 represents the execution contents corresponding to the virtual key code, and the specific contents will be described with reference to the function outline.
図45に示すようにデフォルトインプットハンドラーを持っているイベントは、15種類のバーチャルキーコードに対応している。バーチャルキーコードが“VK_PLAY”の場合、デフォルトインプットハンドラーは“playHandler”、値は“0xFA”であり、標準速度再生時に設定する。次にバーチャルキーコードが“VK_PAUSE”の場合、デフォルトインプットハンドラーは“pauseHandler”、値は“0xB3”であり、一時停止/再生時に設定する。次にバーチャルキーコードが“VK_FF”の場合、デフォルトインプットハンドラーは“fastForwardHandler”、値は“0xC1”であり、早送り再生時に設定する。次にバーチャルキーコードが“VK_FR”の場合、デフォルトインプットハンドラーは“fastReverseHandler”、値は“0xC2”であり、高速巻戻し再生時に設定する。次にバーチャルキーコードが“VK_SF”の場合、デフォルトインプットハンドラーは“slowForwardHandler”、値は“0xC3”であり、ゆっくり再生の時に設定する。次にバーチャルキーコードが“VK_SR”の場合、デフォルトインプットハンドラーは“slowReverseHandler”、値は“0xC4”であり、ゆっくり巻戻しの時に設定する。次にバーチャルキーコードが“VK_STEP_PREV”の場合、デフォルトインプットハンドラーは“stepPreviousHandler”、値は“0xC5”であり、前のステップに戻る時に設定する。次にバーチャルキーコードが“VK_STEP_NEXT”の場合、デフォルトインプットハンドラーは“stepNextHandler”、値は“0xC6”であり、次のステップへ飛ぶ時に設定する。次にバーチャルキーコードが“VK_SKIP_PREV”の場合、デフォルトインプットハンドラーは“skipPreviousHandler”、値は“0xC7”であり、前のチャプターを再生する時に設定する。次にバーチャルキーコードが“VK_SKIP_NEXT”の場合、デフォルトインプットハンドラーは“skipNextHandler”、値は“0xC8”であり、次のチャプターを再生する時に設定する。次にバーチャルキーコードが“VK_SUBTITLE_SWITCH”の場合、デフォルトイン
プットハンドラーは“switchSubtitleHandler”、値は“0xC9”であり、サブタイトルの表示有無の設定を行う。次にバーチャルキーコードが“VK_SUBTITLE”の場合、デフォルトインプットハンドラーは“changeSubtitleHandler”、値は“0xCA”であり、サブタイトルトラックの変更時に設定する。次にバーチャルキーコードが“VK_CC”の場合、デフォルトインプットハンドラーは“showClosedCaptionHandler”、値は“0xCB”であり、クローズドキャプションの表示をする時に設定する。次にバーチャルキーコードが“VK_ANGLE”の場合、デフォルトインプットハンドラーは“changeAngleHandler”、値は“0xCC”であり、アングルの切替え時に設定する。次にバーチャルキーコードが“VK_AUDIO”の場合、デフォルトインプットハンドラーは“changeAudioHandler”、値は“0xCD”でありオーディオトラックの切替えをする時に設定する。
As shown in FIG. 45, an event having a default input handler corresponds to 15 types of virtual key codes. When the virtual key code is “VK_PLAY”, the default input handler is “playHandler” and the value is “0xFA”, which is set during standard speed playback. Next, when the virtual key code is “VK_PAUSE”, the default input handler is “pauseHandler” and the value is “0xB3”, which is set at the time of pause / playback. Next, when the virtual key code is “VK_FF”, the default input handler is “fastForwardHandler” and the value is “0xC1”, which is set during fast forward playback. Next, when the virtual key code is “VK_FR”, the default input handler is “fastReverseHandler” and the value is “0xC2”, which are set during fast rewind playback. Next, when the virtual key code is “VK_SF”, the default input handler is “slowForwardHandler” and the value is “0xC3”, which is set during slow playback. Next, when the virtual key code is “VK_SR”, the default input handler is “slowReverseHandler” and the value is “0xC4”, which is set when slowly rewinding. Next, when the virtual key code is “VK_STEP_PREV”, the default input handler is “stepPreviousHandler” and the value is “0xC5”, which is set when returning to the previous step. Next, when the virtual key code is “VK_STEP_NEXT”, the default input handler is “stepNextHandler” and the value is “0xC6”, which is set when jumping to the next step. Next, when the virtual key code is “VK_SKIP_PREV”, the default input handler is “skipPreviousHandler” and the value is “0xC7”, which is set when playing the previous chapter. Next, when the virtual key code is “VK_SKIP_NEXT”, the default input handler is “skipNextHandler” and the value is “0xC8”, which is set when the next chapter is played. Next, when the virtual key code is “VK_SUBTITLE_SWITCH”, the default input handler is “switchSubtitleHandler”, the value is “0xC9”, and whether or not to display the subtitle is set. Next, when the virtual key code is “VK_SUBTITLE”, the default input handler is “changeSubtitleHandler” and the value is “0xCA”, which is set when the subtitle track is changed. Next, when the virtual key code is “VK_CC”, the default input handler is “showClosedCaptionHandler” and the value is “0xCB”, which is set when displaying closed captions. Next, when the virtual key code is “VK_ANGLE”, the default input handler is “changeAngleHandler” and the value is “0xCC”, which is set when the angle is switched. Next, when the virtual key code is “VK_AUDIO”, the default input handler is “changeAudioHandler” and the value is “0xCD”, which is set when switching audio tracks.
また、デフォルトインプットハンドラーを持っていないイベントについても、バーチャルキーコードに対しての値、インストラクションを設定することができる。バーチャルキーコードが“VK_MENU”の場合、値は“0xCE”であり、メニュー表示時に設定する。次にバーチャルキーコードが“VK_TOP_MENU”の場合、値は“0xCF”であり、トップメニューの表示をする時に設定する。次にバーチャルキーコードが“VK_BACK”の場合、値は“0xD0”であり、前の画面に戻る又は再生開始位置に戻る時に設定する。次にバーチャルキーコードが“VK_RESUME”の場合、値は“0xD1”であり、メニューからの戻り時に設定する。次にバーチャルキーコードが“VK_LEFT”の場合、値は“0x25”であり、カーソルを左にずらす時に設定する。次にバーチャルキーコードが“VK_UP”の場合、値は“0x26”であり、カーソルを上に上げる時に設定する。次にバーチャルキーコードが“VK_RIGHT”の場合、値は“0x27”であり、カーソルを右にずらす時に設定する。次にバーチャルキーコードが“VK_DOWN”の場合、値は“0x28”であり、カーソルを下に下げる時に設定する。次にバーチャルキーコードが“VK_UPLEFT”の場合、値は“0x29”であり、カーソルを左上に上げる時に設定する。次にバーチャルキーコードが“VK_UPRIGHT”の場合、値は“0x30”であり、カーソルを右上に上げる時に設定する。次にバーチャルキーコードが“VK_DOWNLEFT”の場合、値は“0x31”であり、カーソルを左下に下げる時に設定する。次にバーチャルキーコードが“VK_DOWNRIGHT”の場合、値は“0x32”であり、カーソルを右下に下げる時に設定する。次にバーチャルキーコードが“VK_TAB”の場合、値は“0x09”であり、タブ使用時に設定する。次にバーチャルキーコードが“VK_A_BUTTON”の場合、値は“0x70”であり、Aボタン押下時に設定する。次にバーチャルキーコードが“VK_B_BUTTON”の場合、値は“0x71”であり、Bボタン押下時に設定する。次にバーチャルキーコードが“VK_C_BUTTON”の場合、値は“0x72”であり、Cボタン押下時に設定する。次にバーチャルキーコードが“VK_D_BUTTON”の場合、値は“0x73”であり、Dボタン押下時に設定する。次にバーチャルキーコードが“VK_ENTER”の場合、値は“0x0D”であり、OKボタン押下時に設定する。次にバーチャルキーコードが“VK_ESC”の場合、値は“0x1B”であり、キャンセル時に設定する。次にバーチャルキーコードが“VK_0”の場合、値は“0x30”であり“0”と設定する。次にバーチャルキーコードが“VK_1”の場合、値は“0x31”であり、“1”と設定する。次にバーチャルキーコードが“VK_2”の場合、値は“0x32”であり、“2”と設定する。次にバーチャルキーコードが“VK_3”の場合、値は“0x33”であり、“3”と設定する。次にバーチャルキーコードが“VK_4”の場合、値は“0x34”であり、“4”と設定する。次にバーチャルキーコードが“VK_5”の場合、値は“0x35”であり、“5”と設定する。次にバーチャルキーコードが“VK_6”の場合、値は“0x36”であり、“6”と設定する。次にバーチャルキーコードが“VK_7”の場合、値は“0x37”であり、“7”と設定する。次にバーチャルキーコードが“VK_8”の場合、値は“0x38”であり、“8”と設定する。次にバーチャルキーコードが“VK_9”の場合、値は“0x39”であり、“9”と設定する。次にバーチャルキーコードが“VK_MOUSEDOWN”の場合、値は“0x01”であり、指定エレメントを入力不可能とする(非最前面に移す)時に設定する。次にバーチャルキーコードが“VK_MOUSEUP”の場合、値は“0x02”であり、指定エレメントを入力可能とする(最前面に移す)時に設定する。 You can also set values and instructions for virtual keycodes for events that do not have a default input handler. When the virtual key code is “VK_MENU”, the value is “0xCE” and is set when the menu is displayed. Next, when the virtual key code is “VK_TOP_MENU”, the value is “0xCF”, which is set when displaying the top menu. Next, when the virtual key code is “VK_BACK”, the value is “0xD0”, which is set when returning to the previous screen or returning to the playback start position. Next, when the virtual key code is “VK_RESUME”, the value is “0xD1”, which is set when returning from the menu. Next, when the virtual key code is “VK_LEFT”, the value is “0x25”, which is set when the cursor is moved to the left. Next, when the virtual key code is “VK_UP”, the value is “0x26”, which is set when the cursor is moved up. Next, when the virtual key code is “VK_RIGHT”, the value is “0x27”, which is set when the cursor is moved to the right. Next, when the virtual key code is “VK_DOWN”, the value is “0x28” and is set when the cursor is lowered. Next, when the virtual key code is “VK_UPLEFT”, the value is “0x29” and is set when the cursor is raised to the upper left. Next, when the virtual key code is “VK_UPRIGHT”, the value is “0x30”, which is set when the cursor is moved to the upper right. Next, when the virtual key code is “VK_DOWNLEFT”, the value is “0x31”, which is set when the cursor is lowered to the lower left. Next, when the virtual key code is “VK_DOWNRIGHT”, the value is “0x32” and is set when the cursor is lowered to the lower right. Next, when the virtual key code is “VK_TAB”, the value is “0x09”, which is set when the tab is used. Next, when the virtual key code is “VK_A_BUTTON”, the value is “0x70”, which is set when the A button is pressed. Next, when the virtual key code is “VK_B_BUTTON”, the value is “0x71”, which is set when the B button is pressed. Next, when the virtual key code is “VK_C_BUTTON”, the value is “0x72”, which is set when the C button is pressed. Next, when the virtual key code is “VK_D_BUTTON”, the value is “0x73”, which is set when the D button is pressed. Next, when the virtual key code is “VK_ENTER”, the value is “0x0D”, which is set when the OK button is pressed. Next, when the virtual key code is “VK_ESC”, the value is “0x1B” and is set when canceling. Next, when the virtual key code is “VK_0”, the value is “0x30” and is set to “0”. Next, when the virtual key code is “VK_1”, the value is “0x31” and is set to “1”. Next, when the virtual key code is “VK_2”, the value is “0x32” and is set to “2”. Next, when the virtual key code is “VK_3”, the value is “0x33” and is set to “3”. Next, when the virtual key code is “VK_4”, the value is “0x34” and is set to “4”. Next, when the virtual key code is “VK_5”, the value is “0x35” and is set to “5”. Next, when the virtual key code is “VK — 6”, the value is “0x36” and is set to “6”. Next, when the virtual key code is “VK_7”, the value is “0x37” and is set to “7”. Next, when the virtual key code is “VK_8”, the value is “0x38” and is set to “8”. Next, when the virtual key code is “VK_9”, the value is “0x39” and is set to “9”. Next, when the virtual key code is “VK_MOUSEDOWN”, the value is “0x01”, which is set when the specified element cannot be input (move to the front). Next, when the virtual key code is “VK_MOUSEUP”, the value is “0x02”, which is set when the specified element can be input (move to the front).
<スタンダードコンテンツのシステムパラメータ(System Parameters for Advanced Content)>
現行DVD-Videoまたは本実施形態におけるスタンダードコンテンツSTDCTにおいて、システム的に利用するパラメータを設定するものとしてSPRM(システムパラメータ)が定義されている。しかし、本実施形態においてアドバンストコンテンツナビゲーションでは前記SPRM(システムパラメータ)は使用されず、前記SPRM(システムパラメータ)に変わるものとして図46〜図49に至るシステムパラメータが設定される。アドバンストコンテンツADVCT再生時においてはAPIコマンド処理により前記SPRM(システムパラメータ)の値を知ることができる。本実施形態におけるシステムパラメータは、下記の4種類のパラメータを設定することができる。前記システムパラメータは情報記録再生装置1内のアドバンストコンテンツ再生部ADVPL毎にそれぞれ設定される。図46に示すプレーヤパラメータは、各情報記録再生装置1毎に共通して設定することができる。図47に示すプロファイルパラメータは、ユーザプロファイルのデータを示している。図48に示すプレゼンテーションパラメータは、画面上の表示状態を示している。また、図49に示すレイアウトパラメータは、映像表示時のレイアウト(図39参照)に関するパラメータを意味している。
<System Parameters for Advanced Content>
In the current DVD-Video or the standard content STDCT in the present embodiment, SPRM (system parameter) is defined as a parameter for setting system-based parameters. However, in the present embodiment, the SPRM (system parameter) is not used in advanced content navigation, and the system parameters shown in FIGS. 46 to 49 are set in place of the SPRM (system parameter). During playback of advanced content ADVCT, the value of the SPRM (system parameter) can be known by API command processing. As the system parameters in the present embodiment, the following four types of parameters can be set. The system parameters are set for each advanced content playback unit ADVPL in the information recording /
本実施形態において前記システムパラメータは、図14におけるデータキャッシュDTCCH内にテンポラリーに設定するが、それに限らず図28に示すナビゲーションマネージャNVMNG内のパーサーPARSER内に設定されているテンポラリーメモリ(図示していないが)内に設定することもできる。以下に各図面毎の説明を行う。 In the present embodiment, the system parameters are set temporarily in the data cache DTCCH in FIG. 14, but not limited thereto, temporary memory (not shown) set in the parser PARSER in the navigation manager NVMNG shown in FIG. Can be set in). Hereinafter, each drawing will be described.
<プレーヤパラメータ>
図46に本実施形態におけるプレーヤパラメータの一覧表を示す。
<Player parameters>
FIG. 46 shows a list of player parameters in the present embodiment.
本実施形態においてプレーヤパラメータは、プレーヤパラメータオブジェクトと、データキャッシュオブジェクトの2個のオブジェクトからなる。前記プレーヤパラメータとは、図1に示す情報記録再生装置1内のアドバンストコンテンツ再生部ADVPLが映像再生処理を行う上で必要とされる一般的なパラメータ情報を意味する。前記プレーヤパラメータの中でネットワークダウンロードやパーシステントストレージPRSTRからデータキャッシュDTCCHへのデータ転送に関わらない一般的なパラメータ情報がプレーヤパラメータに属する。本実施形態における前記アドバンストコンテンツ再生部ADVPL内での処理は、前記データキャッシュDTCCHへのデータ転送処理を前提としている。前記アドバンストコンテンツ再生部ADVPLが必要とされるパラメータ情報として、前記データキャッシュへのデータ転送処理に必要なパラメータがデータキャッシュに対応したプレーヤパラメータとして定義される。プレーヤパラメータオブジェクト内には、13個のプレーヤパラメータが設定されている。プレーヤパラメータの内容として“majorVersion”については、対応規格書のバージョン番号の正数値を意味する。“minorVersion”については、対応規格書のバージョン番号の小数点以下の数字を意味する。“videoCapabilitySub”については、サブビデオの表示可能を意味する。“audioCapabilityMain”については、メインオーディオの表示可能を意味する。“audioCapabilitySub”については、サブオーディオの表示可能を意味する。“audioCapabilityAnalog”については、アナログオーディオの表示可能を意味する。“audioCapabilityPCM”については、PCMオーディオの表示可能を意味する。“audioCapabilitySPDIF”については、S/PDIFオーディオの表示可能を意味する。“regionCode”については、リージョンコードを意味する。前記リージョンコードとは地球上を6つの地域に分け、各地域毎にリージョンコード番号を設定したものを意味する。映像再生時には前記リージョンコード番号に合致した地域でのみ再生表示を許可することができる。“countryCode”については、国コードを意味する。“displayAspectRatio”については、アスペクト比を意味する。前記アスペクト比とは、ユーザに表示する映像画面の縦横比のことである。“currentDisplayMode”については、表示モードを意味する。“networkThroughput”については、ネットワークスループットを意味する。前記ネットワークスループットとは、ネットワークを経由しネットワークサーバNTSRVから転送されるデータの転送レートのことである。
In this embodiment, the player parameter is composed of two objects, a player parameter object and a data cache object. The player parameter means general parameter information required for the advanced content playback unit ADVPL in the information recording /
また、データキャッシュオブジェクト内には“dataCacheSize”が設定され、その内容としてデータキャッシュサイズを意味する。 Further, “dataCacheSize” is set in the data cache object, which means the data cache size.
<プロファイルパラメータ>
図47に本実施形態におけるプロファイルパラメータの一覧表を示す。
<Profile parameters>
FIG. 47 shows a list of profile parameters in the present embodiment.
本実施形態においてプロファイルパラメータは、プロファイルパラメータオブジェクトからなる。前記プロファイルパラメータとは、図1に示す情報記録再生装置1内のアドバンストコンテンツ再生部ADVPLにより処理される画面の表示形式に関するパラメータを意味する。プロファイルパラメータオブジェクト内には4個のプロファイルパラメータが設定されている。プロファイルパラメータの内容として“parentalLevel”とは、例えばアダルトビデオや暴力/残虐シーンが盛込まれた映像など子供に見せられない映像に対し、子供に見せられるレベルを規定したパラメータを意味している。上記パラメータを利用することにより例えばパレンタルレベルが高い映像を子供に見せる場合には、子供が見れる部分だけ編集した映像を表示することが可能となる。“menuLanguage”については、メニュー言語を意味する。“initialAudioLanguage”については、初期時のオーディオ言語を意味する。“initialSubtitleLanguage”については、初期時のサブタイトル言語を意味する。
In the present embodiment, the profile parameter consists of a profile parameter object. The profile parameter means a parameter related to a display format of a screen processed by the advanced content playback unit ADVPL in the information recording /
<プレゼンテーションパラメータ>
図48に本実施形態におけるプレゼンテーションパラメータの一覧表を示す。
<Presentation parameters>
FIG. 48 shows a list of presentation parameters in the present embodiment.
本実施形態においてプレゼンテーションパラメータは、図1に示す情報記録再生装置1内のアドバンストコンテンツ再生部ADVPLで処理される表示画面や表示音声に関するパラメータを意味し、プレイリストマネージャPLMNGオブジェクトと、オーディオミキシングエンジンADMXENオブジェクトとデータキャッシュDTCCHオブジェクトの3個のオブジェクトからなる。前記プレイリストマネージャPLMNGオブジェクトとは、図28に示すナビゲーションマネージャNVMNG内のプレイリストマネージャPLMNG内での処理に必要なパラメータである。また、オーディオミキシングエンジンADMXENオブジェクトは図38に示すAVレンダラーAVRND内のオーディオミキシングエンジンADMXEN内での処理に必要なパラメータであり、データキャッシュDTCCHオブジェクトは図27に示すデータキャッシュDTCCH内のストリーミングバッファSTRBUF内での処理に必要なパラメータ(データキャッシュ)に分類することができる。
In the present embodiment, the presentation parameter means a parameter related to a display screen and display audio processed by the advanced content playback unit ADVPL in the information recording /
プレイリストマネージャPLMNGオブジェクト内には11個のプレイリストマネージャPLMNGが設定されている。プレイリストマネージャPLMNGの内容として、“playlist”についての説明を以下に行う。プレイリストファイルPLLSTには、ファイル名に番号が付加できるようになっており、プレイリストファイルPLLSTを編集または更新した場合には、過去の付加番号のうち最も値の高い番号より“1”値の高い番号を付加して保存することで最新のプレイリストファイルPLLSTができる構造になっている。アドバンストコンテンツ再生部ADVPLが再生すべきプレイリストファイルPLLSTの付加番号を前記パラメータに設定することでユーザが望む最適なプレイリストPLLSTに基づき映像再生することが可能となる。本実施形態はそれに限らず他の実施形態としてタイトルID(titleId)とタイトルタイムライン上の経過時間(titleElapsedTime)と組み合せることにより、ユーザが最後に再生中断した場所(最後に再生を終了させた場所)の記録に利用することもできる。“titleId”については、再生中断した時の(最後に再生した)タイトルの識別情報(タイトルID)を記録することにより、ユーザが再び再生開始した時に前回再生中断したタイトルから再生を開始できるようにする。“titleElapsedTime”については、タイトルタイム上の経過時間を意味する。 “currentVideoTrack”については、メインビデオのトラック番号を意味する。“currentAudioTrack”については、メインオーディオのトラック番号を意味する。“currentSubtitleTrack”についてはサブタイトルのトラック番号を意味する。“selectedAudioLanguage”とはユーザが選択し、再生時に音声出力される言語(日本語JA、英語ENなど)を意味する。“selectedAudioLanguageExtension”については、選択されたオーディオ言語の拡張領域を意味する。“selectedSubtitleLanguage” とはユーザが選択し、再生時に出力されるサブタイトルの言語(日本語JP、英語ENなど)を意味する。“selectedSubtitleLanguageExtension”については、選択されたサブタイトル言語の拡張領域を意味する。“selectedApplicationGroup”とはユーザが選択し、再生時に出力されるアプリケーショングループの言語(日本語JP、英語ENなど)を意味する。例えば図16に示したヘルプアイコン33に表示される文字が“ヘルプ”と表示するか“Help”と表示するかの表示言語識別を表している。
Eleven playlist managers PLMNG are set in the playlist manager PLMNG object. As a content of the playlist manager PLMNG, “playlist” will be described below. A number can be added to the file name of the playlist file PLLST, and when the playlist file PLLST is edited or updated, the playlist file PLLST has a value “1” higher than the highest number of past addition numbers. It is structured so that the latest playlist file PLLST can be created by adding a high number and saving. By setting the additional number of the playlist file PLLST to be played back by the advanced content playback unit ADVPL as the parameter, video playback can be performed based on the optimum playlist PLLST desired by the user. This embodiment is not limited to this, but as another embodiment, the combination of the title ID (titleId) and the elapsed time (titleElapsedTime) on the title timeline is the place where the user last interrupted playback (the last playback ended) It can also be used to record location. As for “titleId”, by recording the identification information (title ID) of the title when playback is interrupted (last played), when the user starts playback again, playback can be started from the title that was interrupted last time. To do. “TitleElapsedTime” means an elapsed time on the title time. “CurrentVideoTrack” means the track number of the main video. “CurrentAudioTrack” means the track number of the main audio. “CurrentSubtitleTrack” means the track number of the subtitle. “SelectedAudioLanguage” means a language (Japanese JA, English EN, etc.) selected by the user and output as audio during playback. “SelectedAudioLanguageExtension” means an extension area of the selected audio language. “SelectedSubtitleLanguage” means the language (Japanese JP, English EN, etc.) of the subtitle selected by the user and output during playback. “SelectedSubtitleLanguageExtension” means an extension area of the selected subtitle language. “SelectedApplicationGroup” means the language (Japanese JP, English EN, etc.) of the application group selected by the user and output during playback. For example, the display language identification indicates whether the character displayed on the
また、オーディオミキシングエンジンADMXENオブジェクト内には10個のオーディオミキシングエンジンADMXENが設定されている。オーディオミキシングエンジンADMXENの内容として、“volumeL”については、左側チャンネルの音量を意味する。“volumeR”については、右側チャンネルの音量を意味する。“volumeC”については、中央チャンネルの音量を意味する。“volumeLS”については、左側サラウンドチャンネルの音量を意味する。“volumeRS”については、右側サラウンドチャンネルの音量を意味する。“volumeLB”については、左後ろ側のチャンネルの音量を意味する。“volumeRB”については、右後ろ側のチャンネルの音量を意味する。“volumeLFE”については、サブウーハーチャンネルの音量を意味する。“mixSubXtoX”については、サブオーディオのダウンミックス係数(パーセンテージ)を意味する。例えば図16に示すようにメインビデオMANVDにより表示された本編31とサブビデオSUBVDにより表示されたコマーシャル用の別画面32を同時に表示する場合、本編31に対応したメインオーディオMANADとコマーシャル用の別画面32に対応したサブオーディオSUBADを同時に音声出力する必要が発生する。その時のメインオーディオMANAD音量に対するサブオーディオSUBVDの出力音量比をサブオーディオのダウンミックス係数と言う。“mixEffectXtoX”については、サブイフェクトオーディオのダウンミックス係数(パーセンテージ)を意味する。例えば図16に示すようにメインビデオMANVD表示中にユーザがアドバンストアプリケーションADAPLで構成される各種アイコン33〜38を押すことがある。ユーザが前記アドバンストアプリケーションADAPL内の各エレメント(アイコン)の実行を指示したことを表す効果音がサブイフェクトオーディオの一例を意味する。この場合、本編31に対応したメインオーディオMANADと同時に前記サブイフェクトオーディオを音声出力する必要が起きる。この時のメインオーディオMANAD音量に対するサブイフェクトオーディオの出力音量比をサブイフェクトオーディオのダウンミックス係数と言う。
Further, 10 audio mixing engines ADMXEN are set in the audio mixing engine ADMXEN object. As the contents of the audio mixing engine ADMXEN, “volumeL” means the volume of the left channel. “VolumeR” means the volume of the right channel. “VolumeC” means the volume of the center channel. “VolumeLS” means the volume of the left surround channel. “VolumeRS” means the volume of the right surround channel. “VolumeLB” means the volume of the left rear channel. “VolumeRB” means the volume of the right rear channel. “VolumeLFE” means the volume of the subwoofer channel. “MixSubXtoX” means a sub-audio downmix coefficient (percentage). For example, as shown in FIG. 16, when the
また、データキャッシュDTCCHオブジェクト内には“streamingBufferSize”が設定され、その内容としてストリーミングバッファサイズを意味する。ネットワークサーバNTSRVから転送されたセカンダリービデオセットSCDVSのデータは一時的にストリーミングバッファSTRBUF内に格納される。これを可能にするには予めデータキャッシュDTCCH内のストリーミングバッファSTRBUFのサイズを割当てておく必要があるが、この時必要なストリーミングバッファSTRBUFサイズはプレイリストファイルPLLST内の構造情報CONFGI内に規定されている。 Also, “streamingBufferSize” is set in the data cache DTCCH object, which means the streaming buffer size. The data of the secondary video set SCDVS transferred from the network server NTSRV is temporarily stored in the streaming buffer STRBUF. In order to enable this, it is necessary to allocate the size of the streaming buffer STRBUF in the data cache DTCCH in advance. The required streaming buffer STRBUF size is specified in the structure information CONFGI in the playlist file PLLST. Yes.
<レイアウトパラメータ>
図49に本実施形態におけるレイアウトパラメータの一覧表を示す。
<Layout parameters>
FIG. 49 shows a list of layout parameters in the present embodiment.
本実施形態においてレイアウトパラメータは、プレゼンテーションエンジンPRSENオブジェクトからなる。前記レイアウトパラメータとは、図1に示す情報記録再生装置1内のアドバンストコンテンツ再生部ADVPLにより処理され、ユーザに表示される画面上のレイアウトに関係するパラメータを意味する。
In this embodiment, the layout parameter is composed of a presentation engine PRSEN object. The layout parameter means a parameter related to the layout on the screen displayed by the advanced content playback unit ADVPL in the information recording /
プレゼンテーションエンジンPRSENオブジェクト内には16個のプレゼンテーションエンジンPRSENが設定されている。プレゼンテーションエンジンPRSENの内容として、“mainVideo.x”については、メインビデオの原点位置のX座標値を意味する。“mainVideo.y”については、メインビデオの原点位置のY座標値を意味する。“mainVideoScaleNumerator”については、メインビデオのスケーリング値の分子の値を意味する。“mainVideoScaleDenominator”については、メインビデオのスケーリング値の分母の値を意味する。“mainVideoCrop.x”については、サブビデオ表示領域のX座標値を意味する。“mainVideoCrop.y”については、サブビデオ表示領域のY座標値を意味する。“mainVideoCrop.width”については、サブビデオ表示領域の幅を意味する。“mainVideoCrop.height”については、サブビデオ表示領域の高さを意味する。“subVideo.x”については、サブビデオの原点位置のX座標値を意味する。“subVideo.y”については、サブビデオの原点位置のY座標値を意味する。“subVideoScaleNumerator”については、サブビデオスケーリング値の分子を意味する。“subVideoScaleDenominator”については、サブビデオスケーリング値の分母を意味する。“subVideoCrop.x”については、サブビデオ表示領域のX座標値を意味する。“subVideoCrop.y”については、サブビデオ表示領域のY座標値を意味する。“subVideoCrop.width”については、サブビデオ表示領域の幅を意味する。“subVideoCrop.height”については、サブビデオ表示領域の高さを意味する。 In the presentation engine PRSEN object, 16 presentation engines PRSEN are set. As the contents of the presentation engine PRSEN, “mainVideo.x” means the X coordinate value of the origin position of the main video. “MainVideo.y” means the Y coordinate value of the origin position of the main video. “MainVideoScaleNumerator” means the numerator value of the scaling value of the main video. “MainVideoScaleDenominator” means the denominator value of the scaling value of the main video. “MainVideoCrop.x” means the X coordinate value of the sub video display area. “MainVideoCrop.y” means the Y coordinate value of the sub video display area. “MainVideoCrop.width” means the width of the sub video display area. “MainVideoCrop.height” means the height of the sub video display area. “SubVideo.x” means the X coordinate value of the origin position of the sub video. “SubVideo.y” means the Y coordinate value of the origin position of the sub video. “SubVideoScaleNumerator” means the numerator of the sub video scaling value. “SubVideoScaleDenominator” means the denominator of the sub video scaling value. “SubVideoCrop.x” means the X coordinate value of the sub video display area. “SubVideoCrop.y” means the Y coordinate value of the sub video display area. “SubVideoCrop.width” means the width of the sub video display area. “SubVideoCrop.height” means the height of the sub video display area.
本実施形態におけるアドバンストコンテンツADVCTの再生に使用するプレイリストファイルPLLSTの設定方法について図50と図51を用いて説明を行う。本実施形態において、基本的にはプレイリストファイルPLLSTが情報記憶媒体DISC内に存在することを前提としている。初期時においては前記情報記憶媒体DISC内に保存されたプレイリストファイルPLLSTを用いてアドバンストコンテンツADVCTの再生処理を行う。しかし、本実施形態においては以下に述べる方法によりアドバンストコンテンツADVCTの再生用のプレイリストファイルPLLSTの内容を更新する事が出来る。 A method for setting the playlist file PLLST used for reproducing the advanced content ADVCT in this embodiment will be described with reference to FIGS. 50 and 51. FIG. In the present embodiment, basically, it is assumed that the playlist file PLLST exists in the information storage medium DISC. At the initial time, the advanced content ADVCT is reproduced using the playlist file PLLST stored in the information storage medium DISC. However, in the present embodiment, the contents of the playlist file PLLST for playback of the advanced content ADVCT can be updated by the method described below.
1. ネットワークサーバNTSRVを利用して、プレイリストファイルPLLSTの内容を更新する。 1. Update the contents of the playlist file PLLST using the network server NTSRV.
2 ユーザがアドバンストコンテンツADVCTの再生手順を独自に編集または作成したプレイリストファイルを用いてアドバンストコンテンツADVCTの再生処理を行う。 2. The playback process of the advanced content ADVCT is performed using a playlist file in which the user originally edited or created the playback procedure of the advanced content ADVCT.
前記1.に示したネットワークサーバNTSRVを用いてダウンロードした新しいプレイリストファイルPLLSTをパーシステントストレージPRSTR内に保存することができる。その後、前記パーシステントストレージPRSTR内のプレイリストファイルPLLSTを用いて前記アドバンストコンテンツADVCTの再生を行う。前記1.と2.いずれの方法においても、古いプレイリストファイルPLLSTと更新後又は編集・作成された新しいプレイリストファイルPLLSTとの識別を可能にする為、本実施形態ではプレイリストファイルPLLST(のファイル名内)に連番の番号を設定し、最も新しいプレイリストファイルPLLSTに最も高い番号を設定する。それにより、同一のアドバンストコンテンツADVCTに対し複数のプレイリストファイルPLLSTが存在したとしても、最も高い番号が付加されたプレイリストファイルPLLSTを利用する事で最新のアドバンストコンテンツADVCTに対する再生方法を知る事が出来る。 1 above. The new playlist file PLLST downloaded using the network server NTSRV shown in FIG. 5 can be stored in the persistent storage PRSTR. Thereafter, the advanced content ADVCT is reproduced using the playlist file PLLST in the persistent storage PRSTR. 1 above. And 2. In any of these methods, in order to enable discrimination between the old playlist file PLLST and the new playlist file PLLST that has been updated or edited / created, in this embodiment, the playlist file PLLST (in the file name) is linked. Set the highest number in the newest playlist file PLLST. As a result, even if multiple playlist files PLLST exist for the same advanced content ADVCT, it is possible to know the playback method for the latest advanced content ADVCT by using the playlist file PLLST with the highest number added. I can do it.
上記2.の方法について説明を行う。 2. The method will be described.
コンテンツプロバイダが供給するアドバンストコンテンツADVCTをユーザに編集を禁止する場合にはアドバンストコンテンツADVCT内の再生表示オブジェクトにコピープロテクション処理(スクランブル処理)をかける事でユーザによる編集を禁止する事が出来る。また、コンテンツプロバイダがユーザによる編集を許可する再生表示オブジェクトを供給する場合には前記再生表示オブジェクトに対し、コピーコントロール制御(スクランブル処理)を行わない事によりユーザによる編集処理を許可する。前記コンテンツプロバイダが編集の許可(コピー制御/スクランブル処理)を施していない再生表示オブジェクトに対して、ユーザが編集処理を行う事で作成するプレイリストファイルPLLSTは本実施形態ではパーシステントストレージPRSTR内に保存出来るようにしている。このように、パーシステントストレージPRSTR内に所定のプレイリストファイルPLLSTを記録出来るようにする事により、
A) ネットワークサーバNTSRVに保存されているアップデートされたプレイリストファイルPLLSTのダウンロード時間が不要になる為、アップデートされたプレイリストファイルPLLSTに基づく再生開始時間の短縮化が図れる
B) 編集・作成が許可されたアドバンストコンテンツADVCTに対し、ユーザが自由に編集・作成処理をする事で、ユーザの好みに応じたアドバンストコンテンツADVCTの再生が可能になる
という効果が発生する。
When the user is prohibited from editing the advanced content ADVCT supplied by the content provider, the user can be prohibited from editing by performing a copy protection process (scramble process) on the playback display object in the advanced content ADVCT. When the content provider supplies a playback display object that permits editing by the user, the editing processing by the user is permitted by not performing copy control control (scramble processing) on the playback display object. In the present embodiment, the playlist file PLLST created by the user performing the editing process on the playback display object for which the content provider does not permit the editing (copy control / scramble process) is stored in the persistent storage PRSTR. It can be saved. In this way, by making it possible to record a predetermined playlist file PLLST in the persistent storage PRSTR,
A) Since the download time of the updated playlist file PLLST stored in the network server NTSRV is no longer required, the playback start time can be shortened based on the updated playlist file PLLST. B) Editing and creation allowed The user can freely edit and create the advanced content ADVCT so that the advanced content ADVCT can be reproduced according to the user's preference.
上記2.の方法と図2に示す本実施形態における効果の関係を、以下に説明する。 2. The relationship between this method and the effect of this embodiment shown in FIG. 2 will be described below.
図2に示すように画像関連情報の加工容易性と加工後情報の送信容易性を確保したいというユーザ要求に対し、従来のDVD-Videoの規格では管理データ構造自身が比較的カスタマイズされた構造になっているため、複雑な編集処理を柔軟かつ容易に対応出来ない。それに対し、本実施形態ではプレイリストファイルPLLSTの記述内容にXMLを用いると共に前記プレイリストファイルPLLSTの記述コンセプトにタイトルタイムラインTMLEの概念を導入した。更に、本実施形態ではこれによって作成されたプレイリストファイルPLLSTの更新処理を可能にする事により、図2〔8〕に示すユーザによるプレイリストファイルPLLSTの選択作成や、その送信が容易になる。すなわち、上記2.の方法に対応して図2(8.1)ユーザによるプレイリストファイルPLLSTの選択または作成・編集が行えるだけでなく、図2(8.2)に示すようにユーザが選択・作成したプレイリストファイルPLLSTを友人に送信し、受信した友人がプレイリストファイルPLLSTの設定番号の最適化処理をする事により、受信側でも送信されたプレイリストファイルPLLSTを利用する事が出来る。 As shown in Fig. 2, the management data structure itself has a relatively customized structure in the conventional DVD-Video standard in response to a user request to ensure the ease of processing image-related information and the ease of transmitting post-processing information. Therefore, complex editing processing cannot be handled flexibly and easily. In contrast, in the present embodiment, XML is used for the description contents of the playlist file PLLST, and the concept of the title timeline TMLE is introduced to the description concept of the playlist file PLLST. Furthermore, in the present embodiment, by making it possible to update the playlist file PLLST created thereby, the user can easily select and create the playlist file PLLST shown in FIG. 2 [8] and transmit it. That is, the above 2. 2 (8.1) The user can select, create, or edit the playlist file PLLST corresponding to the above method. Also, as shown in FIG. 2 (8.2), the user selects and creates the playlist file PLLST as a friend. When the friend who receives and performs the process of optimizing the setting number of the playlist file PLLST, the received playlist file PLLST can also be used.
本実施形態においては、更新された、又は編集・作成された新しいプレイリストファイルPLLSTは設定番号をインクリメントした形でパーシステントストレージPRSTR内に保存される。従って、アドバンストコンテンツADVCT再生の起動時には、図50に示すように情報記憶媒体DISCとパーシステントストレージPRSTR内に存在するあらゆるプレイリストファイルPLLSTを検索し、そこに設定されている番号の最も高いプレイリストファイルPLLSTを抽出する事により最新のプレイリストファイルPLLSTに基づいた再生制御を行う事が出来る。 In the present embodiment, a new playlist file PLLST that has been updated or edited / created is stored in the persistent storage PRSTR in a form in which the setting number is incremented. Therefore, when the advanced content ADVCT playback is started, as shown in FIG. 50, all playlist files PLLST existing in the information storage medium DISC and persistent storage PRSTR are searched, and the playlist having the highest number set therein is searched. By extracting the file PLLST, playback control based on the latest playlist file PLLST can be performed.
またネットワークサーバNTSRV上にあるアップデートされたプレイリストファイルPLLSTをダウンロードする場合には、図51に示すようにネットワークサーバNTSRVから最新のプレイリストファイルPLLSTをダウンロードすると共に、そこに設定されている番号を既存のプレイリストファイルPLLSTよりも大きな値に設定した後、パーシステントストレージPRSTR内に保存する事でネットワークサーバNTSRV上に保存されていたプレイリストファイルPLLSTのアップデート後のプレイリストファイルPLLSTに基づく再生が可能となる。 In addition, when the updated playlist file PLLST on the network server NTSRV is downloaded, the latest playlist file PLLST is downloaded from the network server NTSRV as shown in FIG. After setting to a larger value than the existing playlist file PLLST, the playlist file PLLST saved on the network server NTSRV can be played back based on the updated playlist file PLLST by saving it in the persistent storage PRSTR. It becomes possible.
<アドバンストコンテンツに対する起動時のシーケンス(Startup Sequence of Advanced Content)>
図50を用いて本実施形態におけるアドバンストコンテンツADVCTに対する起動時のシーケンス説明を行う。基本的には情報記憶媒体DISC内と接続されているあらゆるパーシステントストレージPRSTR内におけるプレイリストファイルPLLSTを検索し、最も高い番号が設定されているプレイリストファイルPLLSTを抽出し、それに基づく再生処理を行う。
<Startup Sequence of Advanced Content>
The sequence at the time of activation for the advanced content ADVCT in this embodiment will be described with reference to FIG. Basically, search the playlist file PLLST in any persistent storage PRSTR connected to the information storage medium DISC, extract the playlist file PLLST with the highest number, and perform playback processing based on it Do.
図5に示すように、本実施形態としてはカテゴリー1〜カテゴリー3に至る三種類の情報記憶媒体DISCを設定している。その中で、図5(b)と図5(c)に示すカテゴリー2とカテゴリー3に対応した情報記憶媒体DISC内にアドバンストコンテンツADVCTの情報が記録出来る。まず始めに情報記憶媒体DISCのカテゴリーを判別し、アドバンストコンテンツADVCTが記録されているカテゴリー2またはカテゴリー3に対応した情報記憶媒体DISCを検出する。
As shown in FIG. 5, in this embodiment, three types of information storage media DISC ranging from
本実施形態における情報記録再生装置1内のアドバンストコンテンツ再生部ADVPL内には図14に示すようにナビゲーションマネージャNVMNGが存在し、前記ナビゲーションマネージャNVMNGの中にプレイリストマネージャPLMNGが存在する(図28参照)。前記プレイリストマネージャPLMNGは情報記憶媒体DISCからシステムパラメータに関するディスプレイモードインフォメーションを再生する(ステップS41)。前記ディスプレイモードインフォメーションを利用し、プレイリストマネージャPLMNGは“VPLIST$$.XML”ファイルを再生する。また、本実施ではそれに限らず前記プレイリストマネージャPLMNGは“VPLIST$$.XML”ファイルも再生することが出来る(“$$と“##”は、“00”から“99”までの数字を意味している)。
As shown in FIG. 14, the navigation manager NVMNG exists in the advanced content playback unit ADVPL in the information recording /
本実施形態においては情報記憶媒体DISCを再生するにあたり、そこに必要なプロバイダID・コンテンツID及びサーチフラグがパーシステントストレージPRSTR内のDISCID.DATファイル中に記録されている。前記プレイリストマネージャPLMNGは前記パーシステントストレージPRSTR内にあるDISCID.DATファイルを再生し、その中からプロバイダID・コンテンツID及びサーチフラブを再生する(ステップS42)。プレイリストマネージャPLMNGは前記サーチフラグの内容を解釈し、そのサーチフラグが“1b”か否かを判定する(ステップS43)。前記サーチフラグが“0b”の場合には接続されているあらゆるパーシステントストレージPRSTR内をサーチし、前記プロバイダIDと前記コンテンツIDに対応したプレイリストファイルPLLSTを検索する(ステップS44)。また、前記サーチフラグが“1b”の場合には、前記ステップS44のステップをスキップ処理する。次に前記プレイリストマネージャPLMNGは、情報記憶媒体DISC内の“ADV_OBJ”のディレトリの下にあるプレイリストファイルPLLSTを探す(ステップS45)。その後、前記情報記憶媒体DISC内及びパーシステントストレージPRSTR内に保存されたプレイリストファイルPLLSTに設定されている番号の中で最も高い番号が設定されているプレイリストファイルPLLSTを抽出し、その内容を前記プレイリストマネージャPLMNGが再生する(ステップS46)。次に、前記ステップS46で抽出したプレイリストファイルPLLSTの内容に基づき、前記アドバンストコンテンツ再生部ADVPLはシステムコンフィグレーションの変更・処理を行う(ステップS47)。また、この時に前記プレイリストファイルPLLST内に記述されているストリーミングバッファサイズに基づき、ストリーミングバッファSTRBUFのサイズを変更する。また、図27に示すファイルキャッシュFLCCHとストリーミングバッファSTRBUFの中に既に記録されているあらゆるファイルと全てのデータ内容の消去処理を行う。次に、タイトルタイムラインTMLEに沿ったオブジェクトマッピングとプレイバックシーケンスの初期化を行う(ステップS48)。図24に示すように、プレイリストファイルPLLST内にオブジェクトマッピングインフォメーションOBMAPIとプレイバックシーケンスインフォメーションPLSQIの情報が記録されており、前記プレイリストマネージャPLMNGはそれらの情報を利用し、最初に表示するタイトルに対応したタイトルタイムラインTMLE上での各再生表示オブジェクトの再生タイミングを計算すると共に、プレイバックシーケンスに基づく各キャプチャーエントリーポイントのタイトルタイムラインTMLE上の位置を計算する。次に、最初に再生を行うタイトルの再生準備を行う(ステップS49)。ステップS49の具体的な処理内容を以下に説明する。図28に示すように前記ナビゲーションマネージャNVMNG内にはファイルキャッシュマネージャFLCMNGが存在する。前記ファイルキャッシュマネージャFLCMNGは、最初に再生するタイトルの開始に先立って必要な各種ファイルの再生制御を行うと共に、ファイルキャッシュFLCCH内にそれらのファイルを一時保管する。ファイルキャッシュFLCCH内に一時保管する対象となるファイルは、アドバンストアプリケーションマネージャ(図28参照)で使われる。具体的なファイル名としては、図11に示すアドバンストナビゲーションディレクトリADVNV内に存在するマニュフェストファイルMNFST、マークアップファイルMRKUP及びスクリプトファイルSCRPTなどが挙げられる。またそれ以外にセカンダリービデオプレーヤSCDVP(図35参照)で使われるセカンダリービデオセットSCDVSのタイムマップファイルSTMAPとセカンダリーエンハンストビデオオブジェクトファイルS-EVOB(図11参照)、及びアドバンストアプリケーションプレゼンテーションエンジンAAPEN(図30参照)で使うアドバンストエレメントディレクトリADVEL内の下にある静止画ファイルIMAGE、イフェクトオーディオファイルEFTAD、フォントファイルFONT及びその他のファイルOTHERがファイルキャッシュ内に保存される。また、このタイミングに前記プレイリストマネージャPLMNGは図30に示すプレゼンテーションエンジンPRSEN内のアドバンストアプリケーションプレゼンテーションエンジンAAPEN、セカンダリービデオプレーヤSCDVPやプライマリービデオプレーヤPRMVPなどの各種再生モジュールの初期化処理を行う。またステップS49に示したタイトルの再生準備の一環としてプライマリーオーディオビデオPRMAVに関する再生準備の方法について以下に説明する。図24に示すように、プレイリストファイルPLLST内にはオブジェクトマッピングインフォメーションOBMAPIが存在し、前記オブジェクトマッピングインフォメーションOBMAPI内にプライマリーオーディオビデオクリップエレメントPRAVCPが存在している。前記プレイリストマネージャPLMNGは、前記オブジェクトマッピングインフォメーションOBMAPI内の前記プライマリーオーディオビデオクリップエレメントPRAVCPの情報を解析し、その情報をプレゼンテーションエンジンPRSEN内のプライマリービデオプレーヤPRMVP(図30参照)に送信する。また、図11に示すようにプライマリービデオセットPRMAVに関する管理ファイルは、プライマリーオーディオビデオディレクトリPRMAVの下にあるビデオタイトルセットインフォメーションファイルADVTSIやプライマリービデオセットのタイムマップファイルPTMAPなどが存在し、それらのファイルの保存場所の情報に関して前記プレイリストマネージャPLMNGから前記プライマリービデオプレーヤPRMVPへ転送される。前記プライマリービデオプレーヤPRMVPは前記ビデオタイトルセットインフォメーションファイルADVTSIやプライマリービデオセットPRMVSのタイムマップファイルPTMAPを情報記憶媒体DISCからの再生制御を行った後、前記オブジェクトマッピングインフォメーションOBMAPIに基づき、プライマリービデオセットPRMVSの再生制御に必要な初期パラメータの準備を行う。更に、図36に示すようにプライマリービデオプレーヤPRMVPは、対応したデコーダーエンジンDCDEN内のビデオレコーダとの接続準備も行う。また、セカンダリービデオプレーヤSCDVPにより再生されるサブスティテュートオーディオビデオSBTAV、サブスティテュートオーディオSBTADやセカンダリーオーディオビデオSCDAVを再生する場合には、同様に前記プレイリストマネージャPLMNGがオブジェクトマッピングインフォメーションOBMAPIの関連するクリップエレメントの情報をセカンダリービデオプレーヤSCDVPに転送すると共に、セカンダリービデオセットのタイムマップファイルSTMAP(図11参照)の保存場所をセカンダリービデオプレーヤSCDVPに転送する。セカンダリービデオプレーヤSCDVPは、前記セカンダリービデオセットのタイムマップファイルSTMAPの情報に関する再生制御を行い、またオブジェクトマッピングインフォメーションOBMAPIの情報に基づき、再生制御に関する初期のパラメータ設定をすると共に図35に示すデコーダーエンジンDCDEN内の関連レコーダとの接続準備を行う。前記タイトルの再生準備が終了すると、最初に再生を行うトラックの再生を開始する(ステップS50)。その時に、アドバンストコンテンツ再生部ADVPLはタイトルタイムラインTMLEのカウントアップを開始し、前記オブジェクトマッピングインフォメーションOBMAPIに記述されたスケジュールに従い、タイトルタイムラインTMLEの進行に従って各再生表示オブジェクトの再生表示処理を行う。再生が開始されると常に再生終了のタイミングを検出し(ステップS51)、再生終了時期に達すると再生終了処理を行う。 In this embodiment, the provider ID / content ID and search flag necessary for reproducing the information storage medium DISC are recorded in the DISCID.DAT file in the persistent storage PRSTR. The playlist manager PLMNG reproduces the DISCID.DAT file in the persistent storage PRSTR, and reproduces the provider ID / content ID and the search flag from the file (step S42). The playlist manager PLMNG interprets the contents of the search flag and determines whether or not the search flag is “1b” (step S43). If the search flag is “0b”, the search is performed in any connected persistent storage PRSTR, and the playlist file PLLST corresponding to the provider ID and the content ID is searched (step S44). If the search flag is “1b”, the step S44 is skipped. Next, the playlist manager PLMNG searches for the playlist file PLLST under the directory “ADV_OBJ” in the information storage medium DISC (step S45). Thereafter, the playlist file PLLST having the highest number among the numbers set in the playlist file PLLST stored in the information storage medium DISC and in the persistent storage PRSTR is extracted, and the contents are extracted. The playlist manager PLMNG plays back (step S46). Next, based on the contents of the playlist file PLLST extracted in step S46, the advanced content playback unit ADVPL performs system configuration change / processing (step S47). At this time, the size of the streaming buffer STRBUF is changed based on the streaming buffer size described in the playlist file PLLST. Further, the erasure processing of all files and all data contents already recorded in the file cache FLCCH and the streaming buffer STRBUF shown in FIG. 27 is performed. Next, the object mapping and the playback sequence are initialized along the title timeline TMLE (step S48). As shown in FIG. 24, information of object mapping information OBMAPI and playback sequence information PLSQI is recorded in the playlist file PLLST, and the playlist manager PLMNG uses these information as a title to be displayed first. The playback timing of each playback display object on the corresponding title timeline TMLE is calculated, and the position of each capture entry point on the title timeline TMLE based on the playback sequence is calculated. Next, preparation for reproduction of the title to be reproduced first is made (step S49). Specific processing contents of step S49 will be described below. As shown in FIG. 28, a file cache manager FLCMNG exists in the navigation manager NVMNG. The file cache manager FLCMNG controls the reproduction of various files necessary prior to the start of the title to be reproduced first, and temporarily stores these files in the file cache FLCCH. The file to be temporarily stored in the file cache FLCCH is used by the advanced application manager (see FIG. 28). Specific file names include a manifest file MNFST, a markup file MRKUP, a script file SCRPT, etc. existing in the advanced navigation directory ADVNV shown in FIG. In addition, the time map file STMAP and secondary enhanced video object file S-EVOB (see FIG. 11) of the secondary video set SCDVS used in the secondary video player SCDVP (see FIG. 35), and the advanced application presentation engine AAPEN (see FIG. 30). The still image file IMAGE, the effect audio file EFTAD, the font file FONT, and the other file OTHER under the advanced element directory ADVEL used in (1) are stored in the file cache. At this timing, the playlist manager PLMNG performs initialization processing of various playback modules such as the advanced application presentation engine AAPEN, the secondary video player SCDVP, and the primary video player PRMVP in the presentation engine PRSEN shown in FIG. A method for preparing for playback related to the primary audio video PRMAV will be described below as part of preparation for playback of the title shown in step S49. As shown in FIG. 24, object mapping information OBMAPI exists in the playlist file PLLST, and primary audio video clip element PRAVCP exists in the object mapping information OBMAPI. The playlist manager PLMNG analyzes the information of the primary audio video clip element PRAVCP in the object mapping information OBMAPI and transmits the information to the primary video player PRMVP (see FIG. 30) in the presentation engine PRSEN. Further, as shown in FIG. 11, the management files related to the primary video set PRMAV include a video title set information file ADVTSI under the primary audio video directory PRMAV, a time map file PTMAP of the primary video set, and the like. The storage location information is transferred from the playlist manager PLMNG to the primary video player PRMVP. The primary video player PRMVP performs playback control of the video title set information file ADVTSI and the time map file PTMAP of the primary video set PRMVS from the information storage medium DISC, and then, based on the object mapping information OBMAPI, the primary video set PRMVS Prepare initial parameters required for playback control. Furthermore, as shown in FIG. 36, the primary video player PRMVP also prepares connection with a video recorder in the corresponding decoder engine DCDEN. When the substitute audio video SBTAV, the substitute audio SBTAD, or the secondary audio video SCDAV played by the secondary video player SCDVP is played back, the playlist manager PLMNG similarly sets the clip element related to the object mapping information OBMAPI. The information is transferred to the secondary video player SCDVP, and the storage location of the time map file STMAP (see FIG. 11) of the secondary video set is transferred to the secondary video player SCDVP. The secondary video player SCDVP performs playback control relating to the information of the time map file STMAP of the secondary video set, sets initial parameters relating to playback control based on the information of the object mapping information OBMAPI, and performs the decoder engine DCDEN shown in FIG. Prepare for connection with the related recorder. When the preparation for reproducing the title is completed, reproduction of the track to be reproduced first is started (step S50). At that time, the advanced content playback unit ADVPL starts counting up the title timeline TMLE, and performs playback display processing of each playback display object according to the progress of the title timeline TMLE according to the schedule described in the object mapping information OBMAPI. When reproduction is started, the reproduction end timing is always detected (step S51), and when the reproduction end time is reached, reproduction end processing is performed.
図51を用いて本実施形態におけるアドバンストコンテンツ再生時におけるアップデートシーケンス方法の説明を行う。主にネットワークサーバNTSRV上でプレイリストファイルPLLST内容の更新(アップデート)がなされた場合、ユーザ側に設置された情報記録再生装置1内のアドバンストコンテンツ再生部ADVPL(図1参照)も対応してプレイリストファイルPLLST内容の更新(アップデート)を行う事ができる。前記アドバンストコンテンツ再生部ADVPLが行うプレイリストファイルPLLST内容の更新(アップデート)処理方法を図51が示している。
The update sequence method at the time of advanced content playback in this embodiment will be described with reference to FIG. When the playlist file PLLST is updated (updated) mainly on the network server NTSRV, the advanced content playback unit ADVPL (see FIG. 1) in the information recording /
図5に示すように、本実施形態としてはカテゴリー1〜カテゴリー3に至る三種類の情報記憶媒体DISCを設定している。その中で、図5(b)と図5(c)に示すカテゴリー2とカテゴリー3に対応した情報記憶媒体DISC内にアドバンストコンテンツADVCTの情報が含まれている。まず始めに情報記憶媒体DISCのカテゴリーを判別し、アドバンストコンテンツADVCTが記録されているカテゴリー2またはカテゴリー3に対応した情報記憶媒体DISCを検出する。次に図51でも図50のステップS41からステップS45までの処理は同様に行い、情報記憶媒体DISCに記憶されているプレイリストファイルPLLSTとパーシステントストレージPRSTR内に記録されたプレイリストファイルPLLSTを検索する。次に、前記情報記憶媒体DISC内及びパーシステントストレージPRSTR内に保存されたプレイリストファイルPLLSTを比較し、プレイリストファイルPLLSTに設定されている番号の中で最も高い番号が設定されているプレイリストファイルPLLSTを抽出し、その内容を前記プレイリストマネージャPLMNGが再生する(ステップS61)。次に、前記ステップS61で抽出したプレイリストファイルPLLSTの内容に基づき、システムコンフィグレーションの変更処理を行う(ステップS62)。前記システムコンフィグレーションの変更処理の具体的な内容としては本実施形態では
1. システムリソースコンフィグレーションの変更処理
2. データキャッシュDACCH内のストリーミングバッファSTRBUF(図27参照)のサイズ変更
… 図80(c)に記載されているプレイリストPLLST内の構造情報CONFGIの中に配置されているストリーミングバッファエレメントSTRBUFの“予め設定が必要なストリーミングバッファサイズSTBFSZ(size属性情報)”に合わせてサイズ変更を行う
3. 図27に示すファイルキャッシュFLCCHとストリーミングバッファSTRBUFの中に既に記録されているあらゆるファイルと全てのデータ内容の消去処理などを前記アドバンストコンテンツ再生部ADVPLの中に存在するナビゲーションマネージャNVMNG内のプレイリストマネージャPLMNG(図28)が中心に行う。
As shown in FIG. 5, in this embodiment, three types of information storage media DISC ranging from
次にステップS63によりタイトルタイムラインTMLEに沿ったオブジェクトマッピングとプレイバックシーケンスの初期化を行う。図24に示すように、プレイリストファイルPLLST内にオブジェクトマッピングインフォメーションOBMAPIとプレイバックシーケンスインフォメーションPLSQIの情報が記録されており、前記プレイリストマネージャPLMNGはそれらの情報を利用し、最初に表示するタイトルに対応したタイトルタイムラインTMLE上での各再生表示オブジェクトの再生タイミングを計算すると共に、プレイバックシーケンスに基づく各キャプチャーエントリーポイントのタイトルタイムラインTMLE上の位置を計算する。その後、ステップS64で最初に再生を行うタイトルの再生準備を行う。ステップS64の具体的な処理内容を以下に説明する。図14に示すようにアドバンストコンテンツ再生部ADVPL内にはナビゲーションマネージャNVMNGが存在し、前記ナビゲーションマネージャNVMNG内にはファイルキャッシュマネージャFLCMNGが存在する(図28参照)。最初に再生するタイトルの再生開始に先立ち、前記ファイルキャッシュマネージャFLCMNGは再生に必要な各種ファイルをファイルキャッシュFLCCH内に一時保管する。前記ファイルキャッシュFLCCH内に一時保管されるファイルとしては図11に示すように、アドバンストナビゲーションディレクトリADVNV内に存在するマニュフェストファイルMNFST、マークアップファイルMRKUP及びスクリプトファイルSCRPTやアドバンストエレメントディレクトリADVEL内の下にある静止画ファイルIMAGE、イフェクトオーディオファイルEFTAD、フォントファイルFONT及びその他のファイルOTHERが上げられる。また、前記ファイルキャッシュFLCCHに保存するファイルとしてはそれ以外にもセカンダリービデオプレーヤSCDVPで使われるセカンダリービデオセットのタイムマップファイルSTMAPと、セカンダリーエンハンストビデオオブジェクトファイルS-EVOBが存在する。またステップS64に示す“最初に再生を行うタイトルの再生準備”のタイミングと同時に、前記プレイリストマネージャPLMNGは図30に示すプレゼンテーションエンジンPRSEN内のアドバンストアプリケーションプレゼンテーションエンジンAAPEN、セカンダリービデオプレーヤSCDVPやプライマリービデオプレーヤPRMVPなどの各種再生モジュールの初期化処理を行う。前記プレイリストマネージャPLMNGが行う各種再生モジュールの初期化処理に付いての具体的内容の説明を以下に示す。 In step S63, object mapping and playback sequence initialization along the title timeline TMLE is performed. As shown in FIG. 24, information of object mapping information OBMAPI and playback sequence information PLSQI is recorded in the playlist file PLLST, and the playlist manager PLMNG uses these information as a title to be displayed first. The playback timing of each playback display object on the corresponding title timeline TMLE is calculated, and the position of each capture entry point on the title timeline TMLE based on the playback sequence is calculated. Thereafter, in step S64, preparation for reproduction of the title to be reproduced first is performed. The specific processing content of step S64 will be described below. As shown in FIG. 14, a navigation manager NVMNG exists in the advanced content playback unit ADVPL, and a file cache manager FLCMNG exists in the navigation manager NVMNG (see FIG. 28). Prior to starting playback of the title to be played first, the file cache manager FLCMNG temporarily stores various files required for playback in the file cache FLCCH. As shown in FIG. 11, files temporarily stored in the file cache FLCCH are located under the manifest file MNFST, the markup file MRKUP, the script file SCRPT, and the advanced element directory ADVEL existing in the advanced navigation directory ADVNV. Still image file IMAGE, effect audio file EFTAD, font file FONT and other file OTHER are uploaded. In addition to the files stored in the file cache FLCCH, there are a secondary video set time map file STMAP used in the secondary video player SCDVP and a secondary enhanced video object file S-EVOB. At the same time as the “preparation of playback of the title to be played first” shown in step S64, the playlist manager PLMNG displays the advanced application presentation engine AAPEN, secondary video player SCDVP, and primary video player in the presentation engine PRSEN shown in FIG. Performs initialization of various playback modules such as PRMVP. The specific contents of the initialization processing of various playback modules performed by the playlist manager PLMNG will be described below.
1. プライマリービデオプレーヤPRMVPの初期化処理
(再生対象のタイトル内でプライマリーオーディオビデオPRMAVの再生・表示が必要な場合)
*プレイリストマネージャPLMNGからプライマリービデオプレーヤPRMVPへ下記の情報が転送される
・タイトルタイムラインTMLE上のプライマリーオーディオビデオPRMAVの再生タイミングなど、プライマリーオーディオビデオクリップエレメントPRAVCP(図54参照)内に記述された情報
・プライマリービデオセットのタイムマップ情報PTMAPやエンハンストビデオオブジェクトインフォメーションEVOBI(図12参照)等のプライマリービデオセットPRMVSに関する管理情報
*プライマリービデオプレーヤPRMVPは上記の情報に基づき初期パラメータの設定を行う
*プライマリービデオプレーヤPRMVPは、デコーダーエンジンDCDEN内の必要なデコーダーモジュールと前記プライマリービデオプレーヤPRMVP間の接続準備(図36参照)を行う
2. セカンダリービデオプレーヤSCDVPの初期化処理
(再生対象のタイトル内でセカンダリービデオセットSCDVSの再生・表示が必要な場合)
*ナビゲーションマネージャNVMNGからセカンダリービデオプレーヤSCDVPへ下記の情報が転送される
・セカンダリービデオセットSCDVS内の各種再生表示オブジェクトに関するタイトルタイムラインTMLE上での再生タイミングなど、セカンダリーオーディオビデオクリップエレメントSCAVCP(図54参照)やサブスティテュートオーディオビデオクリップエレメントSBAVCP、サブスティテュートオーディオクリップエレメントSBADCP内に記述された情報
・セカンダリービデオセットのタイムマップ情報STMAP(図12参照)等のセカンダリービデオセットSCDVSに関する管理情報
*セカンダリービデオプレーヤSCDVPは上記の情報に基づき初期パラメータの設定を行う
*プライマリービデオプレーヤSCDVPは、デコーダーエンジンDCDEN内の必要なデコーダーモジュールと前記セカンダリービデオプレーヤSCDVP間の接続準備(図37参照)を行う
前記タイトルの再生準備が終了すると、再生を行う予定トラックの再生を開始する(ステップS65)。その時に、アドバンストコンテンツ再生部ADVPLはタイトルタイムラインTMLEのカウントアップを開始し、前記オブジェクトマッピングインフォメーションOBMAPIに記述されたスケジュールに従い、タイトルタイムラインTMLEの進行に従って各再生表示オブジェクトの再生表示処理を行う。前記ステップS65によりタイトルを再生した時、ユーザがより新しいアップデートされたタイトルを用いて再生したいと願った場合、プレイリストファイルPLLSTのアップデート処理の実行が開始される(ステップS66)。
1. Initialization processing of primary video player PRMVP (when playback / display of primary audio video PRMAV is required within the title to be played)
* The following information is transferred from the playlist manager PLMNG to the primary video player PRMVP. • Described in the primary audio video clip element PRAVCP (see Fig. 54) such as the playback timing of the primary audio video PRMAV on the title timeline TMLE. Information • Primary video set PRMVS management information such as primary video set time map information PTMAP and enhanced video object information EVOBI (see Fig. 12) * Primary video player PRMVP sets initial parameters based on the above information * Primary video The player PRMVP prepares for connection between a necessary decoder module in the decoder engine DCDEN and the primary video player PRMVP (see FIG. 36). Initialization processing of secondary video player SCDVP (when playback / display of secondary video set SCDVS is required within the title to be played)
* The following information is transferred from the navigation manager NVMNG to the secondary video player SCDVP. Secondary audio video clip element SCAVCP, such as playback timing on the title timeline TMLE for various playback display objects in the secondary video set SCDVS (see Fig. 54) ) And the information described in the substitute audio video clip element SBAVCP and the substitute audio clip element SBADCP ・ Management information on the secondary video set SCDVS such as the time map information STMAP (see FIG. 12) of the secondary video set * Secondary video player SCDVP Sets the initial parameters based on the above information. * The primary video player SCDVP requires the necessary decoder module in the decoder engine DCDEN. A connection readiness between the secondary video player SCDVP the playback preparation of the title performing (see FIG. 37) is completed, it starts the reproduction of the planned track to be reproduced (step S65). At that time, the advanced content playback unit ADVPL starts counting up the title timeline TMLE, and performs playback display processing of each playback display object according to the progress of the title timeline TMLE according to the schedule described in the object mapping information OBMAPI. When the title is played back in step S65, if the user desires to play back using a newer updated title, execution of the update process of the playlist file PLLST is started (step S66).
<アドバンストコンテンツ再生のアップデートシーケンス(Update Sequence of Advanced Content Playback)>
上述したようにステップS66においてプレイリストファイルPLLSTのアップデート処理の実行が開始されると、次のステップとして新しいプレイリストファイルPLLSTが存在するか否かの検索処理が開始される。アドバンストコンテンツADVCTの再生方法に関するアップデートをする為には、アドバンストアプリケーションADAPLによるアップデート処理が実行される必要がある。前記アドバンストアプリケーションADAPLにより前記再生方法に関するアップデート処理をさせるためには、「最新のプレイリストPLLSTを探してアップデート処理を行う」機能が設定されたスクリプトシーケンス(スクリプトSCRPTにより設定された処理プログラム)を元々情報記憶媒体DISC内に記録されていたアドバンストアプリケーションADAPLが持っている必要が有る。前記スクリプトシーケンスは、更新された最新のプレイリストファイルPLLSTの保存されている場所を検索する。更新された最新のプレイリストファイルPLLSTは一般的にはネットワークサーバNTSRV内に保存されている場合が多い。ここでネットワークサーバNTSRV上に新しいプレイリストファイルPLLSTが存在する場合には、プレイリストファイルPLLSTのダウンロード処理を行い(ステップS69)、もし、新しいプレイリストファイルPLLSTが存在しない場合には、タイトルの再生を終了するか否かを判定し(ステップS68)、ユーザ要求に応じてタイトルの再生を終了したい場合は終了処理を行う。もし、ユーザが古いプレイリストファイルPLLSTに基づく再生を容認する場合にはステップS65のタイトルの継続再生へ戻る。次に、プレイリストファイルPLLSTのダウンロード処理(ステップS69)についての説明を行う。図1に示すように本実施形態における情報記録再生装置1内にはアドバンストコンテンツ再生部ADVPLが存在し、図14に示すように前記アドバンストコンテンツ再生部ADVPL内にはナビゲーションマネージャNVMNGが存在する。前記ナビゲーションマネージャNVMNG内にはアドバンストアプリケーションマネージャADAMNGが存在し(図28参照)、前記アドバンストアプリケーションマネージャADAMNG内にはプログラミングエンジンPRGENが存在する。もし、ネットワークサーバNTSRV内に新しいプレイリストファイルPLLSTが存在する場合には、アドバンストアプリケーションADAPL内のスクリプトファイルSCRPT(前記スクリプトシーケンス)が、前記プログラミングエンジンPRGEN内で起動し、ネットワークサーバNTSRVから最新のプレイリストファイルPLLSTをファイルキャッシュFLCCHまたはパーシステントストレージPRSTRへダウンロード処理する。前記最新のプレイリストファイルPLLSTのダウンロード処理が完了すると、次にそのプレイリストファイルPLLSTが再生時に使用されるか否かが判断される。もしユーザがステップS70において、ユーザが更新されたプレイリストファイルPLLSTを次の再生時に使用せず前記更新されたプレイリストファイルPLLSTが一時的に使用される場合には、前記プレイリストファイルPLLSTはファイルキャッシュFLCCH内に一時的に記録される。その場合、次回再生する時には現状の(更新される前の)プレイリストファイルPLLSTが読み込まれる。また前記ステップS70においてユーザが最新のプレイリストファイルPLLSTを次回の再生時に使用するように要求した場合には、ステップS71に示すように前記更新されたプレイリストファイルPLLSTをファイルキャッシュFLCCH内に保存すると共にパーシステントストレージPRSTR内のプロバイダIDとコンテントIDにより指定された特定領域内にも保存されなければならない。それにより、次回の再生時に前記更新されたプレイリストファイルPLLSTがアドバンストコンテンツ再生部ADVPLで再生される準備が整う。また、ユーザ要求に応じて更新されたプレイリストファイルPLLSTをパーシステントストレージPRSTR内に保存するしないに関わらず、ステップS72においてソフトリセット処理を行う必要が有る。アドバンストコンテンツADVCTの再生開始時(起動時)のシーケンスを再起動(リスタート)するために、アドバンストアプリケーションADAPLはソフトリセットAPI(コマンド)の発行をする必要が有る。前記ソフトリセットAPI(コマンド)は図28に示すアドバンストアプリケーションマネージャADAMNG(と図30に示すアドバンストアプリケーションプレゼンテーションエンジンAAPEN)に対して前記更新されたプレイリストファイルPLLSTの内容を登録し、現行の各種パラメータとプレイバックコンフィグレーション(再生に必要な各種構造情報)のリセットを行う。その後、前記更新されたプレイリストファイルPLLSTの内容に基付いてシステムコンフィグレーションの変更(ステップS62と類似した内容の処理)と下記の処理を実行する。
<Update Sequence of Advanced Content Playback>
As described above, when execution of the update process for the playlist file PLLST is started in step S66, a search process for determining whether or not a new playlist file PLLST exists is started as the next step. In order to update the playback method of the advanced content ADVCT, update processing by the advanced application ADAPL needs to be executed. In order for the advanced application ADAPL to perform the update process related to the playback method, a script sequence (a processing program set by the script SCRPT) in which the function “search for the latest playlist PLLST and perform the update process” is originally set is used. The advanced application ADAPL recorded in the information storage medium DISC needs to have. The script sequence searches a location where the updated latest playlist file PLLST is stored. In general, the updated playlist file PLLST updated is generally stored in the network server NTSRV. If a new playlist file PLLST exists on the network server NTSRV, the playlist file PLLST is downloaded (step S69). If no new playlist file PLLST exists, the title is reproduced. (Step S68), and if it is desired to end the reproduction of the title in response to a user request, end processing is performed. If the user accepts reproduction based on the old playlist file PLLST, the process returns to the continuous reproduction of the title in step S65. Next, the download process (step S69) of the playlist file PLLST will be described. As shown in FIG. 1, an advanced content playback unit ADVPL exists in the information recording /
* 前記アドバンストコンテンツ再生部ADVPLは前記一時保存された最新のプレイリストファイルPLLSTをファイルキャッシュFLCCHに再度、保存する
* ファイルキャッシュFLCCHに再保存した前記最新のプレイリストファイルPLLST内容に合わせてアドバンストコンテンツ再生部ADVPLはアサイメントインフォメーションファイルを再度、保存する
上記のソフトリセット処理(ステップS72)を行った後、ステップS63のタイトルタイムラインTMLEに沿ったオブジェクトマッピングとプレイバックシーケンスの初期化処理に繋がる。
* The advanced content playback unit ADVPL stores the latest playlist file PLLST temporarily stored in the file cache FLCCH again. * Advanced content playback according to the latest playlist file PLLST content stored again in the file cache FLCCH. The part ADVPL saves the assignment information file again. After performing the above-mentioned soft reset process (step S72), the object mapping and the playback sequence initialization process along the title timeline TMLE in step S63 are connected.
図6において、アドバンストコンテンツ再生とスタンダードコンテンツ再生による遷移関係の説明を行った。実際の遷移時の図6に対応したアドバンストコンテンツADVCT再生とスタンダードコンテンツSTDCT再生における遷移関係を図52のフローチャートで示す。 In FIG. 6, the transition relation between the advanced content playback and the standard content playback has been described. FIG. 52 is a flowchart showing the transition relationship between the advanced content ADVCT playback and the standard content STDCT playback corresponding to FIG. 6 at the time of actual transition.
下記シーケンスの開始直後の初期状態では、ステップS81に示すようにアドバンストコンテンツADVCTの再生処理が行われる。次にスタンダードコンテンツSTDCTの生成処理に遭遇しない場合には(ステップS82)、アドバンストコンテンツADVCTの再生処理を終了する(ステップS85)まで、アドバンストコンテンツADVCTの再生が繰り返され、アドバンストコンテンツADVCTの再生終了時に終了処理に到達する。アドバンストコンテンツADVCTの再生途中でスタンダードコンテンツSTDCTの再生処理に遭遇した場合には(ステップS82)、スタンダードコンテンツSTDCTの再生(ステップS83)に移る。その後、アドバンストコンテンツADVCTの再生コマンドを受信するまで(ステップS84)スタンダードコンテンツSTDCTの再生が繰り返される。必ず終了時にはアドバンストコンテンツADVCTの再生コマンドを受信(ステップS84)し、アドバンストコンテンツADVCTの再生(ステップS81)に戻った後、終了処理する。このようにアドバンストコンテンツADVCT再生モードで始まり、アドバンストコンテンツADVCT再生モードで終わることにより情報記録再生装置1内のアドバンストコンテンツ再生部ADVPL(図1参照)が全体のシーケンスを統合管理でき、各種コンテンツ再生の切り替え制御と管理の煩雑さを回避できる。
In the initial state immediately after the start of the following sequence, the advanced content ADVCT playback process is performed as shown in step S81. Next, when the generation process of the standard content STDCT is not encountered (step S82), the playback of the advanced content ADVCT is repeated until the playback of the advanced content ADVCT is finished (step S85). End processing is reached. When the standard content STDCT playback process is encountered during playback of the advanced content ADVCT (step S82), the process proceeds to playback of the standard content STDCT (step S83). Thereafter, until the playback command for advanced content ADVCT is received (step S84), playback of standard content STDCT is repeated. At the time of termination, an advanced content ADVCT playback command is received (step S84), and after returning to playback of the advanced content ADVCT (step S81), the termination processing is performed. Thus, by starting with the advanced content ADVCT playback mode and ending with the advanced content ADVCT playback mode, the advanced content playback unit ADVPL (see FIG. 1) in the information recording /
<アドバンストコンテンツとスタンダードコンテンツの遷移シーケンス(Transition Sequence between Advanced VTS and Standard VTS)>
図5(c)に示すカテゴリー3に対応した情報記憶媒体DISCを再生する場合には、アドバンストコンテンツADVCTとスタンダードコンテンツSTDCT間の混在再生を行う場合が存在し、図52に示す両者間の遷移が発生する。
<Transition Sequence between Advanced VTS and Standard VTS>
When reproducing the information storage medium DISC corresponding to the
以下に各ステップについての詳細な説明を行う。 A detailed description of each step will be given below.
<ステップS81:アドバンストコンテンツADVCTの再生処理>
前記カテゴリー3に対応した情報記憶媒体DISCの再生時には、アドバンストコンテンツADVCTの再生から開始しなければならない。図1に示すように、情報記録再生装置1内のアドバンストコンテンツ再生部ADVPLの中には図14に示すようにナビゲーションマネージャNVMNGが存在する。前記アドバンストコンテンツADVCT再生時の再生進行上の管理は、前記ナビゲーションマネージャNVMNGが行う。前記アドバンストコンテンツ再生部ADVPL内のプレゼンテーションエンジンPRSEN(図14参照)内には図30に示すようにプライマリービデオプレーヤPRMVPが存在する。また、前記ナビゲーションマネージャNVMNG内には図28に示すように、プレイリストマネージャPLMNGが存在する。もし、前記プライマリービデオプレーヤPRMVPで処理すべきユーザ要求が存在した場合には、前記プレイリストマネージャPLMNGは情報記憶媒体DISC内に記録されたプライマリーエンハンストビデオオブジェクトP-EVOBを間断なくデータ転送するように保証しなければならない。
<Step S81: Advanced Content ADVCT Playback Process>
When reproducing the information storage medium DISC corresponding to the
<ステップS82:スタンダードコンテンツSTDCT(スタンダードビデオタイトルセット)の再生処理に遭遇する場合>
前記アドバンストコンテンツADVCTはアドバンストナビゲーション内におけるコールスタンダードコンテンツプレーヤという名のAPIコマンドによりアドバンストコンテンツADVCTの再生からスタンダードコンテンツSTDCTの再生への遷移が行われなければならない。前記コールスタンダードコンテンツプレーヤというAPIコマンドは、スタンダードコンテンツSTDCTにおける再生開始位置情報(スタンダードコンテンツSTDCT内のどこから再生を開始するかを示す情報)も指定する。前記アドバンストコンテンツ再生部ADVPLの中には、図14に示すようにナビゲーションマネージャNVMNGとプレゼンテーションエンジンPRSENが存在する。また、図28に示すように前記ナビゲーションマネージャNVMNG内にはアドバンストアプリケーションマネージャADAMNGとプレイリストマネージャPLMNGが存在し、図30に示すように前記プレゼンテーションエンジンPRSEN内にはプライマリービデオプレーヤPRMVPが存在する。ステップS81に示すように、アドバンストコンテンツADVCTの再生処理中にはステップS82に示すようにスタンダードコンテンツSTDCT(スタンダードビデオタイトルセット)の再生処理に遭遇するか否かをいつも判定している。ここでスタンダードコンテンツSTDCTの再生処理に遭遇した場合には、前記アドバンストアプリケーションマネージャADAMNGは前記のコールスタンダードコマンドプレーヤAPIコマンドの発行の必要性を判定する。前記コールスタンダードコンテンツプレーヤAPIコマンドの発行が必要な場面に遭遇すると、前記アドバンストアプリケーションマネージャADAMNGは前記プレイリストマネージャPLMNGに対しアドバンストコンテンツADVCT再生中止の要求を出す。前記要求に合わせて前記プライマリービデオプレーヤPRMVPはアドバンストコンテンツADVCTの再生を中止させる。それと同時に、前記アドバンストアプリケーションマネージャADAMNGは、前記プレイリストマネージャPLMNGに対し、コールスタンダードコンテンツプレーヤAPIコマンドをコールする。
<Step S82: When encountering playback processing of standard content STDCT (standard video title set)>
In the advanced content ADVCT, a transition from the playback of the advanced content ADVCT to the playback of the standard content STDCT must be performed by an API command named call standard content player in the advanced navigation. The call standard content player API command also specifies playback start position information in the standard content STDCT (information indicating where playback starts in the standard content STDCT). The advanced content playback unit ADVPL includes a navigation manager NVMNG and a presentation engine PRSEN as shown in FIG. As shown in FIG. 28, an advanced application manager ADAMNG and a playlist manager PLMNG exist in the navigation manager NVMNG, and a primary video player PRMVP exists in the presentation engine PRSEN as shown in FIG. As shown in step S81, during the playback process of the advanced content ADVCT, it is always determined whether or not the playback process of the standard content STDCT (standard video title set) is encountered as shown in step S82. If the standard content STDCT playback process is encountered, the advanced application manager ADAMNG determines the necessity of issuing the call standard command player API command. When encountering a scene where the call standard content player API command needs to be issued, the advanced application manager ADAMNG issues a request to stop the playback of the advanced content ADVCT to the playlist manager PLMNG. In response to the request, the primary video player PRMVP stops the playback of the advanced content ADVCT. At the same time, the advanced application manager ADAMNG calls a call standard content player API command to the playlist manager PLMNG.
<ステップS83:スタンダードコンテンツSTDCT(スタンダードビデオタイトルセット)の再生>
前記プレイリストマネージャPLMNGがコールスタンダードコンテンツプレーヤAPIコマンドを発行すると、前記プライマリービデオプレーヤPRMVPはアドバンストコンテンツADVCTの再生中断場所からスタンダードコンテンツSTDCTの再生開始場所へジャンプする。図1に示すように、情報記録再生装置1の中にはスタンダードコンテンツ再生部STDPLとアドバンストコンテンツ再生部ADVPLが存在する。本実施形態においては、図30に示すアドバンストコンテンツ再生部ADVPL内にはプライマリービデオプレーヤPRMVPが存在するが、本実施形態では前記プライマリービデオプレーヤPRMVPをスタンダードコンテンツ再生部STDPL内でも共用する事を特徴としている。従って、ステップS83におけるスタンダードコンテンツSTDCTの再生時において、スタンダードコンテンツ再生部STDPL内のプライマリービデオプレーヤPRMVPが処理を行い、スタンダードコンテンツSTDCTの再生表示を行っている。このフェーズの間中、前記ナビゲーションマネージャNVMNGは中止状態が保持される。その結果、ユーザが指定するイベントは前記プライマリービデオプレーヤPRMVPに直接インプットされる。このフェーズの間中、前記プライマリービデオプレーヤPRMVPはナビゲーションコマンドに基づくコマンドに対応し、スタンダードコンテンツSTDCT内での再生時の遷移(再生場所のジャンプ処理)の対応を行う。
<Step S83: Playback of Standard Content STDCT (Standard Video Title Set)>
When the playlist manager PLMNG issues a call standard content player API command, the primary video player PRMVP jumps from the playback interrupt location of the advanced content ADVCT to the playback start location of the standard content STDCT. As shown in FIG. 1, the information recording /
<ステップS84:アドバンストコンテンツADVCTの再生コマンド受信確認>
前記ナビゲーションコマンドの一種である“コールアドバンストコンテンツプレーヤ”というコマンドによって、スタンダードコンテンツSTDCTからアドバンストコンテンツADVCTへの再生処理への遷移が指定される。前記プライマリービデオプレーヤPRMVPがコールスタンダードコンテンツプレーヤAPIコマンドを受けると、前記スタンダードコンテンツSTDCTの再生を中止する。その後、アドバンストコンテンツADVCTの再生処理途中で前記コールスタンダードコンテンツプレーヤAPIコマンドを受けて再生中断した丁度その場所から、再生を再開するようにプレイリストマネージャPLMNGが処理を行う。
<Step S84: Confirmation of Advanced Content ADVCT Playback Command Reception>
A transition from the standard content STDCT to the advanced content ADVCT is designated by a command “call advanced content player” which is a kind of the navigation command. When the primary video player PRMVP receives the call standard content player API command, the reproduction of the standard content STDCT is stopped. Thereafter, the playlist manager PLMNG performs processing so that playback is resumed from the location where playback was interrupted in response to the call standard content player API command during playback of advanced content ADVCT.
図54に示すプライマリーオーディオビデオクリップエレメントPRAVCPタグ内のデータと、セカンダリーオーディオビデオクリップエレメントSCAVCP内のタグ内データ、及び図55に示すサブスティテュートオーディオビデオクリップエレメントSBAVCPのタグ内データと、サブスティテュートオーディオクリップエレメントSBADCPのタグ内データ、図56内アドバンストサブタイトルセグメントエレメントADSTSGのタグ内データと、アプリケーションセグメントエレメントAPPLSGのタグ内データに用いられる時間関連情報間の説明について図53を用いて行う。 Data in primary audio video clip element PRAVCP tag shown in FIG. 54, data in tag in secondary audio video clip element SCAVCP, data in tag of substitute audio video clip element SBAVCP shown in FIG. 55, and substitute audio clip Description will be made with reference to FIG. 53 between the in-tag data of the element SBADCP, the in-tag data of the advanced subtitle segment element ADSTSG in FIG. 56, and the time-related information used in the in-tag data of the application segment element APPLSG.
本実施形態において、各再生表示オブジェクトのユーザへの表示タイミングをタイトルタイムラインTMLE上の表示開始時間TTSTTMと終了時間TTEDTMを用いてプレイリストファイルPLLST内に記述する。プレイリストファイルPLLST内のオブジェクトマッピングインフォメーションOBMAPI上では、この時のタイトルタイムラインTMLE上の開始時間TTSTTMを、titleTimeBegin属性情報で記述する。また同様、タイトルタイムラインTMLE上の終了時間TTEDTMはtitleTimeEnd属性情報に記述する。本実施形態における前記タイトルタイムラインTMLE上の開始時間TTSTTMと終了時間TTEDTMは、タイトルタイムラインTMLE上のカウント数で表される。前記タイトルタイムラインTMLE上の時間表示方法としてはタイトルタイムラインTMLEの開始時間からの経過時間を“HH:MM:SS:FF”で記述される。すなわち、前記時間表示方法における“HH”は時間単位を意味し、“00”から“23”までの値が入る。また、“MM”は分単位を表し、“00”から“59”までの数字が入る。また、“SS”は秒単位を意味し、“00”から“59”までの値が入る。さらに“FF”はフレームレートを意味し、1秒間に50フレーム(50fps:PAL系)の場合には“FF”の値として“00”から“49”までのカウント数が入り、“FF”が“50”になった時に1秒として繰り上がる。またフレームレートが60ヘルツ系(60fps:NTSC系)の場合には、カウント値として“FF”の値が“00”から“59”までの値が入る。この場合には、“FF”の値が60になった段階で1秒経過したとみなし、秒の値に繰り上がる。タイトルタイムラインTMLE上の開始時間TTSTTM(titleTimeBegin)で再生を開始する再生・表示オブジェクト(プライマリーエンハンストビデオオブジェクトデータP-EVOBまたはセカンダリーエンハンストビデオオブジェクトデータS-EVOBなど)内の開始場所をエンハンストビデオオブジェクトデータEVOB上の開始位置VBSTTM(clipTimeBegin属性情報)で表す。前記エンハンストビデオオブジェクトデータEVOB上の開始位置VBSTTM(clipTimeBegin属性情報)の値はプライマリーエンハンストビデオオブジェクトデータP-EVOB(またはセカンダリーエンハンストビデオオブジェクトデータS-EVOB)内におけるビデオストリームのコードフレームのプレゼンテーションスタートタイム(プレゼンテーションタイムスタンプ値)PTSにより記述される。図12に示すようにプレイリストPLLSTからはプライマリービデオセットのタイムマップPTMAPまたはセカンダリービデオセットのタイムマップSTMAPを参照し、前記タイムマップPTMAP、STMAPを経由してエンハンストビデオオブジェクトEVOBへアクセスする。前記タイムマップPTMAP、STMAPは、指定された時間情報からエンハンストビデオオブジェクトEVOB内の相対的なアドレス情報への変換に用いられる。従ってエンハンストビデオオブジェクトデータEVOB上の開始位置VBSTTM(clipTimeBegin属性情報)の値として時間情報であるプレゼンテーションスタートタイム(プレゼンテーションタイムスタンプ値)PTSにより指定することにより上記のアクセス制御が容易になるという効果が生まれる。 In this embodiment, the display timing of each playback display object to the user is described in the playlist file PLLST using the display start time TTSTTM and end time TTEDTM on the title timeline TMLE. On the object mapping information OBMAPI in the playlist file PLLST, the start time TTSTTM on the title timeline TMLE at this time is described by titleTimeBegin attribute information. Similarly, the end time TTEDTM on the title timeline TMLE is described in the titleTimeEnd attribute information. In the present embodiment, the start time TTSTTM and the end time TTEDTM on the title timeline TMLE are represented by counts on the title timeline TMLE. As a time display method on the title timeline TMLE, an elapsed time from the start time of the title timeline TMLE is described as “HH: MM: SS: FF”. That is, “HH” in the time display method means a time unit, and a value from “00” to “23” is entered. “MM” represents a minute unit, and a number from “00” to “59” is entered. “SS” means a unit of seconds, and a value from “00” to “59” is entered. Furthermore, “FF” means the frame rate. In the case of 50 frames per second (50 fps: PAL system), the count value from “00” to “49” is entered as the “FF” value. When it reaches “50”, it moves up as 1 second. When the frame rate is 60 Hz (60 fps: NTSC), the count value is a value from “00” to “59”. In this case, it is considered that 1 second has passed when the value of “FF” reaches 60, and the value is incremented to the value of seconds. Enhanced video object data for the start location in a playback / display object (such as primary enhanced video object data P-EVOB or secondary enhanced video object data S-EVOB) that starts playback at the start time TTSTTM (titleTimeBegin) on the title timeline TMLE It is represented by the start position VBSTTM (clipTimeBegin attribute information) on EVOB. The value of the start position VBSTTM (clipTimeBegin attribute information) on the enhanced video object data EVOB is the presentation start time of the code frame of the video stream in the primary enhanced video object data P-EVOB (or the secondary enhanced video object data S-EVOB) ( Presentation timestamp value) Described in PTS. As shown in FIG. 12, the playlist PLLST refers to the time map PTMAP of the primary video set or the time map STMAP of the secondary video set, and accesses the enhanced video object EVOB via the time maps PTMAP and STMAP. The time maps PTMAP and STMAP are used for conversion from designated time information to relative address information in the enhanced video object EVOB. Therefore, the above-mentioned access control can be facilitated by specifying the presentation start time (presentation time stamp value) PTS as time information as the value of the start position VBSTTM (clipTimeBegin attribute information) on the enhanced video object data EVOB. .
また、再生表示オブジェクトであるプライマリービデオセットPRMVSのエンハンストビデオオブジェクトデータP-EVOBまたはセカンダリービデオセットSCDVSのエンハンストビデオオブジェクトデータS-EVOBの全再生期間OBTPTを定義する。上記4種類の時間情報に対し、本実施形態では以下の条件を定義している。 Further, the entire playback period OBTPT of the enhanced video object data P-EVOB of the primary video set PRMVS or the enhanced video object data S-EVOB of the secondary video set SCDVS, which is a playback display object, is defined. In the present embodiment, the following conditions are defined for the above four types of time information.
titleTimeBegin < titleTimeEnd
titleTimeEnd ≦ titleDuration
上記条件を課する事により表示時間のオーバーフローを防止すると共に時間管理制御の容易性を確保している。上記関係式におけるtitleDurationに関する属性情報は、図24に示すタイトルエレメント情報TTELEMのタグ内(タイトルの属性情報TTATRI)に存在し、タイトルタイムラインTMLE上でのタイトル全体の時間的な長さ情報TTDURを意味している。更に本実施形態においては、
clipTimeBegin + titleTimeEnd − titleTimeBegin ≦ オブジェクトデータの全再生期間OBTPT
の条件も設定している。上記条件を設定することによりタイトルタイムラインTMLE上で指定する再生時間範囲がエンハンストビデオオブジェクトデータEVOBの全再生期間OBTPTをはみ出すことなく、安定な再生・管理を保証している。再生表示オブジェクトであるプライマリービデオセットPRMVSのエンハンストビデオオブジェクトデータP-EVOBまたはセカンダリービデオセットSCDVSのエンハンストビデオオブジェクトデータS-EVOBに関しては、前述したようにプライマリービデオセットPRMVSのタイムマップファイルPTMAPまたはセカンダリービデオセットSCDVSのタイムマップファイルSTMAPを参照することになっている(図12参照)。前記エンハンストビデオオブジェクトデータEVOB上の開始位置VBSTTMの情報(clipTimeBegin属性情報)は、前記プライマリービデオセットPRMVSのタイムマップファイルPTMAPまたはセカンダリービデオセットSCDVSのタイムマップファイルSTMAPを参照する事により、情報記憶媒体DISC上の再生開始する場所を表す物理的なアドレス情報に変換される。それにより、図1に示す情報記録再生装置1内の情報記録再生部2の中に存在する光学ヘッド(図示していない)が指定された情報記憶媒体DISC上のアドレス位置に直接アクセスし、それにより前記エンハンストビデオオブジェクトデータEVOB上の開始位置VBSTTM(clipTimeBegin属性情報)のところから再生開始する事が出来る。また再生表示する事にあたり、アドバンストコンテンツADVCTのビデオタイトルセットインフォメーションファイルADVTSIの情報を利用し、アドバンストコンテンツ再生部ADVPL内のデコーダーエンジンDCDENの各種条件設定を行う事が出来る。
titleTimeBegin <titleTimeEnd
titleTimeEnd ≤ titleDuration
By imposing the above conditions, overflow of display time is prevented and ease of time management control is ensured. The attribute information related to titleDuration in the above relational expression exists in the tag (title attribute information TTATRI) of the title element information TTELEM shown in FIG. I mean. Furthermore, in this embodiment,
clipTimeBegin + titleTimeEnd-titleTimeBegin ≤ Total playback period of object data OBTPT
The conditions are also set. By setting the above conditions, the playback time range specified on the title timeline TMLE does not protrude from the entire playback period OBTPT of the enhanced video object data EVOB, thereby ensuring stable playback and management. For the enhanced video object data P-EVOB of the primary video set PRMVS or the secondary video set SCDVS which is the playback display object, the time map file PTMAP or secondary video set of the primary video set PRMVS as described above. The SCDVS time map file STMAP is to be referred to (see FIG. 12). Information on the start position VBSTTM (clipTimeBegin attribute information) on the enhanced video object data EVOB is obtained by referring to the time map file PTMAP of the primary video set PRMVS or the time map file STMAP of the secondary video set SCDVS. It is converted into physical address information indicating the location where playback is started. Thereby, an optical head (not shown) existing in the information recording / reproducing
<Presentation Clip element and Object Mapping Information >
オブジェクトマッピングインフォメーションOBMAPIは、タイトルタイムラインTMLE上で各種再生表示オブジェクトの表示有効期間を持つ。前記表示有効期間は、タイトルタイムラインTMLE上の開始時間TTSTTM(titleTimeBegin)からタイトルタイムラインTMLE上の終了時間TTEDTM(titleTimeEnd)までの期間を意味している。タイトルタイムラインTMLE上において、オブジェクトマッピングインフォメーションOBMAPI上に複数のプライマリーオーディオビデオクリップエレメントPRAVCPが記述されている場合には、タイトルタイムラインTMLE上において、互いのプライマリーオーディオビデオクリップエレメントPRAVCP間でオーバーラップしてはならない。すなわち、本実施形態において、図37に示すようにプライマリーオーディオビデオPRMAVに対応したメインビデオデコーダーMVDECは1個しか存在しない。その為、複数のプライマリーオーディオビデオクリップエレメントPRAVCP間でタイトルタイムラインTMLE上の表示期間が重なると、前記メインビデオデコーダーMVDEC上でデコードすべきオブジェクトが衝突してしまい、安定に再生する事が出来なくなる。その為、上記条件を設定することにより、ユーザへの表示画面の安定化を確保する事が出来る。同様にタイトルタイムラインTMLE上において、オブジェクトマッピングインフォメーションOBMAPIの中に複数のセカンダリーオーディオビデオクリップエレメントSCAVCPを記述する場合には、各セカンダリーオーディオビデオクリップエレメントSCAVCP間で、お互いにタイトルタイムラインTMLE上でのオーバーラップがあってはならない。セカンダリーオーディオビデオクリップエレメントSCAVCPで管理されるセカンダリーオーディオビデオSCDAVには、図10に示すようにサブビデオSUBVDとサブオーディオSUBADが含まれる。図37に示すように、セカンダリーオーディオビデオをデコードするサブビデオデコーダーSVDECも1個しか存在しない為、互いにオーバーラップするとサブビデオデコーダーSVDEC上で混乱が起きる。その為、安定に動画を表示する為に同様に上記の制限が加わっている。オブジェクトマッピングインフォメーションOBMAPI上に、複数のサブスティテュートオーディオクリップエレメントSBADCPが存在する場合には、タイトルタイムラインTMLE上で各サブスティテュートオーディオクリップエレメントSBADCPの有効期間が互いに重なってはならない。前記オブジェクトマッピングインフォメーションOBMAPI内に複数のサブスティテュートオーディオビデオクリップエレメントSBAVCPが存在する場合にも、タイトルタイムラインTMLE上の各サブスティテュートオーディオビデオクリップエレメントSBAVCPの有効期間が互いに重なってはならない。また、本実施形態としてはプライマリーオーディオビデオクリップエレメントPRAVCPのタイトルタイムラインTMLE上の有効期間とサブスティテュートオーディオビデオクリップエレメントSBAVCPのタイトルタイムラインTMLE上での有効期間が互いに重なってはならない。更に、本実施形態においてはサブスティテュートオーディオビデオクリップエレメントSBAVCP、セカンダリーオーディオビデオクリップエレメントSCAVCP、及びサブスティテュートオーディオクリップエレメントSBADCPのタイトルタイムラインTMLE上の有効期間も互いに重なってはならない。これらの条件を設定する事により、各種デコーダー上で表示すべき再生表示オブジェクトの重なりを防止し、ユーザに表示する画面の安定性を確保する事が出来る。
<Presentation Clip element and Object Mapping Information>
The object mapping information OBMAPI has display valid periods of various playback display objects on the title timeline TMLE. The display valid period means a period from the start time TTSTTM (titleTimeBegin) on the title timeline TMLE to the end time TTEDTM (titleTimeEnd) on the title timeline TMLE. When multiple primary audio video clip elements PRAVCP are described in the object mapping information OBMAPI on the title timeline TMLE, the primary audio video clip elements PRAVCP overlap each other on the title timeline TMLE. must not. That is, in this embodiment, as shown in FIG. 37, there is only one main video decoder MVDEC corresponding to the primary audio video PRMAV. For this reason, if the display periods on the title timeline TMLE overlap between a plurality of primary audio video clip elements PRAVCP, objects to be decoded on the main video decoder MVDEC collide with each other and cannot be stably reproduced. . Therefore, stabilization of the display screen for the user can be ensured by setting the above conditions. Similarly, when describing a plurality of secondary audio video clip elements SCAVCP in the object mapping information OBMAPI on the title timeline TMLE, between each secondary audio video clip element SCAVCP, each other on the title timeline TMLE. There should be no overlap. The secondary audio video SCDAV managed by the secondary audio video clip element SCAVCP includes a sub video SUBVD and a sub audio SUBAD as shown in FIG. As shown in FIG. 37, since there is only one sub video decoder SVDEC that decodes secondary audio video, confusion occurs on the sub video decoder SVDEC when they overlap each other. For this reason, the above restriction is added in order to display a moving image stably. When there are a plurality of substitute audio clip elements SBADCP on the object mapping information OBMAPI, the valid periods of the respective substitute audio clip elements SBADCP on the title timeline TMLE must not overlap each other. Even when a plurality of substitute audio video clip elements SBAVCP exist in the object mapping information OBMAPI, the validity periods of the respective substitute audio video clip elements SBAVCP on the title timeline TMLE must not overlap each other. In this embodiment, the valid period on the title timeline TMLE of the primary audio video clip element PRAVCP and the valid period on the title timeline TMLE of the substitute audio video clip element SBAVCP must not overlap each other. Further, in the present embodiment, the valid periods on the title timeline TMLE of the substitute audio video clip element SBAVCP, the secondary audio video clip element SCAVCP, and the substitute audio clip element SBADCP must not overlap each other. By setting these conditions, it is possible to prevent overlapping of reproduction display objects to be displayed on various decoders and to ensure the stability of the screen displayed to the user.
ユーザに表示する画面の安定性を確保する他の方法として、本実施形態においては図1内に記述された情報記録再生部2内に存在する光学ヘッド(図示していないが)のアクセス頻度を低下させるための以下の工夫を行っている。図54と図55 において、各種クリップエレメントタグ内に再生表示オブジェクトの保存場所SRCTMPがsrc属性情報(ソース属性情報)として記録されている。タイトルタイムラインTMLE上の有効期間が互いに重なる複数のクリップエレメント内に記載されているsrc属性情報の値が重複して情報記憶媒体DISCに設定されないように本実施形態では規定されている。すなわち、複数のクリップエレメントで指定された再生表示オブジェクトのタイトルタイムラインTMLE上の有効期間が重なると、同一情報記憶媒体DISC上のアクセス頻度が増し、前記再生表示オブジェクトの再生時の連続性が確保されなくなる。その為、本実施形態において上記条件を設定するだけでなく、さらに下記に説明する工夫を行っている。すなわち上記条件を設定してもやむを得ず同一の情報記憶媒体DISCに保存された複数の再生表示オブジェクトのタイトルタイムラインTMLE上での表示期間が重複した場合にはプライマリーオーディオビデオクリップエレメントPRAVCP以外のクリップエレメントで管理される再生表示オブジェクトに対してはデータキャッシュDTCCH内に事前に一時保存し、前記データキャッシュDTCCHからデータを再生する事で情報記憶媒体DISCへのアクセス頻度を減らし、再生の連続性を確保する事が出来る。
As another method for ensuring the stability of the screen displayed to the user, in this embodiment, the access frequency of the optical head (not shown) existing in the information recording / reproducing
本実施形態において、プレイリストファイルPLLSTに記載される情報の中身は図23(a)に示すように構造情報CONFGI、メディア属性情報MDATRI及びタイトル情報TTINFOが存在する。前述したタイトル情報TTINFOの中には、図23(b)に示すようにファーストプレイタイトルエレメントFPTELE、各タイトル毎に関するタイトルエレメント情報TTELEMとプレイリストアプリケーションエレメントPLAELEが存在し、前記タイトルエレメント情報TTELEMの中には図23(c)に示すようにオブジェクトマッピングインフォメーションOBMAPI、リソースインフォメーションRESRCI、プレイバックシーケンスインフォメーションPLSQI及びトラックナビゲーションインフォメーションTRNAVIとスケジュールドコントロールインフォメーションSCHECIが存在する。前記オブジェクトマッピングインフォメーションOBMAPIの中は、図24(c)に示すようにプライマリーオーディオビデオクリップエレメントPRAVCP、サブスティテュートオーディオビデオクリップエレメントSBAVCP、サブスティテュートオーディオクリップエレメントSBADCP、セカンダリーオーディオビデオクリップエレメントSCAVCP、アドバンストサブタイトルセグメントエレメントADSTSG及びアプリケーションセグメントエレメントAPPLSGが記録可能になっている。前記プライマリーオーディオビデオクリップエレメントPRAVCPの詳細なデータ構造を図54(c)に示す。図54(b)に示すように、プライマリーオーディオビデオクリップエレメントPRAVCPのタグ内のデータ構造はプライマリーオーディオビデオクリップエレメントPRAVCPのID情報PRAVIDとプライマリーオーディオビデオクリップエレメントPRAVCPの属性情報PRATRIから構成されている。前記プライマリーオーディオビデオクリップエレメントPRAVCPのID情報PRAVIDは、図54(c)に示すように“id=”と記述した後、プライマリーオーディオビデオクリップエレメントPRAVCPのID情報PRAVIDが記述される。同様に、前記セカンダリーオーディオビデオクリップエレメントSCAVCPの具体的なデータ構造を図54(d)に示す。セカンダリーオーディオビデオクリップエレメントSCAVCPタグ内のデータ構造はセカンダリーオーディオビデオクリップエレメントSCAVCPのID情報SCAVIDとセカンダリーオーディオビデオクリップエレメントSCAVCPの属性情報SCATRIから構成されている。 In the present embodiment, the content described in the playlist file PLLST includes structure information CONFGI, media attribute information MDATRI, and title information TTINFO as shown in FIG. As shown in FIG. 23B, the title information TTINFO described above includes the first play title element FPTELE, the title element information TTELEM for each title, and the playlist application element PLAELE. The title element information TTELEM includes As shown in FIG. 23 (c), object mapping information OBMAPI, resource information RESRCI, playback sequence information PLSQI, track navigation information TRNAVI, and scheduled control information SCHECI exist. The object mapping information OBMAPI includes a primary audio video clip element PRAVCP, a substitute audio video clip element SBAVCP, a substitute audio clip element SBADCP, a secondary audio video clip element SCAVCP, and an advanced subtitle segment as shown in FIG. The element ADSTSG and the application segment element APPLSG can be recorded. FIG. 54 (c) shows a detailed data structure of the primary audio video clip element PRAVCP. As shown in FIG. 54 (b), the data structure in the tag of the primary audio video clip element PRAVCP is composed of ID information PRAVID of the primary audio video clip element PRAVCP and attribute information PRATRI of the primary audio video clip element PRAVCP. The ID information PRAVID of the primary audio video clip element PRAVCP is described as “id =” as shown in FIG. 54 (c), and then the ID information PRAVID of the primary audio video clip element PRAVCP is described. Similarly, a specific data structure of the secondary audio video clip element SCAVCP is shown in FIG. 54 (d). The data structure in the secondary audio video clip element SCAVCP tag includes ID information SCAVID of the secondary audio video clip element SCAVCP and attribute information SCATRI of the secondary audio video clip element SCAVCP.
<プライマリーオーディオビデオクリップエレメント(PrimaryAudioVideoClip element)>
前記プライマリーオーディオビデオクリップエレメントPRAVCPは、図18に示すようにプライマリーオーディオビデオPRMAVに関する再生表示クリップエレメントを意味する。前記プライマリーオーディオビデオクリップエレメントPRAVCP内には、プライマリーオーディオビデオPRMAVのオブジェクトマッピングインフォメーションOBMAPIの内容と、プライマリーオーディオビデオPRMAVのトラックナンバーアサイメントインフォメーションが記述されている。前記プライマリーオーディオビデオクリップエレメントPRAVCPは、再生表示オブジェクトとしてプライマリーエンハンストビデオオブジェクトP-EVOBまたはプライマリーエンハンストビデオオブジェクトP-EVOBのインターリーブドブロックに関する再生表示管理情報が記述されている。また、オブジェクトマッピングインフォメーションOBMAPI内にはタイトルタイムラインTMLE上の再生表示オブジェクト(プライマリーエンハンストビデオオブジェクトP-EVOB)のタイトルタイムラインTMLE上のマッピング状況(図17内のオブジェクトマッピングインフォメーションOBMAPI部分を参照)と、前記プライマリーエンハンストビデオオブジェクトP-EVOB内の各種エレメンタリーストリームに関するトラックナンバーアサイメント情報が記述されている。図54(c)及び(d)における“src属性情報(ソース属性情報)”とは、プライマリーオーディオビデオクリップPRAVCPが管理する再生表示オブジェクト(プライマリーオーディオビデオPRMAVのプライマリーエンハンストビデオオブジェクトデータP-EVOB)に対するインデックスインフォメーションファイル(プライマリービデオセットのタイムマップファイルPTMAP)の保存場所SRCTMP又はセカンダリーオーディオビデオクリップSCAVCPが管理する再生表示オブジェクト(セカンダリーオーディオビデオSCDAVのセカンダリーエンハンストビデオオブジェクトデータS-EVOB)に対するインデックスインフォメーションファイル(セカンダリービデオセットのタイムマップファイルSTMAP)の保存場所SRCTMPを意味している。前記インデックスインフォメーションファイルの保存場所SRCTMPは、URI(ユニフォーム・リソース・アイデンティファイヤー)の形式に従って記述される。
<Primary Audio Video Clip element>
The primary audio video clip element PRAVCP means a playback display clip element related to the primary audio video PRMAV as shown in FIG. In the primary audio video clip element PRAVCP, the contents of the object mapping information OBMAPI of the primary audio video PRMAV and the track number assignment information of the primary audio video PRMAV are described. The primary audio video clip element PRAVCP describes playback display management information related to the primary enhanced video object P-EVOB or the interleaved block of the primary enhanced video object P-EVOB as a playback display object. Also, in the object mapping information OBMAPI, the playback status of the playback display object (primary enhanced video object P-EVOB) on the title timeline TMLE on the title timeline TMLE (see the object mapping information OBMAPI part in FIG. 17) and In addition, track number assignment information relating to various elementary streams in the primary enhanced video object P-EVOB is described. “Src attribute information (source attribute information)” in FIGS. 54 (c) and 54 (d) corresponds to a playback display object (primary enhanced video object data P-EVOB of the primary audio video PRMAV) managed by the primary audio video clip PRAVCP. Storage location of index information file (primary video set time map file PTMAP) Index information file (secondary enhanced video object data S-EVOB of secondary audio video SCDAV) managed by SRCTMP or secondary audio video clip SCAVCP It means the storage location SRCTMP of the video map time map file STMAP). The storage location SRCTMP of the index information file is described according to a URI (Uniform Resource Identifier) format.
図54(c)に示すプライマリーオーディオビデオクリップエレメントPRAVCPタグ内の参照すべき再生表示オブジェクトのインデックスインフォメーション保存場所SRCTMPとして本実施形態は上記記載内容に限らず、プライマリーエンハンストビデオオブジェクトデータP-EVOBまたはプライマリービデオエンハンストビデオオブジェクトデータP-EVOBのインターリーブドブロックに対応したインデックスインフォメーションファイル(プライマリービデオセットのタイムマップPTMAPまたはセカンダリービデオセットのタイムマップSTMAP)の保存場所を設定することもできる。すなわち、図18に示すようにプライマリーオーディオビデオクリップエレメントPRAVCPで再生・使用時にインデックスとして表示されるファイル名はプライマリービデオセットのタイムマップファイルPTMAPであり、前記プライマリービデオセットのタイムマップファイルPTMAPが記録されている場所が“SRC属性情報”内に記述される。タイトルタイムラインTMLE上の開始時間TTSTTM(titleTimeBegin属性情報)とタイトルタイムラインTMLE上の終了時間TTEDTM(titleTimeEnd属性情報)は、図53に示すように前記プライマリーエンハンストビデオオブジェクトデータP-EVOBまたはプライマリーエンハンストビデオオブジェクトデータP-EVOBの(インターリーブドブロックの)有効期間の開始時間と終了時間をそれぞれ表している。また、エンハンストビデオオブジェクトデータEVOB上の開始位置VBSTTM(clipTimeBegin属性情報)は、プライマリービデオセットPRMVSのプライマリーエンハンストビデオオブジェクトデータP-EVOBの開始位置VBSTTMを意味しており、プライマリーエンハンストビデオオブジェクトデータP-EVOB内に存在するビデオストリームのプレゼンテーションスタートタイム(プレゼンテーションタイムスタンプ値)PTSにより表現する(図53参照)。前記3種類の時間情報はプライマリーオーディオビデオクリップエレメントPRAVCP内において“HH:MM:SS:FF”で表示され、“時間:分:秒:フィールド(フレーム数)”により記述される。図10に示すようにプライマリーオーディオビデオPRMAV内には、メインビデオMAMVD、メインオーディオMANAD、サブビデオSUBVD、サブオーディオSUBAD、および副映像SUBPTが含まれる。それに対応して、プライマリーオーディオビデオクリップエレメントPRAVCPの中身はメインビデオエレメントMANVD、メインオーディオエレメントMANAD、サブタイトルエレメントSBTELE、サブビデオエレメントSUBVDとサブオーディオエレメントSUBADのリストから構成されている。また前記リストはプライマリーエンハンストビデオオブジェクトデータP-EVOBSの内における各エレメンタリーストリームのトラックナンバーアサイメントインフォメーション(各エレメンタリーストリーム毎のトラック番号設定情報)をも含んでいる。本実施形態において、マルチアングル等に対応した各アングル毎の映像情報が混在されて情報記憶媒体DISCに記録されている場合には、前記プライマリーエンハンストビデオオブジェクトデータP-EVOBがインターリーブドブロックの形で情報が記憶されている事になる。このように、インターリーブドブロックを構成しているプライマリーエンハンストビデオオブジェクトデータP-EVOBに対して、前記プライマリーオーディオビデオクリップエレメントPRAVCPにより管理情報が記録されている場合には、前記メインビデオエレメントMANVDはインターリーブドブロック内の表示可能なアングル番号情報についてトラックナンバーアサイメント(トラック番号)の設定方法が記述されている。すなわち、後述するようにメインビデオエレメントMANVDに対応したタグ情報内にアングル番号(図59(c)インターリーブドブロック内で選択されるアングル番号情報ANGLNM(angleNumber属性情報))が規定されており、前記メインビデオエレメントMANVDのタグ情報内で表示されるべきアングル番号を対応させる事が出来る。メインオーディオエレメントMANADは、プライマリーエンハンストビデオオブジェクトデータP-EVOB内におけるどのオーディオストリーム(AM_PCK)が再生可能になっているかを表し、それらはオーディオトラック番号により設定される。また、サブタイトルエレメントSBTELEはエンハンストビデオオブジェクトデータP-EVOBにおけるどの副映像ストリーム(SP_PCK)が再生可能かを表し、サブタイトルトラック番号により設定される。また、サブオーディオエレメントSUBADは、プライマリーエンハンストビデオオブジェクトデータP-EVOBにおけるどの副映像ストリーム(SP_PCK)が再生可能かを表し、サブオーディオトラック番号により設定される。更にサブビデオエレメントSUBVDは、プライマリーエンハンストビデオオブジェクトデータP-EVOBの中でのサブビデオストリーム(VS_PCK)の表示可能性を記述している。もし、上記プレイリストファイルPLLST内のオブジェクトマッピングインフォメーションOBMAPI内に前記サブビデオエレメントSUBVDの記述がある場合には、プライマリービデオセットPRMVSのエンハンストビデオオブジェクトデータP-EVOB内におけるサブビデオストリームが再生可能であり、その場合にはサブビデオ番号が“1”に設定される。 The index information storage location SRCTMP of the playback display object to be referred to in the primary audio video clip element PRAVCP tag shown in FIG. 54 (c) is not limited to the above description, but the primary enhanced video object data P-EVOB or primary The storage location of the index information file (the time map PTMAP of the primary video set or the time map STMAP of the secondary video set) corresponding to the interleaved block of the video enhanced video object data P-EVOB can also be set. That is, as shown in FIG. 18, the file name displayed as an index during playback / use in the primary audio video clip element PRAVCP is the time map file PTMAP of the primary video set, and the time map file PTMAP of the primary video set is recorded. Is described in “SRC attribute information”. The start time TTSTTM (titleTimeBegin attribute information) on the title timeline TMLE and the end time TTEDTM (titleTimeEnd attribute information) on the title timeline TMLE are the primary enhanced video object data P-EVOB or primary enhanced video as shown in FIG. It represents the start time and end time of the valid period (of the interleaved block) of the object data P-EVOB. The start position VBSTTM (clipTimeBegin attribute information) on the enhanced video object data EVOB means the start position VBSTTM of the primary enhanced video object data P-EVOB of the primary video set PRMVS, and the primary enhanced video object data P-EVOB. It is expressed by the presentation start time (presentation time stamp value) PTS of the video stream existing in the video stream (see FIG. 53). The three types of time information are displayed as “HH: MM: SS: FF” in the primary audio video clip element PRAVCP, and are described by “hour: minute: second: field (number of frames)”. As shown in FIG. 10, the primary audio video PRMAV includes main video MAMVD, main audio MANAD, sub video SUBVD, sub audio SUBAD, and sub video SUBPT. Correspondingly, the contents of the primary audio video clip element PRAVCP are composed of a list of a main video element MANVD, a main audio element MANAD, a subtitle element SBTELE, a sub video element SUBVD, and a sub audio element SUBAD. The list also includes track number assignment information (track number setting information for each elementary stream) of each elementary stream in the primary enhanced video object data P-EVOBS. In the present embodiment, when video information for each angle corresponding to multi-angle or the like is mixed and recorded on the information storage medium DISC, the primary enhanced video object data P-EVOB is in the form of an interleaved block. Information is memorized. As described above, when management information is recorded by the primary audio video clip element PRAVCP with respect to the primary enhanced video object data P-EVOB constituting the interleaved block, the main video element MANVD is interleaved. A track number assignment (track number) setting method is described for angle number information that can be displayed in the block. That is, as described later, an angle number (angle number information ANGLNM (angleNumber attribute information) selected in the interleaved block in FIG. 59 (c)) is defined in the tag information corresponding to the main video element MANVD. The angle number to be displayed in the tag information of the main video element MANVD can be made to correspond. The main audio element MANAD represents which audio stream (AM_PCK) in the primary enhanced video object data P-EVOB can be reproduced, and is set by the audio track number. The subtitle element SBTELE represents which sub-picture stream (SP_PCK) in the enhanced video object data P-EVOB can be reproduced, and is set by the subtitle track number. The sub audio element SUBAD represents which sub video stream (SP_PCK) in the primary enhanced video object data P-EVOB can be reproduced, and is set by the sub audio track number. Further, the sub video element SUBVD describes the display possibility of the sub video stream (VS_PCK) in the primary enhanced video object data P-EVOB. If the sub video element SUBVD is described in the object mapping information OBMAPI in the playlist file PLLST, the sub video stream in the enhanced video object data P-EVOB of the primary video set PRMVS can be played back. In this case, the sub video number is set to “1”.
以下にプライマリーオーディオビデオクリップエレメントの属性情報PRATRI内のデータについて説明を行う。各情報は図54(c)に示すように、“dataSource=”、“titleTimeBegin=”、“clipTimeBegin=”、“titleTimeEnd=”、“src=”、“seamless=”および“description=”のそれぞれの直後に情報が記載される形になっている。図18に示すように、プライマリーオーディオビデオPRMAVは情報記憶媒体DISC内に記録されている。それに対応して再生表示オブジェクトが記録されているデータソースDTSORCの値は、“Disc”を記入しなければならない。前記再生表示オブジェクトが記録されているデータソースDTSORCの値として“Disc”が記録されている場合には、対応するプライマリーオーディオビデオPRMAVのプライマリーエンハンストビデオオブジェクトデータP-EVOBは情報記憶媒体DISC内に記録されている事を示している。前記再生表示オブジェクトが記録されているデータソースDTSORCは、前記プライマリーオーディオビデオクリップエレメントPRAVCP内での記載を省く事が出来るが、もし前記再生表示オブジェクトが記録されているデータソースDTSORCの情報が記述されない場合には、これに対応した前記再生表示オブジェクトが記録されているデータソースDTSORCは“Disc”の情報が入るものとみなされる。また図53に示すように前記タイトルタイムラインTMLE上の開始時間TTSTTM(titleTimeBegin)と前記エンハンストビデオオブジェクトデータEVOB上の開始位置VBSTTM(clipTimeBegin)は、互いに時間軸上で同期した時間を表している。すなわち“HH:MM:SS:FF”の標記方法に基づくフレームカウント数で表示されるタイトルタイムラインTMLE上の開始時間TTSTTM(titleTimeBegin)とビデオストリーム内でのプレゼンテーションスタートタイム(プレゼンテーションタイムスタンプ値)PTSで表示されるエンハンストビデオオブジェクトデータEVOB上の開始位置VBSTTMとの間の対応関係を上記の情報により得ることが可能となる。従って上記の関係を利用し、タイトルタイムライン上の開始時間TTSTTM(titleTimeBegin)から終了時間TTEDTM(titleTimeEnd)に至る有効期間内におけるタイトルタイムラインTMLE上の任意の時間からエンハンストビデオオブジェクトデータEVOB上でのビデオストリーム内のプレゼンテーションスタートタイム(プレゼンテーションタイムスタンプ値)PTSに換算することが可能となる。前記プライマリーオーディオビデオクリップエレメントPRAVCP上では、前記エンハンストビデオオブジェクトデータEVOB上の開始位置VBSTTM(clipTimeBegin)の情報の記載を省く事が出来る。もし、前記エンハンストビデオオブジェクトデータEVOB上の開始位置VBSTTM(clipTimeBegin)の記載を省いた場合には、プライマリービデオセットPRMVSのプライマリーエンハンストビデオオブジェクトデータファイルP-EVOBの先頭位置から再生を開始することになる。本実施形態において、前記プライマリーオーディオビデオクリップに関する付加情報の前記プライマリーオーディオビデオクリップエレメントタグ内での記述を省く事が出来る。また、シームレスフラグ情報SEAMLS(seamless属性情報)は、前記プライマリーオーディオビデオクリップエレメントPRAVCPが管理するプライマリーオーディオビデオPRMAVのつなぎ目をシームレスに(途中で途切れる事なく連続して)再生できることを保証するか否かの情報を示している。前記値が“true”の場合には、タイトルタイムラインTMLE上で直前にマッピングされた別のプライマリーオーディオビデオPRMAVから前記プライマリーオーディオビデオクリップエレメントPRAVCPが管理するプライマリーオーディオビデオPRMAVへの再生の切替を直接行う場合にその間のつなぎ目で映像が途切れる事なく連続してスムーズにつながる事を保証している。また、前記の値が“false”の場合には前記のつなぎ目での連続再生(シームレス条件)が満足されない事を示している。前記シームレスフラグ情報SEAMLS(seamless属性情報)の記載を省く事が可能であり、その場合にはデフォルト値である“false”の値が自動的に設定される。 The data in the attribute information PRATRI of the primary audio video clip element will be described below. As shown in FIG. 54 (c), each piece of information includes “dataSource =”, “titleTimeBegin =”, “clipTimeBegin =”, “titleTimeEnd =”, “src =”, “seamless =”, and “description =”. Immediately after, information is written. As shown in FIG. 18, the primary audio video PRMAV is recorded in the information storage medium DISC. Correspondingly, “Disc” must be entered in the value of the data source DTSORC in which the playback display object is recorded. When “Disc” is recorded as the value of the data source DTSORC in which the playback display object is recorded, the primary enhanced video object data P-EVOB of the corresponding primary audio video PRMAV is recorded in the information storage medium DISC. It has been shown that. The data source DTSORC in which the playback display object is recorded can be omitted from the primary audio video clip element PRAVCP, but the information of the data source DTSORC in which the playback display object is recorded is not described. In this case, the data source DTSORC in which the reproduction display object corresponding to this is recorded is considered to contain the information “Disc”. As shown in FIG. 53, the start time TTSTTM (titleTimeBegin) on the title timeline TMLE and the start position VBSTTM (clipTimeBegin) on the enhanced video object data EVOB represent times synchronized with each other on the time axis. That is, the start time TTSTTM (titleTimeBegin) on the title timeline TMLE displayed with the frame count number based on the notation method “HH: MM: SS: FF” and the presentation start time (presentation time stamp value) PTS in the video stream It is possible to obtain the correspondence relationship with the start position VBSTTM on the enhanced video object data EVOB displayed by the above information. Therefore, using the above relationship, from the arbitrary time on the title timeline TMLE within the effective period from the start time TTSTTM (titleTimeBegin) on the title timeline to the end time TTEDTM (titleTimeEnd), It is possible to convert the presentation start time (presentation time stamp value) PTS in the video stream. On the primary audio video clip element PRAVCP, the description of the information of the start position VBSTTM (clipTimeBegin) on the enhanced video object data EVOB can be omitted. If the description of the start position VBSTTM (clipTimeBegin) on the enhanced video object data EVOB is omitted, playback starts from the start position of the primary enhanced video object data file P-EVOB of the primary video set PRMVS. . In this embodiment, it is possible to omit the description of the additional information related to the primary audio video clip in the primary audio video clip element tag. Whether the seamless flag information SEAMLS (seamless attribute information) guarantees that the joint of the primary audio video PRMAV managed by the primary audio video clip element PRAVCP can be played seamlessly (continuously without interruption). Information. When the value is “true”, playback switching from another primary audio video PRMAV mapped immediately before on the title timeline TMLE to the primary audio video PRMAV managed by the primary audio video clip element PRAVCP is directly performed. When doing it, it is guaranteed that the video is continuously and smoothly connected without interruption at the joint between them. Further, when the value is “false”, it indicates that the continuous reproduction (seamless condition) at the joint is not satisfied. It is possible to omit the description of the seamless flag information SEAMLS (seamless attribute information). In this case, the default value “false” is automatically set.
本実施形態において、オブジェクトマッピングインフォメーションOBMAPI内の各クリップエレメントタグ内に記述される情報は、全て共通して“ID = ID情報”が最初の位置に記述される(図55/図56を参照)事を特徴としている。それにより、同一オブジェクトマッピングインフォメーションOBMAPI内に同じ種類のクリップエレメントを複数設定出来る(同じ種類のクリップエレメント間は上記“ID情報”により互いの識別は可能)だけで無く、プレイリストマネージャPLMNG(図28参照)による各クリップエレメントの識別が容易となり、起動時の再生開始までの時間の短縮化が図れるという効果がある。更に図82に示すように前記の“ID情報”を用いてAPIコマンドにより必要なクリップエレメントを指定することが可能となり、APIコマンド処理が容易となる。同時に、オブジェクトマッピングインフォメーションOBMAPI内の各クリップエレメントタグ内に記述される情報は全て共通して“description=付加情報”が最後の位置に記述される(図55/図56を参照)という特徴もある。それにより、プレイリストマネージャPLMNG(図28参照)による各クリップエレメント毎の“付加情報”の検索が容易になるという効果が存在する。また、本実施形態においてオブジェクトマッピングインフォメーションOBMAPI内の各クリップエレメントタグ内に記述される情報は、クリップエレメントタグの種類に依らず全て共通して“titleTimeBegin=[タイトルタイムライン上の開始時間TTSTTM]”が最初に記述され、その後ろに“titleTimeEnd=[タイトルタイムライン上の終了時間TTEDTM]”が配置されており、クリップエレメントタグによってはその間に“clipTimeBegin=[エンハンストビデオオブジェクトデータ上の先頭位置からの開始時間VBSTTM]”を挿入配置する事が出来る。このように3種類の時間情報に対する記述順序が全てのクリップエレメントタグ内で共通する事により、プレイリストマネージャPLMNG(図28参照)による各クリップエレメント内での関連情報検索の容易化と高速化を図る事が出来る。 In this embodiment, all the information described in each clip element tag in the object mapping information OBMAPI is commonly described with “ID = ID information” in the first position (see FIG. 55 / FIG. 56). It is characterized by things. As a result, a plurality of clip elements of the same type can be set in the same object mapping information OBMAPI (the same type of clip elements can be distinguished from each other by the “ID information”), as well as the playlist manager PLMNG (FIG. 28). This makes it easy to identify each clip element by reference), and to shorten the time until the start of reproduction at the time of activation. Further, as shown in FIG. 82, it becomes possible to designate a necessary clip element by an API command using the “ID information”, and API command processing is facilitated. At the same time, all the information described in each clip element tag in the object mapping information OBMAPI is common, and “description = additional information” is described at the last position (see FIG. 55 / FIG. 56). . Thereby, there is an effect that it becomes easy to search for “additional information” for each clip element by the playlist manager PLMNG (see FIG. 28). Also, in the present embodiment, the information described in each clip element tag in the object mapping information OBMAPI is all “titleTimeBegin = [start time on title timeline TTSTTM]” regardless of the type of clip element tag. Is described first, followed by “titleTimeEnd = [End time TTEDTM on the title timeline]”. Depending on the clip element tag, “clipTimeBegin = [From the start position on the enhanced video object data] You can insert start time VBSTTM] ”. In this way, the description order for the three types of time information is common in all clip element tags, thereby facilitating and speeding up related information search in each clip element by the playlist manager PLMNG (see FIG. 28). You can plan.
<セカンダリーオーディオビデオクリップエレメント(SecondaryVideoClip element)>
以下に図54(d)に示すセカンダリーオーディオビデオクリップエレメントSCAVCPタグ内のデータ構造について説明をする。図18に示すように前記セカンダリーオーディオビデオクリップエレメントSCAVCPは、セカンダリーオーディオビデオSCDAVに対する再生表示クリップエレメントを表している。前記セカンダリーオーディオビデオSCDAVは、セカンダリービデオセットSCDVSのセカンダリーエンハンストビデオオブジェクトデータS-EVOBの中に存在しており、その中にサブビデオストリームSUBVDとサブオーディオストリームSUBADを含んでいる。前記セカンダリーオーディオビデオクリップエレメントSCAVCPは、タイトル内におけるセカンダリーオーディオビデオSCDAVのオブジェクトマッピングインフォメーションOBMAPIを示している。また同時に、前記セカンダリーオーディオビデオクリップエレメントSCAVCPはセカンダリーオーディオビデオSCDAVのセカンダリーエンハンストビデオオブジェクトデータS-EVOB内における各エレメンタリーストリームのトラックナンバーアサイメントインフォメーションの情報も表している。図18に示すようにセカンダリーオーディオビデオSCDAVは情報記憶媒体DISK、パーシステントストレージPRSTR、ネットワークサーバNTSRVおよびファイルキャッシュFLCCH内に記録する事が出来る。従って、前記セカンダリーオーディオビデオSCDAVは、情報記憶媒体DISCやネットワークサーバNTSRVに記録されているだけで無く、事前にパーシステントストレージPRSTRやファイルキャッシュFLCCH内にダウンロードしても良い。図54(d)に示すSRC属性情報(ソース属性情報)は、再生表示オブジェクトであるセカンダリーオーディオビデオSCDAVのセカンダリーエンハンストビデオオブジェクトデータS-EVOBに関するインデックスインフォメーションファイルの保存場所SRCTMPを表している。図18に示すように、セカンダリーオーディオビデオSCDAVの再生・使用時にインデックスとして参照されるファイル(インデックスインフォメーションファイル)はセカンダリービデオセットのタイムマップファイルSTMAPを意味している。また、タイトルタイムライン上の開始時間TTSTTM(titleTimeBegin)とタイトルタイムライン上の終了時間TTEDTM(titleTimeEnd)の情報は、それぞれセカンダリーエンハンストビデオオブジェクトデータS-EVOBの有効期間における開始と終了時間を表している。また図53に示すように、エンハンストビデオオブジェクトデータ上の開始位置VBSTTM(clipTimeBegin)はセカンダリーエンハンストビデオオブジェクトデータS-EVOBの開始位置を時間情報で表している。前記セカンダリーオーディオビデオクリップエレメントSCAVCP内においても、前記3種類の時間情報は“HH:MM:SS:FF”の“時間:分:秒:フィールド(フレーム数)”により表される。プライマリーオーディオビデオセットPRMVS内のサブビデオSUBVDとサブオーディオSUBADに対して、前記セカンダリーオーディオビデオSCDAV内のサブビデオSUBVDとサブオーディオSUBADは二者択一の状態で使用され、同時に再生する事が出来ず、どちらか一方のみがそれぞれ再生可能な形となっている。従って、オブジェクトマッピングインフォメーションOBMAPI内においてはプライマリービデオセットPRMVS内のサブビデオSUBVDとサブオーディオSUBADのタイトルタイムラインTMLE上での有効期間と前記セカンダリーオーディオビデオクリップエレメントSCAVCPに記載された有効期間とは互いにタイトルタイムラインTMLE上で重ならないように配置されなければならない。このようにオブジェクトマッピングインフォメーションOBMAPI上で制約をつけることにより、アドバンストコンテンツ再生部ADVPL内での再生表示処理の衝突を防止し、ユーザに対して安定に表示させる事が出来るという効果がある。前記セカンダリーオーディオビデオクリップエレメントSCAVCP内には、サブビデオエレメントSUBVDとサブオーディオエレメントSUBADが含まれる。また、前記セカンダリーオーディオビデオクリップエレメントSCAVCP内のサブビデオエレメントSUBVDとサブオーディオエレメントSUBADが、セカンダリービデオセットエンハンストビデオオブジェクトデータS-EVOB内における各エレメンタリーストリームに対するトラックナンバーアサイメントインフォメーションを表している。図10に示すようにセカンダリーオーディオビデオSECDAV内には、サブビデオSUBVDとサブオーディオSUBADを含むことができる。それに対応し、本実施形態においてはセカンダリーオーディオビデオクリップエレメントSCAVCP内では少なくともサブビデオエレメントSUBVDの1個またはサブオーディオエレメントSUBADの1個のみを記述する事が出来る。また本実施形態においては、サブビデオトラック番号とサブオーディオトラック番号は共に“1”を設定しなくてはならない。前記セカンダリーオーディオビデオクリップエレメントSCAVCP内にサブビデオエレメントSUBVDが記述されている場合には、セカンダリーエンハンストビデオオブジェクトデータS-EVOB内のVS_PCK(セカンダリービデオパック)内にサブビデオストリームが存在している事を意味し、前記サブビデオストリームはセカンダリービデオレコーダ(図37参照)によりレコード処理されなければならない。また同様に、前記セカンダリーオーディオビデオクリップエレメントSCAVCP内にサブオーディオエレメントSUBADが記述されている場合には、セカンダリーエンハンストビデオオブジェクトデータS-EVOBのAS_PCK(セカンダリーオーディオパック)内にサブオーディオストリームが含まれている事を意味し、そのサブオーディオストリームはセカンダリービデオプレーヤSCDVPに対応したデコーダー(図37参照)によりレコード処理されなければならない。再生表示オブジェクトが記録されているデータソースDTSORCを示すデータソース属性情報の内容がネットワークサーバNTSRVを意味し、“dataSource=Network”と記述された場合には、前記セカンダリーオーディオビデオクリップエレメントSCAVCP内にネットワークソースエレメントNTSELEを記述しなければならない。また、その時に参照すべき表示再生オブジェクトのインデックスインフォメーションファイル保存場所SRCTMPを記述するsrc属性情報の値としては“http”または“https”から始まるアドレス情報の値が記述されなければならない。前記ネットワークソースエレメントNTSELE内にはネットワークのスループット(データ転送レート)に応じて選択すべきストリーミングソースの内容が記述されている。それにより、ユーザのネットワーク環境(ネットワーク転送速度)に応じて最適な映像情報をユーザに提供する事が出来るという効果が存在する。再生表示オブジェクトが記録されているデータソースDTSORCの内容が記述されるデータソース属性情報の中には“dataSource=”の後ろに“Disc”、“P-Storage”、“Network”または“FileCache”のいずれかの情報が入る。もし、この値として“Disc”を記述された場合にはセカンダリーエンハンストビデオオブジェクトデータS-EVOBは、情報記憶媒体DISC内に記録されてなければならない。もし、この値が“P-Storage”と記述された場合には、セカンダリーエンハンストビデオオブジェクトデータS-EVOBはパーシステントストレージPRSTR内に記録されている事を示している。もし、前記データソース属性情報の値が“Network”と記述された場合には、セカンダリーエンハンストビデオオブジェクトデータS-EVOBはネットワークサーバNTSRVから供給されたストリーミングを意味している。また、前記データソース属性情報の値が“FileCache”と記述されている場合には、セカンダリーエンハンストビデオオブジェクトデータS-EVOBの情報はファイルキャッシュFLCCH内に保存されている事を意味している。本実施形態において前記src(ソース)属性情報の記述を省く事が出来るが、その場合にはデフォルト値である“P-Storage”の値が自動設定される(再生表示オブジェクトが記録されているデータソースDTSORCはパーシステントストレージPRSTR内に保存されている事を意味している)。
<Secondary Audio Video Clip Element>
The data structure in the secondary audio video clip element SCAVCP tag shown in FIG. 54 (d) will be described below. As shown in FIG. 18, the secondary audio video clip element SCAVCP represents a reproduction display clip element for the secondary audio video SCDAV. The secondary audio video SCDAV exists in the secondary enhanced video object data S-EVOB of the secondary video set SCDVS, and includes a sub video stream SUBVD and a sub audio stream SUBAD. The secondary audio video clip element SCAVCP indicates object mapping information OBMAPI of the secondary audio video SCDAV in the title. At the same time, the secondary audio video clip element SCAVCP represents information of track number assignment information of each elementary stream in the secondary enhanced video object data S-EVOB of the secondary audio video SCDAV. As shown in FIG. 18, the secondary audio video SCDAV can be recorded in the information storage medium DISK, persistent storage PRSTR, network server NTSRV, and file cache FLCCH. Therefore, the secondary audio video SCDAV is not only recorded in the information storage medium DISC and the network server NTSRV, but may be downloaded in advance into the persistent storage PRSTR and the file cache FLCCH. The SRC attribute information (source attribute information) shown in FIG. 54 (d) represents the storage location SRCTMP of the index information file related to the secondary enhanced video object data S-EVOB of the secondary audio video SCDAV that is the reproduction display object. As shown in FIG. 18, a file (index information file) referred to as an index when the secondary audio video SCDAV is played back / used means a time map file STMAP of the secondary video set. In addition, the information of the start time TTSTTM (titleTimeBegin) on the title timeline and the end time TTEDTM (titleTimeEnd) on the title timeline represent the start and end times in the valid period of the secondary enhanced video object data S-EVOB, respectively. . As shown in FIG. 53, the start position VBSTTM (clipTimeBegin) on the enhanced video object data represents the start position of the secondary enhanced video object data S-EVOB by time information. Also in the secondary audio video clip element SCAVCP, the three types of time information are represented by “hour: minute: second: field (number of frames)” of “HH: MM: SS: FF”. For the sub video SUBVD and sub audio SUBAD in the primary audio video set PRMVS, the sub video SUBVD and sub audio SUBAD in the secondary audio video SCDAV are used in an alternative state and cannot be played back simultaneously. Only one of them is reproducible. Therefore, in the object mapping information OBMAPI, the effective period on the title timeline TMLE of the sub video SUBVD and sub audio SUBAD in the primary video set PRMVS and the effective period described in the secondary audio video clip element SCAVCP are mutually titles. It must be arranged so that it does not overlap on the timeline TMLE. In this way, by constraining the object mapping information OBMAPI, there is an effect that it is possible to prevent a collision of reproduction display processing in the advanced content reproduction unit ADVPL and to stably display it to the user. The secondary audio video clip element SCAVCP includes a sub video element SUBVD and a sub audio element SUBAD. Also, the sub video element SUBVD and the sub audio element SUBAD in the secondary audio video clip element SCAVCP represent track number assignment information for each elementary stream in the secondary video set enhanced video object data S-EVOB. As shown in FIG. 10, the secondary audio video SECDAV can include a sub video SUBVD and a sub audio SUBAD. Correspondingly, in the present embodiment, at least one sub video element SUBVD or only one sub audio element SUBAD can be described in the secondary audio video clip element SCAVCP. In the present embodiment, both the sub video track number and the sub audio track number must be set to “1”. When the sub video element SUBVD is described in the secondary audio video clip element SCAVCP, it is confirmed that the sub video stream exists in VS_PCK (secondary video pack) in the secondary enhanced video object data S-EVOB. This means that the sub video stream must be record processed by a secondary video recorder (see FIG. 37). Similarly, when the sub audio element SUBAD is described in the secondary audio video clip element SCAVCP, the sub audio stream is included in the AS_PCK (secondary audio pack) of the secondary enhanced video object data S-EVOB. The sub audio stream must be record processed by a decoder (see FIG. 37) corresponding to the secondary video player SCDVP. When the content of the data source attribute information indicating the data source DTSORC in which the playback display object is recorded means the network server NTSRV and “dataSource = Network” is described, the network is included in the secondary audio video clip element SCAVCP. The source element NTSELE must be described. In addition, as the value of the src attribute information describing the index information file storage location SRCTMP of the display reproduction object to be referred to at that time, the value of address information starting from “http” or “https” must be described. The network source element NTSELE describes the contents of the streaming source to be selected according to the network throughput (data transfer rate). As a result, there is an effect that the optimum video information can be provided to the user according to the user's network environment (network transfer speed). In the data source attribute information that describes the contents of the data source DTSORC in which the playback display object is recorded, “Disc”, “P-Storage”, “Network” or “FileCache” is added after “dataSource =”. Contains any information. If “Disc” is described as this value, the secondary enhanced video object data S-EVOB must be recorded in the information storage medium DISC. If this value is described as “P-Storage”, it indicates that the secondary enhanced video object data S-EVOB is recorded in the persistent storage PRSTR. If the value of the data source attribute information is described as “Network”, the secondary enhanced video object data S-EVOB means streaming supplied from the network server NTSRV. Further, when the value of the data source attribute information is described as “FileCache”, it means that the information of the secondary enhanced video object data S-EVOB is stored in the file cache FLCCH. In this embodiment, the description of the src (source) attribute information can be omitted. In this case, the default value “P-Storage” is automatically set (data in which the playback display object is recorded). Source DTSORC is stored in persistent storage PRSTR).
本実施形態において、エンハンストビデオオブジェクトデータ上の開始位置VBSTTM(clipTimeBegin)の情報の記載を省く事が出来る。もし、前記エンハンストビデオオブジェクトデータ上の開始位置VBSTTM(clipTimeBegin)の情報記載が省かれた場合には、セカンダリーエンハンストビデオオブジェクトデータS-EVOBの先頭位置から再生を開始することを意味する。参照すべき再生表示オブジェクトのインデックスインフォメーションファイル保存場所SRCTMPが記録されるsrc属性情報にはURI(ユニフォーム・リソース・アイデンティファイヤー)の形で情報が記述される。図12又は図18に示すようにセカンダリーエンハンストビデオオブジェクトデータS-EVOBに対しては、プレイリストファイルPLLSTからはセカンダリービデオセットのタイムマップファイルSTMAPを参照する事になっている。従って、本実施形態において前記参照すべき再生表示オブジェクトのインデックスインフォメーションファイルの保存場所SRCTMPは、前記セカンダリービデオセットのタイムマップファイルSTMAPの保存場所を意味している。次に再生表示オブジェクトの取り込みを開始するタイトルタイムライン上の時間PRLOADの情報(preload属性情報)は、前記再生表示オブジェクトの取り込みをアドバンストコンテンツ再生部ADVPLが開始する時のタイトルタイムラインTMLE上の時間を表している。(図65(a)参照。)また、本実施形態において前記情報の記述を省く事が出来る。更に再生表示オブジェクトの同期属性情報SYNCATを表すsync(シンク)属性情報の値として、セカンダリーオーディオビデオクリップエレメントタグSCAVCP内では“hard”“soft”“none”の3種類を選ぶことが出来る。もし、この値として“hard”を選択した場合には、前記セカンダリーオーディオビデオSCDAVはハード同期オブジェクトを意味する。この値が設定されると、対応するセカンダリーオーディオビデオSCDAVのタイトルタイムライン上の開始時間TTSTTM(titleTimeBegin)になってもデータキャッシュDTCCH内に前記セカンダリーオーディオビデオSCDAVのローディングが完了しない場合には、一時的にタイトルタイムラインTMLE上での時間進行を止め(ユーザに対して画面の静止状態を表示する期間となり)、ローディング終了後にタイトルタイムラインTMLE上での時間進行を再開する形となる。また前記同期属性情報(src属性情報)の値が“soft”の場合には、ソフト同期オブジェクトを意味する。この値が設定されると、対応するセカンダリーオーディオビデオSCDAVのタイトルタイムライン上の開始時間TTSTTM(titleTimeBegin)になってもデータキャッシュDTCCH内に前記セカンダリーオーディオビデオSCDAVのローディングが完了しない場合には、前記セカンダリーオーディオビデオSCDAVを表示させる事なくタイトルタイムラインTMLE上の時間進行を進め、前記ローディングが完了した時点で始めて(タイトルタイムライン上の開始時間TTSTTMより遅れた時間で)前記サカンダリーオーディオビデオSCDAVの再生を開始する。もし、前記シンク属性情報が“none”の場合には、セカンダリーエンハンストビデオオブジェクトデータS-EVOBがタイトルタイムラインTMLEと同期せず、非同期の状態で再生する事を意味している。セカンダリーオーディオビデオクリップエレメントSCAVCPタグ内では前記シンク属性情報SYNCATの記述を省く事が出来、もし記述が省かれた場合にはシンク属性情報値はデフォルト値である“soft”と設定される。ノーキャッシュ属性情報NOCACHを表すノーキャッシュ属性情報は、“true”または “false”のどちらかの値が記述される。前記ノーキャッシュ属性情報NOCACHはHTTPの通信プロトコルに関係した情報であり、もしこの値が“true”の場合にはHTTPのGETリクエストメッセージ内にCash-ControlヘッダーとPragmaヘッダーが含まれる必要がある事を意味している。セカンダリーオーディオビデオクリップエレメントSCAVCPに関する付加情報を表すディスクリプション属性情報内にはユーザが良く使うテキストフォーマットで記述される。前記付加情報はセカンダリーオーディオビデオクリップエレメントSCAVCPタグ内で記述を省く事が出来る。 In the present embodiment, it is possible to omit the description of the information of the start position VBSTTM (clipTimeBegin) on the enhanced video object data. If the description of the start position VBSTTM (clipTimeBegin) on the enhanced video object data is omitted, it means that the reproduction is started from the head position of the secondary enhanced video object data S-EVOB. Information in the form of URI (Uniform Resource Identifier) is described in the src attribute information where the index information file storage location SRCTMP of the playback display object to be referred to is recorded. As shown in FIG. 12 or 18, for the secondary enhanced video object data S-EVOB, the time map file STMAP of the secondary video set is referred to from the playlist file PLLST. Therefore, in the present embodiment, the storage location SRCTMP of the index information file of the playback display object to be referred to means the storage location of the time map file STMAP of the secondary video set. Next, the time PRLOAD information (preload attribute information) on the title timeline at which the playback display object starts to be fetched is the time on the title timeline TMLE when the advanced content playback unit ADVPL starts fetching the playback display object. Represents. (Refer to FIG. 65 (a).) Further, the description of the information can be omitted in the present embodiment. Furthermore, three types of “hard”, “soft”, and “none” can be selected in the secondary audio video clip element tag SCAVCP as the value of the sync attribute information indicating the synchronization attribute information SYNCAT of the playback display object. If “hard” is selected as this value, the secondary audio video SCDAV means a hard synchronization object. When this value is set, if loading of the secondary audio video SCDAV in the data cache DTCCH is not completed even when the start time TTSTTM (titleTimeBegin) on the title timeline of the corresponding secondary audio video SCDAV is reached, For example, the time progress on the title timeline TMLE is stopped (the period during which the screen is still displayed for the user), and the time progress on the title timeline TMLE is resumed after loading. When the value of the synchronization attribute information (src attribute information) is “soft”, it means a soft synchronization object. If this value is set, the loading of the secondary audio video SCDAV in the data cache DTCCH is not completed even when the start time TTSTTM (titleTimeBegin) on the title timeline of the corresponding secondary audio video SCDAV is reached, Advance the time progress on the title timeline TMLE without displaying the secondary audio video SCDAV, and start at the time when the loading is completed (after the start time TTSTTM on the title timeline) of the secondary audio video SCDAV Start playback. If the sync attribute information is “none”, it means that the secondary enhanced video object data S-EVOB is reproduced in an asynchronous state without being synchronized with the title timeline TMLE. The description of the sync attribute information SYNCAT can be omitted in the secondary audio video clip element SCAVCP tag. If the description is omitted, the sync attribute information value is set to “soft” which is a default value. In the no-cache attribute information indicating the no-cache attribute information NOCACH, either “true” or “false” is described. The no-cache attribute information NOCACH is information related to the HTTP communication protocol. If this value is “true”, the Cash-Control header and the Pragma header must be included in the HTTP GET request message. Means. The description attribute information representing additional information related to the secondary audio video clip element SCAVCP is described in a text format often used by the user. The additional information can be omitted from the secondary audio video clip element SCAVCP tag.
図23(a)に示すように、プレイリストファイルPLLST内には構造情報CONFGI、メディア属性情報MDATRI、タイトル情報TTINFOが存在する。図23(b)に示すように、前記タイトル情報TTINFO内には1以上のタイトルそれぞれにタイトルエレメント情報TTELEMが存在し、図23(c)に示すように前記1個に対するタイトルエレメント情報TTELEM内はオブジェクトマッピングインフォメーションOBMAPI、リソースインフォメーションRESRCI、プレイバックシーケンスインフォメーションPLSQI、トラックナビゲーションインフォメーションTRNAVI、スケジュールドコントロールインフォメーションSCHECIが存在する。図55に示すように、前記オブジェクトマッピングインフォメーションOBMAPI内にサブスティテュートオーディオビデオクリップエレメントSBAVCPとサブスティテュートオーディオクリップエレメントSBADCPが存在する。以下に図55(c)に示すサブスティテュートオーディオビデオクリップエレメントSBAVCP内のデータ構造について説明を行う。 As shown in FIG. 23A, structure information CONFGI, media attribute information MDATRI, and title information TTINFO exist in the playlist file PLLST. As shown in FIG. 23 (b), there is title element information TTELEM for each of one or more titles in the title information TTINFO, and in the title element information TTELEM for the one as shown in FIG. 23 (c). Object mapping information OBMAPI, resource information RESRCI, playback sequence information PLSQI, track navigation information TRNAVI, and scheduled control information SCHECI exist. As shown in FIG. 55, a substitute audio video clip element SBAVCP and a substitute audio clip element SBADCP exist in the object mapping information OBMAPI. The data structure in the substitute audio video clip element SBAVCP shown in FIG. 55 (c) will be described below.
<サブスティテュートオーディオビデオクリップエレメント(SubstituteAudioVideoClip element)>
図18に示すようにサブスティテュートオーディオビデオSBTAVに関する再生表示クリップエレメントをサブスティテュートオーディオビデオクリップSBAVCPと呼ぶ。図10に示すように、前記サブスティテュートオーディオビデオSBTAVはセカンダリービデオセットSCDVS内に含まれ、前記サブスティテュートオーディオビデオSBTAV内にメインビデオMANVDとメインオーディオMANADの情報が含まれる。前記サブスティテュートオーディオビデオクリップエレメントSBAVCPはタイトル内のサブスティテュートオーディオビデオSBTAVに関するオブジェクトマッピングインフォメーションOBMAPIの情報を説明している。また、前記サブスティテュートオーディオビデオクリップエレメントSBAVCPは前記サブスティテュートオーディオビデオSBTAVのセカンダリーエンハンストビデオオブジェクトデータS-EVOB内に含まれる各エレメンタリーストリームに関するトラックナンバーアサイメント情報をも示している。図18に示すように、前記サブスティテュートオーディオビデオSBTAVは、元々記録されている場所として情報記憶媒体DISC、パーシステントストレージPRSTR、ネットワークサーバNTSRV、およびファイルキャッシュFLCCH内に記録する事が出来る。図18に示すようにサブスティテュートオーディオビデオSBTAVに関する再生オブジェクトであるセカンダリーエンハンストビデオオブジェクトデータS-EVOBの再生使用時にインデックスとして参照されるファイル名はセカンダリービデオセットのタイムマップファイルSTMAPとなっている。従って、前記サブスティテュートオーディオビデオクリップSBAVCPタグ内で記述されるsrc属性情報(ソース属性情報)としては前記セカンダリービデオセットのタイムマップファイルSTMAPが記録されている保存場所SRCTMPの情報がURI(ユニフォーム・リソース・アイデンティファイヤー)の形式で記述される。図55(b)に示すように前記サブスティテュートオーディオビデオクリップエレメントSBAVCP内にはメインビデオエレメントMANVDとメインオーディオエレメントMANADが含まれる。前記サブスティテュートオーディオビデオクリップエレメントSBAVCP内のメインビデオエレメントMANVDとメインオーディオエレメントMANADは対応するセカンダリーエンハンストビデオオブジェクトデータS-EVOB内における各エレメンタリーストリームのトラックナンバーアサイメント情報(トラック番号設定情報)に関する説明記述がなされている。もし、前記サブスティテュートオーディオビデオクリップエレメントSBAVCP内において前記メインビデオエレメントMANVDに関する記述が存在する場合には、セカンダリーエンハンストビデオオブジェクトデータS-EVOB内のメインビデオパックVM_PCK内におけるビデオストリームが存在し、かつ前記ビデオエレメントストリームが再生可能である事を示している。また同時に前記セカンダリーエンハンストビデオオブジェクトデータS-EVOBのメインビデオパックVM_PCK内のビデオストリーム毎には、指定されたビデオトラック番号が設定されている。また、もし前記サブスティテュートオーディオビデオクリップエレメントSBAVCP内に前記メインオーディオエレメントMANADに関する記述がなされている場合には前記セカンダリーエンハンストビデオオブジェクトデータS-EVOBのメインオーディオパックVM_PCK内におけるオーディオストリームが存在し、かつ前記オーディオストリームが再生可能であることを示している。また前記セカンダリーエンハンストビデオオブジェクトデータS-EVOBのメインオーディオパックAM_PCK内におけるオーディオストリームは、それぞれ指定されたオーディオトラック番号が設定されている。また図55(c)に示すサブスティテュートオーディオビデオクリップエレメントSBAVCP内の再生表示オブジェクトが記録されているデータソースDTSORC(dataSource属性情報)の値として“Network”が指定されている場合には、図55(b)に示すようにサブスティテュートオーディオビデオクリップエレメントSBAVCP内にネットワークソースエレメントNTSELEの記述が存在する。また、このように再生表示オブジェクトが記録されているデータソースDTSORCの値が“Network”の場合には、参照すべき再生表示オブジェクトのインデックスインフォメーションファイル保存場所SRCTMP(SRC属性情報)の値が“http”または“https”から始まるアドレス情報(パス)とファイル名が記述される。また、図63(c)に示すようにネットワークソースエレメントNTSELEは、指定されたネットワークのスループット(ネットワーク経路におけるデータ転送レートの許容最小値)に基づいて選択されるストリーミングソース(サブスティテュートオーディオビデオSBTAV内のメインビデオMANVDまたはメインオーディオMANADのコンテンツ内容)が記述されている。それによりユーザのネットワーク経路(例えば光ケーブル・ADSLまたはモデムなどによるネットワーク経路によるデータ転送レートが異なる)に基づく最適なデータソース(前記メインビデオMANVDまたはメインオーディオMANAD)をローディングする事が可能となる。例えば光ケーブルを用いた高速のデータ通信が可能なネットワーク環境においては、メインビデオMANVDとして高解像度の映像を転送する事が可能となる。また、それとは逆にモデム(電話回線)などによるデータ転送レートが低いネットワーク環境の場合には、高解像度のメインビデオMANVDの映像をダウンロードした場合には膨大なダウンロード時間が必要となる。その為、前記モデムなどのデータ転送レートが低いネットワーク環境の場合には解像度を大幅に落としたメインビデオMANVDのダウンロードをする事が出来る。このように複数のネットワークソースエレメントNTSELEに対応したダウンロード対象のデータまたはファイルを選別する事により、ユーザのネットワーク環境に最適なネットワークソースをダウンロードする事が可能となる。再生表示オブジェクトが記録されているデータソースDTSORC(dataSource属性情報)は、再生表示オブジェクトであるサブスティテュートオーディオビデオSBTAVのデータソースの記録されている場所のテリトリーを表している。図18に示すようにサブスティテュートオーディオSBTAVが元々記録されている場所としては情報記憶媒体DISC、パーシステントストレージPRSTR、ネットワークサーバNTSRV又はファイルキャッシュFLCCHが存在する。それに応じて前記再生表示オブジェクトが記録されているデータソースDTSORCの値として“Disc”、“P-Storage”、“Network”および“FileCache”のいずれかの値が入る。前記再生表示オブジェクトが記録されているデータソースDTSORCの値として“Disc”と設定された場合には、セカンダリーエンハンストビデオオブジェクトデータS-EVOBは情報記憶媒体DISC内に記録されている事を意味している。また再生表示オブジェクトが記録されているデータソースDTSORCの値が“P-Storage”の場合には、あらかじめダウンロードされたコンテンツとしてセカンダリーエンハンストビデオオブジェクトデータS-EVOBはパーシステントストレージPRSTR内に記録されなければならない。前記再生表示オブジェクトが記録されているデータソースDTSORCの値が“Network”の場合には、セカンダリーエンハンストビデオオブジェクトデータS-EVOBがネットワークサーバNTSRVからストリーミングとして供給されていなければならない。更に前記再生表示オブジェクトが記録されているデータソースDTSORCの値が“FileCache”の場合には、対応するセカンダリーエンハンストビデオオブジェクトデータS-EVOBはファイルキャッシュFLCCH内に供給されなければならない。もし前記サブスティテュートオーディオビデオクリップエレメントの属性情報SVATRI内に前記再生表示オブジェクトが記録されているデータソースDTSORCの値が記述されていない場合には、前記再生表示オブジェクトが記録されているデータソースDTSORCの値としてデフォルト値である“P-Storage”の値が自動的に設定される。タイトルタイムライン上の開始時間TTSTTM(titleTimeBegin属性情報)及び、タイトルタイムライン上の終了時間TTEDTM(titleTimeEnd属性情報)はタイトルタイムラインTMLE上での再生表示オブジェクトであるサブスティテュートオーディオビデオSBTAV(セカンダリーエンハンストビデオオブジェクトデータS-EVOB)の開始時間TTSTTMおよび終了時間TTEDTMを表している。またそれらの時間は“HH:MM:SS:FF”の時間情報として表示される。前記エンハンストビデオオブジェクトデータ上の開始位置VBSTTMは図53で示すようにタイトルタイムライン上の開始時間TTSTTM(titleTimeBegin)に対応して表示を開始するセカンダリーエンハンストビデオオブジェクトデータS-EVOB(サブスティテュートオーディオビデオSBTAV)上の位置を表し前記セカンダリーエンハンストビデオオブジェクトS-EVOB内のビデオストリームのプレゼンテーションスタートタイム(プレゼンテーションタイムスタンプ値)PTSにより値が指定される。前記のタイトルタイムライン上の開始位置TTSTTMの値とエンハンストビデオオブジェクトデータEVOB上の開始位置VBSTTMとの対応関係を利用し、有効期間内における任意位置でのタイトルタイムラインTMLE上での値からビデオストリーム内のプレゼンテーションスタートタイム(プレゼンテーションタイムスタンプ値)PTSを算出することが可能となっている。前記サブスティテュートオーディオビデオクリップエレメントSBAVCP内で前記エンハンストビデオオブジェクトデータEVOB上の開始位置VBSTTMの情報の記述を省くことができる。このようにサブスティテュートオーディオビデオクリップエレメントの属性情報SVATRI内に前記エンハンストビデオオブジェクトデータ上の開始位置VBSTTMの記載が省かれている場合には、対応するセカンダリーエンハンストビデオオブジェクトデータS-EVOBの先頭位置から再生が開始される。再生表示オブジェクトであるサブスティテュートオーディオビデオSBTAV(セカンダリーエンハンストビデオオブジェクトS_EVOB)が参照されるべきインデックスインフォメーションファイルの保存場所SRCTMP(SRC属性情報)は、URI(ユニフォーム・リソース・アイデンティファイヤー)の形式で記述される。図18に示すように前記のインデックスとして参照されるファイルは、セカンダリービデオセットのタイムマップファイルSTMAPが記録されている場所を表している。また再生表示オブジェクトの取り込みを開始するタイトルタイムライン上の時間PRLOAD(preload属性情報)は、前記タイトルタイムライン上の開始時間TTSTTMと同じ時刻もしくはそれよりも先行する時刻に設定され、前記サブスティテュートオーディオSBTADをユーザに表示する前に事前にデータキャッシュDTCCH内にローディングをする時のローディング開始時間を表している。前記サブスティテュートオーディオビデオクリップエレメントの属性情報SVATRIから前記再生表示オブジェクトの取り込みを開始するタイトルタイムライン上の時間PRLOADの記述を省く事が出来る。更に再生表示オブジェクトの同期属性情報SYNCAT(sync属性情報)の値としては“hard”または“none”のいずれかの値が設定される。もし前記の値が“hard”の場合には、対応するサブスティテュートオーディオビデオSBTAVはハードシンクロナイズド(ハード同期)オブジェクトを表している。ユーザへ動画表示時に新たなサブスティテュートオーディオビデオSBTAVをデータキャッシュDTCCH内にローディングする必要が生じた場合について説明する。この場合には再生表示オブジェクトの取込みを開始するタイトルタイムライン上の時間PRLOADから前記サブスティテュートオーディオビデオSBTAVをデータキャッシュDTCCH内にローディング処理する。タイトルタイムライン上の開始時間TTSTTMまでにローディングが完了するか或はローディング途中であってもタイトルタイムライン上の終了時間TTEDTMまで前記サブスティテュートオーディオビデオSBTAVを間断なく再生・表示できる場合には、タイトルタイムライン上の開始時間TTSTTMから前記サブスティテュートオーディオビデオSBTAVの再生・表示を開始する。それに対し、前記ローディング処理が間に合わない場合、再生表示オブジェクトの同期属性情報SYNCATの値が“hard”と設定されている時にはタイ
トルタイムラインTMLE上の時間進行(カウントアップ)を一時的に停止し、ユーザに対して動画を静止した状態に保持する。その間に前記サブスティテュートオーディオビデオSBTAVを前記データキャッシュDTCCH内にローディング継続する。前記データキャッシュDTCCHへのローディング処理が終了した段階か又はローディング途中であってもタイトルタイムライン上の終了時間TTEDTMまで前記サブスティテュートオーディオビデオSBTAVを間断なく再生・表示できる段階に達した時に始めて前記タイトルタイムラインTMLEの時間進行(カウントアップ)が再開されると共にユーザに表示している動画像が動き出し、そしてサブスティテュートオーディオビデオSBTAVをユーザに表示する同期処理を開始する。また前記再生表示オブジェクトの同期属性情報SYNCATが“none”の場合には、非同期オブジェクトを表し、前記サブスティテュートオーディオSBTADはタイトルタイムラインTMLEの進行とは独自に(非同期状態)でユーザへの表示がなされる。前記サブスティテュートオーディオビデオクリップエレメントの属性情報SVATRI内から前記再生表示オブジェクトの同期属性情報SYNCATの記載を省く事が出来る。その場合には、デフォルト値である“hard”が自動設定される。更にノーキャッシュ属性情報NOCACHはHTTPTの通信プロトコルに関係した情報であり、“true”または“false”のいずれかの値が設定される。もし“true”の場合には、HTTPのGETリクエストメッセージ内にCach-ControlヘッダーとPragmaヘッダーが含まれる必要がある。また前記再生表示オブジェクトが記録されているデータソースDTSORCの値が“Network”と記載され、更に前記ノーキャッシュ属性情報NOCACHが“false”と指定された場合にはHTTPのGETリクエストメッセージ内にCach-ControlヘッダーとPragmaヘッダーが含まれない事を意味している。また前記ノーキャッシュ属性情報NOCACHの記述を省く事が出来るが、その場合はデフォルト値である“false”の値に自動的に設定される。サブスティテュートオーディオビデオクリップに関する付加情報としては、人に馴染みのあるテキストフォーマットで記述される。また、前記サブスティテュートオーディオビデオクリップSBAVCPに関する付加情報の記載を省く事が出来る。
<SubstituteAudioVideoClip element>
As shown in FIG. 18, the playback / display clip element relating to the substitute audio video SBTAV is called a substitute audio video clip SBAVCP. As shown in FIG. 10, the substitute audio video SBTAV is included in a secondary video set SCDVS, and information on main video MANVD and main audio MANAD is included in the substitute audio video SBTAV. The substitute audio video clip element SBAVCP describes object mapping information OBMAPI information regarding the substitute audio video SBTAV in the title. The substitute audio video clip element SBAVCP also indicates track number assignment information regarding each elementary stream included in the secondary enhanced video object data S-EVOB of the substitute audio video SBTAV. As shown in FIG. 18, the substitute audio video SBTAV can be recorded in the information storage medium DISC, persistent storage PRSTR, network server NTSRV, and file cache FLCCH as originally recorded locations. As shown in FIG. 18, the file name referred as an index when the secondary enhanced video object data S-EVOB, which is a playback object related to the substitute audio video SBTAV, is used for playback is the time map file STMAP of the secondary video set. Accordingly, as the src attribute information (source attribute information) described in the substitute audio video clip SBAVCP tag, the information on the storage location SRCTMP in which the time map file STMAP of the secondary video set is recorded is a URI (uniform resource). (Identifier) As shown in FIG. 55 (b), the substitute audio video clip element SBAVCP includes a main video element MANVD and a main audio element MANAD. The main video element MANVD and main audio element MANAD in the substitute audio video clip element SBAVCP are related to the track number assignment information (track number setting information) of each elementary stream in the corresponding secondary enhanced video object data S-EVOB. A description is made. If there is a description about the main video element MANVD in the substitute audio video clip element SBAVCP, a video stream in the main video pack VM_PCK in secondary enhanced video object data S-EVOB exists, and It shows that the video element stream can be played back. At the same time, a designated video track number is set for each video stream in the main video pack VM_PCK of the secondary enhanced video object data S-EVOB. In addition, if the main audio element MANAD is described in the substitute audio video clip element SBAVCP, an audio stream exists in the main audio pack VM_PCK of the secondary enhanced video object data S-EVOB, and It shows that the audio stream can be reproduced. Each audio stream in the main audio pack AM_PCK of the secondary enhanced video object data S-EVOB is set with a designated audio track number. If “Network” is designated as the value of the data source DTSORC (dataSource attribute information) in which the playback display object in the substitute audio video clip element SBAVCP shown in FIG. 55 (c) is recorded, FIG. As shown in (b), the description of the network source element NTSELE exists in the substitute audio video clip element SBAVCP. In addition, when the value of the data source DTSORC in which the playback display object is recorded in this way is “Network”, the value of the index information file storage location SRCTMP (SRC attribute information) of the playback display object to be referred to is “http” Address information (path) starting from "https" and file name are described. As shown in FIG. 63 (c), the network source element NTSELE is a streaming source (in the substitute audio video SBTAV) selected based on the designated network throughput (the minimum allowable data transfer rate in the network path). Contents of main video MANVD or main audio MANAD). As a result, it is possible to load an optimal data source (the main video MANVD or the main audio MANAD) based on the user's network path (for example, the data transfer rate differs depending on the network path by optical cable / ADSL or modem). For example, in a network environment in which high-speed data communication using an optical cable is possible, it is possible to transfer a high-resolution video as the main video MANVD. On the other hand, in a network environment where the data transfer rate by a modem (telephone line) or the like is low, downloading a high-resolution main video MANVD requires an enormous download time. Therefore, in the case of a network environment where the data transfer rate is low such as the modem, it is possible to download the main video MANVD with a greatly reduced resolution. As described above, by selecting data or files to be downloaded corresponding to a plurality of network source elements NTSELE, it is possible to download a network source optimum for the user's network environment. A data source DTSORC (dataSource attribute information) in which a reproduction display object is recorded represents a territory of a place where a data source of a substitute audio video SBTAV that is a reproduction display object is recorded. As shown in FIG. 18, the information recording medium DISC, persistent storage PRSTR, network server NTSRV, or file cache FLCCH exists as a place where the substitute audio SBTAV is originally recorded. In response to this, one of the values “Disc”, “P-Storage”, “Network”, and “FileCache” is entered as the value of the data source DTSORC in which the playback display object is recorded. When “Disc” is set as the value of the data source DTSORC in which the playback display object is recorded, it means that the secondary enhanced video object data S-EVOB is recorded in the information storage medium DISC. Yes. In addition, when the value of the data source DTSORC in which the playback display object is recorded is “P-Storage”, the secondary enhanced video object data S-EVOB must be recorded in the persistent storage PRSTR as the previously downloaded content. Don't be. When the value of the data source DTSORC in which the playback display object is recorded is “Network”, the secondary enhanced video object data S-EVOB must be supplied as streaming from the network server NTSRV. Further, when the value of the data source DTSORC in which the reproduction display object is recorded is “FileCache”, the corresponding secondary enhanced video object data S-EVOB must be supplied in the file cache FLCCH. If the value of the data source DTSORC in which the playback display object is recorded is not described in the attribute information SVATRI of the substitute audio video clip element, the data source DTSORC in which the playback display object is recorded The default value “P-Storage” is automatically set. The start time TTSTTM (titleTimeBegin attribute information) on the title timeline and the end time TTEDTM (titleTimeEnd attribute information) on the title timeline are the substitute audio video SBTAV (secondary enhanced video) that is a playback display object on the title timeline TMLE. Represents the start time TTSTTM and end time TTEDTM of the object data S-EVOB). These times are displayed as time information of “HH: MM: SS: FF”. As shown in FIG. 53, the start position VBSTTM on the enhanced video object data is secondary enhanced video object data S-EVOB (substitute audio video SBTAV) which starts display corresponding to the start time TTSTTM (titleTimeBegin) on the title timeline. A value is designated by the presentation start time (presentation time stamp value) PTS of the video stream in the secondary enhanced video object S-EVOB. Using the correspondence between the value of the start position TTSTTM on the title timeline and the start position VBSTTM on the enhanced video object data EVOB, a video stream is obtained from the value on the title timeline TMLE at an arbitrary position within the valid period. The presentation start time (presentation timestamp value) PTS can be calculated. In the substitute audio video clip element SBAVCP, the description of the information of the start position VBSTTM on the enhanced video object data EVOB can be omitted. Thus, when the description of the start position VBSTTM on the enhanced video object data is omitted in the attribute information SVATRI of the substitute audio video clip element, from the start position of the corresponding secondary enhanced video object data S-EVOB Playback starts. SRCTMP (SRC attribute information) where the index information file should be referenced where the playback audio object Substitute Audio Video SBTAV (Secondary Enhanced Video Object S_EVOB) should be referenced is described in URI (Uniform Resource Identifier) format Is done. As shown in FIG. 18, the file referred to as the index represents the location where the time map file STMAP of the secondary video set is recorded. Also, the time PRLOAD (preload attribute information) on the title timeline at which the reproduction display object starts to be captured is set to the same time as the start time TTSTTM on the title timeline or a time preceding it, and the substitute audio It represents the loading start time when loading into the data cache DTCCH in advance before displaying SBTAD to the user. It is possible to omit the description of the time PRLOAD on the title timeline for starting the capture of the reproduction display object from the attribute information SVATRI of the substitute audio video clip element. Furthermore, either “hard” or “none” is set as the value of the synchronization attribute information SYNCAT (sync attribute information) of the reproduction display object. If the value is “hard”, the corresponding substitute audio video SBTAV represents a hard synchronized object. A case where it is necessary to load a new substitute audio video SBTAV into the data cache DTCCH when displaying a moving image to the user will be described. In this case, the substitute audio video SBTAV is loaded into the data cache DTCCH from the time PRLOAD on the title timeline at which the reproduction display object is taken in. If the loading is completed by the start time TTSTTM on the title timeline, or if the substitute audio video SBTAV can be played and displayed without interruption until the end time TTEDTM on the title timeline, the title Playback and display of the substitute audio video SBTAV is started from the start time TTSTTM on the timeline. On the other hand, if the loading process is not in time, the time progress (count up) on the title timeline TMLE is temporarily stopped when the value of the synchronization attribute information SYNCAT of the playback display object is set to “hard”, Keep the moving image stationary for the user. Meanwhile, the substitute audio video SBTAV continues to be loaded into the data cache DTCCH. Only when the loading process to the data cache DTCCH is completed or when the substitute audio video SBTAV can be played and displayed without interruption until the end time TTEDTM on the title timeline even during loading The time progress (counting up) of the timeline TMLE is resumed, the moving image displayed to the user starts to move, and a synchronization process for displaying the substitute audio video SBTAV to the user is started. Further, when the synchronous attribute information SYNCAT of the playback display object is “none”, it represents an asynchronous object, and the substitute audio SBTAD is displayed to the user independently of the progress of the title timeline TMLE (asynchronous state). Made. The description of the synchronization attribute information SYNCAT of the reproduction display object can be omitted from the attribute information SVATRI of the substitute audio video clip element. In that case, the default value “hard” is automatically set. Further, the no-cache attribute information NOCACH is information related to the HTTPT communication protocol, and a value of “true” or “false” is set. If it is “true”, it is necessary to include the Cach-Control header and the Pragma header in the HTTP GET request message. In addition, when the value of the data source DTSORC in which the playback display object is recorded is described as “Network” and the no-cache attribute information NOCACH is specified as “false”, the HTTP-GET request message includes a Caché- It means that Control header and Pragma header are not included. The description of the no-cache attribute information NOCACH can be omitted. In this case, the default value “false” is automatically set. The additional information related to the substitute audio video clip is described in a text format familiar to people. Further, it is possible to omit the description of the additional information regarding the substitute audio video clip SBAVCP.
<サブスティテュートオーディオクリップエレメント(SubstituteAudioClip element)>
図10に示すようにサブスティテュートオーディオSBTADはセカンダリービデオセットSCDVSのセカンダリーエンハンストビデオオブジェクトデータS-EVOB内に存在している。また前記サブスティテュートオーディオSBTADはメインオーディオMANADの情報を含み、プライマリービデオセットPRMVSのメインオーディオと選択的に(二者択一的に)表示再生される。すなわち本実施形態においてはプライマリービデオセットPRMVS内のメインオーディオMANADと前記サブスティテュートオーディオSBTADのメインオーディオMANADを同時にユーザに対して表示再生する事は出来ない。サブスティテュートオーディオクリップエレメントSBADCPは、タイトル内のサブスティテュートオーディオSBTADに関するオブジェクトマッピングインフォメーションOBMAPIの情報を示している。またそれと同時に前記サブスティテュートオーディオクリップエレメントSBADCPはサブスティテュートオーディオSBTADのセカンダリーエンハンストビデオオブジェクトデータS-EVOBにおける各エレメンタリーストリームのトラックナンバーアサイメント(トラック番号設定)の情報も示している。図18に示すようにサブスティテュートオーディオSBTADは、情報記憶媒体DISC、パーシステントストレージPRSTR、ネットワークサーバNTSRVまたはファイルキャッシュFLCCH内に記録する事が出来る。図55に示すように、サブスティテュートオーディオクリップエレメントSBADCP内には複数のメインオーディオエレメントMANADを含む事が出来る。また、その場合には前記サブスティテュートオーディオクリップエレメントSBADCP内のメインオーディオエレメントMANADはセカンダリーエンハンストビデオオブジェクトデータS-EVOBのメインオーディオパックAM_PCK内に含まれるメインオーディオストリームのオーディオトラック番号の設定情報が前記メインオーディオエレメントMANADの中に記述される。図55(d)に記述された再生表示オブジェクトが記録されているデータソースDTSORCの値として“Network”と記述されている場合には、対応したサブスティテュートオーディオクリップエレメントSBADCP内にネットワークソースエレメントNTSELEが記述される。また、その場合には図55(d)に示す参照すべき再生表示オブジェクトのインデックスインフォメーションファイル保存場所SRCTMPの値として“http”または“https”から始まるURI(ユニフォーム・リソース・アイデンティファイヤー)の情報が記述される。また情報記録再生装置1が接続されているネットワーク環境におけるネットワークスループット(データ転送レート)に基づき、最適に選択されるべきストリーミングソースのアクセス先情報が前記ネットワークソースエレメントNTSELEに記述されている。それにより上記サブスティテュートオーディオビデオクリップエレメントSBAVCPのところで説明したように情報記録再生装置1が自動的に最適に表示すべきサブスティテュートオーディオの情報を選択する事が出来る。図55(d)に示すようにサブスティテュートオーディオクリップエレメントSBADCPタグ内にID情報SCAVIDを記述する事で、同一のタイトル内のタイトルタイムラインTMLE上での異なる時刻に表示すべき複数のサブスティテュートオーディオSBTADを設定する事が出来る。また、図82に示すように前記サブスティテュートオーディオクリップエレメントSBADCP内にID情報SBADIDを持たす事により、APIコマンドによる前記サブスティテュートオーディオクリップエレメントSBADCPの参照が容易となり、APIコマンド処理の簡素化が図れる。またサブスティテュートオーディオクリップエレメントSBADCPタグ内での再生表示オブジェクトが記録されているデータソースdtsorcの値として“Disc”、“P-Storage”、“Network”および“FileCache”のいずれかの値を設定する事が出来る。もし、値として“Disc”が設定された場合には、セカンダリーエンハンストビデオオブジェクトデータS-EVOBは情報記憶媒体DISC内に保存されている事を意味している。また前記値は“P-Storage”の場合には、対応するセカンダリーエンハンストビデオオブジェクトデータは事前にダウンロードされたコンテンツとしてパーシステントストレージPRSTR内に記録されている。また再生表示オブジェクトが記録されているデータソースの値が“Network”の場合には、セカンダリーエンハンストビデオオブジェクトデータS-EVOBはネットワークサーバNTSRVから転送されたストリーミングとして供給される。更に前記の値が“FileCache”の場合には、対応するセカンダリーエンハンストビデオオブジェクトデータS-EVOBはファイルキャッシュFLCCHから供給される。前記サブスティテュートオーディオクリップエレメントの属性情報SAATRI内で前記再生表示オブジェクトが記録されているデータソースDTSORCの記述が無い場合には、前記再生表示オブジェクトが記録されているデータソースDTSORCの値としてデフォルト値である“P-Storage”の値が自動設定される。サブスティテュートオーディオクリップエレメントSBADCPタグ内で記述されるタイトルタイムライン上の開始時間TTSTTM(titleTimeBegin属性情報)とタイトルタイムライン上の終了時間TTEDTM(titleTimeEnd属性情報)はタイトルタイムライン上での再生表示オブジェクト(セカンダリーエンハンストビデオオブジェクトデータS-EVOB)の連続した塊の中での開始時間情報と終了時間情報をそれぞれ示している。またそれらの時間情報は“HH:MM:SS:FF”で記述される。またエンハンストビデオオブジェクトデータ上の開始位置VBSTTM(clipTimeBegin属性情報)は、図53に示すようにセカンダリービデオセットのエンハンストビデオオブジェクトデータS-EVOBの開始位置を表し、ビデオストリーム内のプレゼンテーションスタートタイム(プレゼンテーションタイムスタンプ値)PTSにより表示される。また前記サブスティテュートオーディオビデオクリップエレメントの属性情報SVATRI内において前記エンハンストビデオオブジェクトデータ上の開始位置VBSTTMの情報の記載を省く事が出来る。もし前記情報の記載が省かれていた場合には、セカンダリービデオセットのエンハンストビデオオブジェクトデータS-EVOBの先頭位置から再生・表示が開始される事を意味する。参照すべき再生表示オブジェクトのインデックスインフォメーションファイル保存場所SRCTMP(SRC属性情報)は、URI(ユニフォーム・リソース・アイデンティファイヤー)のフォーマットで記述される。図18に示すようにサブスティテュートオーディオクリップSBADCPにおけるオブジェクトの再生・使用時にインデックスとして参照されるファイルはセカンダリービデオセットのタイムマップファイルSTMAPを表している。従って、前記参照すべき再生表示オブジェクトのインデックスインフォメーションファイル保存場所SRCTMPは前記セカンダリービデオセットのタイムマップファイルSTMAPの保存場所が記述される。また再生表示オブジェクトの取り込みを開始するタイトルタイムライン上の時間PRLOAD(preload属性情報)は、タイトルタイムラインTMLE上で対応するサブスティテュートオーディオSBTADのユーザへの表示に先立ち、データキャッシュDTCCHにネットワークサーバNTSRVからローディングされる時のローディング開始時間を表している。また前記サブスティテュートオーディオSBTADが情報記憶媒体DISCまたはネットワークサーバNTSRVに保存されている場合には、図25に示すように前記サブスティテュートオーディオSBTADはデータキャッシュDTCCHにプリロードされるが、この時のデータキャッシュDTCCHにダウンロードを開始する開始時間も前記再生表示オブジェクトの取り込みを開始するタイトルタイムライン上の時間PRLOADで表示される。更に再生表示オブジェクトの同期属性情報SYNCAT(sync属性情報)としては、前記サブスティテュートオーディオクリップエレメントSBADCP内では“hard”または“soft”のいずれかの値を設定する事が出来る。もし再生表示オブジェクトの同期属性情報SYNCATが“hard”として設定された場合には、対応するサブスティテュートオーディオSBTADがハードシンクロナイズド(ハード同期)オブジェクトとしてみなされる。ユーザへ再生表示オブジェクトの表示時に新たなサブスティテュートオーディオSBTADをデータキャッシュDTCCH内にローディングする必要が生じた場合について説明する。この場合には再生表示オブジェクトの取込みを開始するタイトルタイムライン上の時間PRLOADから前記サブスティテュートオーディオSBTADをデータキャッシュDTCCH内にローディング処理する。タイトルタイムライン上の開始時間TTSTTMまでにローディングが完了するか或はローディング途中であってもタイトルタイムライン上の終了時間TTEDTMまで前記サブスティテュートオーディオSBTADを間断なく再生出力できる場合には、タイトルタイムライン上の開始時間TTSTTMから前記サブスティテュートオーディオSBTADの再生出力を開始する。それに対し、前記ローディング処理が間に合わない場合、再生表示オブジェクトの同期属性情報SYNCATの値が“hard”と設定されている時にはタイトルタイムラインTMLE上の時間進行(カウントアップ)を一時的に停止する。その間に前記サブスティテュートオーディオSBTADを前記データキャッシュDTCCH内にローディング継続する。前記データキャッシュDTCCHへのローディング処理が終了した段階か又はローディング途中であってもタイトルタイムライン上の終了時間TTEDTMまでに前記サブスティテュートオーディオSBTADを間断なく再生・表示できる段階に達した時に始めて前記タイトルタイムラインTMLEの時間進行(カウントアップ)が再開され、そしてサブスティテュートオーディオSBTADをユーザに表示する同期処理を開始する。また、再生表示オブジェクトの同期属性情報SYNCATが“soft”として設定された場合には、対応するサブスティテュートオーディオSBTADがソフトシンクロナイズド(ソフト同期)オブジェクトとしてみなされる。ユーザへ再生表示オブジェクトの表示時に新たなサブスティテュートオーディオSBTADをデータキャッシュDTCCH内にローディングする必要が生じた場合について説明する。この場合には再生表示オブジェクトの取込みを開始するタイトルタイムライン上の時間PRLOADから前記サブスティテュートオーディオSBTADをデータキャッシュDTCCH内にローディング処理を開始する。タイトルタイムライン上の開始時間TTSTTMまでにローディングが完了するか或はローディング途中であってもタイトルタイムライン上の終了時間TTEDTMまで前記サブスティテュートオーディオSBTADを間断なく再生出力できる場合には、タイトルタイムライン上の開始時間TTSTTMから前記サブスティテュートオーディオSBTADの再生出力を開始する。それに対し、前記ローディング処理が間に合わない場合、再生表示オブジェクトの同期属性情報SYNCATの値が“soft”と設定されている時にはタイトルタイムラインTMLE上の時間進行(カウントアップ)を一時的に停止する事なく、前記ローディングを行っているサブスティテュートオーディオSBTADの再生出力を行わないままの状態でタイトルタイムラインTMLE上の時間進行(カウントアップ)を継続させる。前記ローディングを行っているサブスティテュートオーディオSBTADの再生出力を行わないままの状態でタイトルタイムラインTMLE上の時間進行(カウントアップ)を継続させている間も平行して前記サブスティテュートオーディオSBTADを前記データキャッシュDTCCH内にローディング継続する。前記データキャッシュDTCCHへのローディング処理が終了した段階か又はローディング途中であってもタイトルタイムライン上の終了時間TTEDTMまでに前記サブスティテュートオーディオSBTADを間断なく再生・表示できる段階に達した時点で初めて前記サブスティテュートオーディオSBTADの再生出力を開始する。このように前記再生表示オブジェクトの同期属性情報SYNCATの値が“soft”と設定されている場合には、タイトルタイムライン上の開始時間TTSTTMより遅れて前記サブスティテュートオーディオSBTADの再生出力を開始する可能性が高くなる。この遅延を防止するため、ユーザに前記サブスティテュートオーディオSBTADを表示するタイミングに先行して、あらかじめ前記サブスティテュートオーディオSBTADをデータ
キャッシュDTCCHに保存してローディングしておき、タイトルタイムラインTMLEの時間進行(カウントアップ)を止めること無く、連続してデータキャッシュDTCCHに保存されたサブスティテュートオーディオSBTADの再生開始を行うような同期表示をする(タイトルタイムライン上の開始時間TTSTTMから前記サブスティテュートオーディオSBTADの再生開始を行う)事が望ましい。従って、前記ソフトシンクロナイズドオブジェクトの場合(sync属性情報の値が“soft”と記述された場合)にはタイトルタイムライン上の開始時間TTSTTMよりも先行した時間(タイトルタイムラインTMLE上のカウント値が小さい値)になるように再生表示オブジェクトの取り込みを開始するタイトルタイムライン上の時間PRLOADを設定する(サブスティテュートオーディオクリップエレメントSBADCP内に再生表示オブジェクトの取込みを開始するタイトルタイムライン上の時間PRLOADの情報が記述される)必要がある。しかしサブスティテュートオーディオクリップエレメントの属性情報SAATRI内で前記再生表示オブジェクトの同期属性情報SYNCATの情報の記載を省く事が出来る。この場合には、デフォルト値として“soft”の値が自動設定される。従って再生表示オブジェクトの同期属性情報SYNCATの値が“soft”と記述されるかまたは記載が省かれる場合には、前記再生表示オブジェクトの取り込みを開始するタイトルタイムライン上の時間PRLOADの記載される事が望ましい。また、ノーキャッシュ属性情報NOCACHはHTTPの通信プロトコルに関係した情報を示している。ノーキャッシュ属性情報NOCACHの取りえる値は“true”または“false”のいずれかの値を設定する事が出来る。もし前記ノーキャッシュ属性情報NOCACHの値が“true”の場合には、HTTPのGETリクエストメッセージ内にCach-ControlヘッダーとPragmaヘッダーが含まれる必要がある。また、もしノーキャッシュ属性情報NOCACHの値が“false”の場合には、HTTPのGETリクエストメッセージ内にCach-ControlヘッダーとPragmaヘッダーは含まれない。更にサブスティテュートオーディオクリップに関する付加情報は、人が馴染みのあるテキストフォーマットで記述される。また前記サブスティテュートオーディオクリップに関する付加情報は、前記サブスティテュートオーディオクリップエレメントの属性情報SAATRI内から記述を省く事が出来る。
<SubstituteAudioClip element>
As shown in FIG. 10, the substitute audio SBTAD exists in the secondary enhanced video object data S-EVOB of the secondary video set SCDVS. The substitute audio SBTAD includes information of the main audio MANAD, and is selectively (or alternatively) displayed and reproduced with the main audio of the primary video set PRMVS. That is, in the present embodiment, the main audio MANAD in the primary video set PRMVS and the main audio MANAD of the substitute audio SBTAD cannot be displayed and reproduced simultaneously for the user. The substitute audio clip element SBADCP indicates object mapping information OBMAPI information related to the substitute audio SBTAD in the title. At the same time, the substitute audio clip element SBADCP also shows information on track number assignment (track number setting) of each elementary stream in the secondary enhanced video object data S-EVOB of the substitute audio SBTAD. As shown in FIG. 18, the substitute audio SBTAD can be recorded in the information storage medium DISC, persistent storage PRSTR, network server NTSRV, or file cache FLCCH. As shown in FIG. 55, a plurality of main audio elements MANAD can be included in the substitute audio clip element SBADCP. Further, in this case, the main audio element MANAD in the substitute audio clip element SBADCP contains setting information of the audio track number of the main audio stream included in the main audio pack AM_PCK of the secondary enhanced video object data S-EVOB. It is described in the audio element MANAD. When “Network” is described as the value of the data source DTSORC in which the playback display object described in FIG. 55 (d) is recorded, the network source element NTSELE is included in the corresponding substitute audio clip element SBADCP. Described. In this case, the URI (Uniform Resource Identifier) information starting from “http” or “https” as the value of the index information file storage location SRCTMP of the playback display object to be referred to shown in FIG. 55 (d) Is described. In addition, based on the network throughput (data transfer rate) in the network environment to which the information recording / reproducing
図23(a)に示すようにプレイリストファイルPLLST内にタイトル情報TTINFOが存在し、図23(b)に示すように前記タイトル情報TTINFO内にファーストプレイタイトルエレメント情報FPTELE、各タイトル毎のタイトルエレメント情報TTELEM及びプレイリストアプリケーションエレメント情報PLAELEが存在する。また、図23(c)に示すように前記タイトル毎のタイトルエレメント情報TTELEM内にはオブジェクトマッピングインフォメーションOBMAPI(トラックナンバーアサイメントインフォメーションを含む)が存在する。前記オブジェクトマッピングインフォメーションOBMAPI(トラックナンバーアサイメントインフォメーションを含む)内には図56(b)に示すように、アドバンストサブタイトルセグメントエレメントADSTSGが存在する。以下に前記アドバンストサブタイトルセグメントエレメントADSTSG内のデータ構造について説明を行う。 As shown in FIG. 23A, title information TTINFO exists in the playlist file PLLST, and as shown in FIG. 23B, the first play title element information FPTELE and the title element for each title are included in the title information TTINFO. Information TTELEM and playlist application element information PLAELE exist. As shown in FIG. 23 (c), object mapping information OBMAPI (including track number assignment information) exists in the title element information TTELEM for each title. In the object mapping information OBMAPI (including track number assignment information), an advanced subtitle segment element ADSTSG exists as shown in FIG. 56 (b). The data structure in the advanced subtitle segment element ADSTSG will be described below.
<アドバンストサブタイトルセグメントエレメント(AdvancedSubtitleSegment element)>
図18に示すように前記アドバンストサブタイトルセグメントエレメントADSTSGは、アドバンストサブタイトルADSBTに関する再生表示クリップエレメントの情報を表す。前記アドバンストサブタイトルセグメントエレメントADSTSGはタイトル内におけるアドバンストサブタイトルADSBTのオブジェクトマッピングインフォメーションOBMAPIの内容を説明している。また前記アドバンストサブタイトルセグメントエレメントADSTSG内において、サブタイトルのトラック番号の設定も行っている。図18に示すようにアドバンストサブタイトルADSBTの再生使用時にインデックスとして参照されるファイル名はアドバンストサブタイトルのマニフェストファイルMNFSTSである。それに対応し、図56(c)に示すsrc属性情報は前記アドバンストサブタイトルセグメントエレメントADSTSGに対応したアドバンストサブタイトルADSBTに関するマークアップファイルMRKUPのファイル名と保存場所(パス)を示している。またタイトルタイムライン上の開始時間TTSTTM(titleTimeBegin)とタイトルタイムライン上の終了時間TTEDTM(titleTimeEnd)の属性情報はアドバンストサブタイトルADSBTの有効期間における開始時間と終了時間を示している。また、図56(b)に示すように前記アドバンストサブタイトルセグメントエレメントADSTSGは1以上のサブタイトルエレメントSBTELEと1個以上のアプリケーションリソースエレメントAPRELEの情報を含む事ができる。また前記サブタイトルエレメントSBTELE内において、サブタイトルトラックの番号が設定される。前記サブタイトルトラック番号はメインビデオMANVDに対するサブタイトル(テロップや字幕等に用いられる)としてのアドバンストサブタイトルADSBTの選択に使用される。また、図56(c)に示す参照すべき再生表示オブジェクトのマニュフェストファイル保存場所SRCMNF(src属性情報)はURI(ユニフォーム・リソース・アイデンティファイヤー)の形式で記述される。再生表示オブジェクトの同期属性情報SYNCAT(sync属性情報)は、アドバンストサブタイトルセグメントエレメントADSTSGにおける同期属性情報を意味しているが、それは後述するアプリケーションセグメントエレメントAPPLSGに対するジャンプタイミングモードの定義と一致している。前記アドバンストアプリケーションADAPLにおけるジャンプタイミングモデルは、図17の説明文中に記述してある。本実施形態においてアドバンストサブタイトルセグメントADSTSGにおいては、前記再生表示オブジェクトの同期属性情報SYNCATとして“hard”または“soft”のいずれかの値が設定される。すなわち、本実施形態においてはアドバンストサブタイトルADSBTの同期として“none”の設定をする事は無く、常にアドバンストサブタイトルADSBTはタイトルタイムラインTMLEに対して同期して表示されなければならない。前記再生表示オブジェクトの同期属性情報SYNCATの値として“hard”を設定した場合には、ハードシンクジャンプの状態を表す。すなわち、タイトルタイムライン上の開始時間TTSTTMに合わせてアドバンストサブタイトルADSBTをファイルキャッシュFLCCH内へローディング開始する間はタイトルタイムラインTMLEの進行(カウントアップ)を一時停止させ(対応した表示画面を一時静止状態に保持し)、前記アドバンストサブタイトルADSBTのローディング処理が完了した段階で再度タイトルタイムラインTMLEの進行(カウントアップ)を再開する。またそれに対し、前記再生表示オブジェクトの同期属性情報SYNCATを“soft”に設定した場合には、ソフトシンクジャンプの状態を意味する。すなわち、ソフトシンクジャンプの状態とはアドバンストサブタイトルADSBTを表示する前に先行して前記アドバンストサブタイトルADSBTのファイルキャッシュFLCCH内へのローディング処理を行う(完了させる)事で、タイトルタイムラインTMLEの進行を停止する事無く、シームレスに次に表示するアドバンストサブタイトルADSBTの準備を終了させる同期方法を意味している。また本実施形態において前記再生表示オブジェクトの同期属性情報SYNCATを“hard”に設定した場合でも必要なリソースを事前にローディング開始しても良い。しかしこの場合、タイトルタイムラインTMLE上の時間がタイトルタイムライン上の開始時間TTSTTM(titleTimeBegin)に達しても事前のローディングが完了しないかもしくは仮にアドバンストサブタイトルADSBTの表示を開始したとしてもタイトルタイムライン上の終了時間TTEDTMまで連続表示できるまでのローディングが未達の場合には、タイトルタイムラインTMLEの進行(カウントアップ)を一時停止させ(対応した表示画面を一時静止状態に保持し)てファイルキャッシュFLCCH内のローディング量が特定値を超えるまで待つ。また、本実施形態において前記再生表示オブジェクトの同期属性情報SYNCATを“soft”と設定した場合には図65(b)に示すような同期処理を行っても良い。すなわちタイトルタイムライン上の開始時間からアドバンストサブタイトルADSBTに対応したリソースのローディングを開始させ(タイトルタイムライン上の開始時間TTSTTMとローディング時間LOADPEの開始時間を一致させ)、前記アドバンストサブタイトルADSBTに対応したリソースのローディング中にもタイトルタイムラインTMLEの進行(カウントアップ)を継続させる。ファイルキャッシュFLCCH内のリソースデータ量がある程度溜まり、アドバンストサブタイトルADSBTの連続表示が可能になった段階で(タイトルタイムライン上の開始時間TTSTTMよりも遅れて)対応するアドバンストサブタイトルADSBTの再生を開始する。
<Advanced Subtitle Segment element>
As shown in FIG. 18, the advanced subtitle segment element ADSTSG represents information of a reproduction display clip element related to the advanced subtitle ADSBT. The advanced subtitle segment element ADSTSG describes the contents of the object mapping information OBMAPI of the advanced subtitle ADSBT in the title. The subtitle track number is also set in the advanced subtitle segment element ADSTSG. As shown in FIG. 18, the file name referenced as an index when the advanced subtitle ADSBT is played back is the advanced subtitle manifest file MNFSTS. Correspondingly, the src attribute information shown in FIG. 56 (c) indicates the file name and storage location (path) of the markup file MRKUP related to the advanced subtitle ADSBT corresponding to the advanced subtitle segment element ADSTSG. The attribute information of the start time TTSTTM (titleTimeBegin) on the title timeline and the end time TTEDTM (titleTimeEnd) on the title timeline indicates the start time and end time in the effective period of the advanced subtitle ADSBT. As shown in FIG. 56 (b), the advanced subtitle segment element ADSTSG can include information of one or more subtitle elements SBTELE and one or more application resource elements APRELE. Further, the subtitle track number is set in the subtitle element SBTELE. The subtitle track number is used to select an advanced subtitle ADSBT as a subtitle (used for telop, subtitles, etc.) for the main video MANVD. Also, the manifest file storage location SRCMNF (src attribute information) of the reproduction display object to be referred to shown in FIG. 56 (c) is described in the form of URI (Uniform Resource Identifier). The synchronization attribute information SYNCAT (sync attribute information) of the reproduction display object means the synchronization attribute information in the advanced subtitle segment element ADSTSG, which matches the definition of the jump timing mode for the application segment element APPLSG described later. The jump timing model in the advanced application ADAPL is described in the explanatory text of FIG. In the present embodiment, in the advanced subtitle segment ADSTSG, a value of “hard” or “soft” is set as the synchronization attribute information SYNCAT of the reproduction display object. That is, in the present embodiment, “none” is not set as the synchronization of the advanced subtitle ADSBT, and the advanced subtitle ADSBT must always be displayed in synchronization with the title timeline TMLE. When “hard” is set as the value of the synchronization attribute information SYNCAT of the reproduction display object, it represents a hard sync jump state. In other words, while the advanced subtitle ADSBT starts to be loaded into the file cache FLCCH in accordance with the start time TTSTTM on the title timeline, the progress (counting up) of the title timeline TMLE is paused (the corresponding display screen is paused) And the progression (counting up) of the title timeline TMLE is resumed when the loading processing of the advanced subtitle ADSBT is completed. On the other hand, when the sync attribute information SYNCAT of the reproduction display object is set to “soft”, it means a soft sync jump state. In other words, the soft sync jump state means that the advance of the title timeline TMLE is stopped by loading (completing) the advanced subtitle ADSBT into the file cache FLCCH prior to displaying the advanced subtitle ADSBT. This means a synchronization method that finishes the preparation of the advanced subtitle ADSBT to be displayed next seamlessly. In this embodiment, even when the synchronization attribute information SYNCAT of the playback display object is set to “hard”, loading of necessary resources may be started in advance. However, in this case, even if the time on the title timeline TMLE reaches the start time TTSTTM (titleTimeBegin) on the title timeline, the previous loading is not completed, or even if the display of the advanced subtitle ADSBT is started, the title timeline If the loading until continuous display until the end time of TTEDTM has not been reached, the progress (counting up) of the title timeline TMLE is paused (the corresponding display screen is kept in a pause state) and the file cache FLCCH Wait until the loading amount exceeds a specific value. Further, in the present embodiment, when the synchronization attribute information SYNCAT of the reproduction display object is set to “soft”, a synchronization process as shown in FIG. 65B may be performed. In other words, loading of the resource corresponding to the advanced subtitle ADSBT is started from the start time on the title timeline (the start time TTSTTM on the title timeline and the start time of the loading time LOADPE are matched), and the resource corresponding to the advanced subtitle ADSBT is started. Continue to progress (count up) the title timeline TMLE during loading. When the amount of resource data in the file cache FLCCH is accumulated to some extent and continuous display of the advanced subtitle ADSBT becomes possible (after the start time TTSTTM on the title timeline), playback of the corresponding advanced subtitle ADSBT is started.
図56(c)に示すアドバンストサブタイトルセグメントADSTSGに関する付加情報は、人が馴染みやすいテキストフォーマットで記述される。前記アドバンストサブタイトルセグメントADSTSGに関する付加情報は、アドバンストサブタイトルセグメントエレメントの属性情報ADATRI内での記述を省略する事が出来る。 The additional information related to the advanced subtitle segment ADSTSG shown in FIG. 56C is described in a text format that is familiar to humans. The additional information related to the advanced subtitle segment ADSTSG can be omitted from the attribute information ADATRI of the advanced subtitle segment element.
<アプリケーションセグメントエレメント(ApplicationSegment element)>
図18に示すようにアプリケーションセグメントエレメントAPPLSGはアドバンストアプリケーションADAPLに関する再生表示クリップエレメントを意味している。前記アプリケーションセグメントAPPLSGはタイトル内におけるアドバンストアプリケーションADAPLのオブジェクトマッピングインフォメーションOBMAPIの内容を説明している。前記アドバンストアプリケーションADAPLはタイトルタイムラインTMLE上での特定時間範囲内にスケジューリングされなければならない。前記特定時間範囲をアドバンストアプリケーションADAPLの有効期間と呼ぶ。タイトルタイムラインTMLE上の進行時間(カウント値)が前記有効期間に差し掛かった時には前記アドバンストアプリケーションADAPLは有効時間に入ったと呼ばれる。また、前期アドバンストアプリケーションADAPLのタイトルタイムラインTMLE上での有効期間は、タイトルタイムラインTMLE上での開始時間と終了時間により設定される。すなわち前記有効期間の開始時間は図56(d)のタイトルタイムライン上の開始時間TTSTTM(titleTimeBegin属性情報)で設定され、同様にアドバンストアプリケーションADAPLの有効期間の終了時間はタイトルタイムライン上の終了時間TTEDTM(titleTimeEnd属性情報)によりそれぞれ設定される。また、図12または図18に示すようにアドバンストアプリケーションADAPLを参照する場合にはプレイリストファイルPLLST上からはマニフェストファイルMNFSTを参照する。アドバンストアプリケーションの初期設定情報を含んだマニフェストファイル保存場所URIMNFを表わすsrc属性情報(ソース属性情報)の値はURI(ユニフォーム・リソース・アイデンティファイヤー)の形式により記述される。それにより、アドバンストアプリケーションADAPLにおける初期状態に必要な情報を獲得する事が出来る。図56(b)に示すようにアプリケーションセグメントエレメントAPPLSG内にはアプリケーションリソースエレメントAPRELEのリストを含む事が出来る。前記アプリケーションリソースエレメントAPRELEは、対応するアドバンストアプリケーションADAPLに対するリソースインフォメーションRESRCIの情報を示している(図63(d)参照)。図56(d)に示すように、アプリケーションセグメントエレメントAPPLSGタグ内には言語属性情報LANGAT(language属性情報)、アプリケーションブロックの属性(インデックス番号)情報APBLAT(appblock属性情報)、アドバンストアプリケーショングループの属性(インデックス番号)情報APGRAT(group属性情報)、およびオートラン属性情報ATRNAT(autorun属性情報)を含むが、それらの4種類の属性情報をアプリケーションアクティベーションインフォメーションと呼ぶ(前記アプリケーションアクティベーションインフォメーションの使い方は図58を用いて後述する)。アプリケーションセグメントエレメントAPPLSGタグ内にはアプリケーションセグメントエレメントの属性情報APATRIに先行して、アプリケーションセグメントエレメントのID情報APPLIDが“ID=”の直後に記述される格好になっている。このようにアプリケーションセグメントエレメントのID情報APPLIDを設定出来る事により、本実施形態ではオブジェクトマッピングインフォメーションOBMAPI内で複数のアプリケーションセグメントエレメントAPPLSGを設定する事が出来る。その為、1個のタイトルの表示期間中にそれぞれ表示形式が異なる複数のアドバンストアプリケーションADAPLを表示する事が可能となり、ユーザへの表現方法を格段に向上させる事が出来る。更に図82に示すように前記ID情報APPLIDを設定することにより、APIコマンドによる前記ID情報APPLIDを用いた特定のアプリケーションセグメントエレメントAPPLSGの指定が容易となりAPIコマンド処理制御の簡素化が図れる。また、図56(d)に示すようにアプリケーションセグメントエレメントの属性情報APATRI内の最初に、タイトルタイムライン上の開始時間TTSTTM(titleTimeBegin)の情報とタイトルタイムライン上の終了時間TTEDTM(titleTimeEnd)の情報が記述される。図56(c)からも判るように、本実施形態においてアドバンストサブタイトルセグメントエレメントADSTSG、およびアプリケーションセグメントエレメントAPPLSG内ではアドバンストサブタイトルセグメントエレメントの属性情報ADATRIおよびアプリケーションセグメントエレメントの属性情報APATRIのそれぞれ先頭位置に前記タイトルタイムライン上の開始時間TTSTTMと終了時間TTEDTMを記述するようになっている。このようにタイトルタイムライン上での有効期間の開始/終了時間を最初に記述する事により、プレイリストマネージャPLMNG(図28参照)でのタイトルタイムラインTMLE上での表示タイミング設定処理の高速化を図る事が出来る。本実施形態において、アドバンストアプリケーションADAPLにおいては再生表示オブジェクトの同期属性情報SYNCAT(sync属性情報)としては“hard”または“soft”の2種類の情報を設定出来るようになっている。すなわち、前記再生表示オブジェクトの同期属性情報SYNCAT(sync属性情報)の値を“hard”に設定した場合には、図17の説明文章で記述したようにハードシンクジャンプの状態を表す。すなわち、前記アドバンストアプリケーションADAPLをローディングしている間はタイトルタイムラインTMLE上の進行(カウントアップ)を一時停止すると共に、表示する映像(例えばプライマリーエンハンストビデオオブジェクトデータP-EVOBに基づく映像情報)の表示も一時停止して静止画の状態にする。前記アドバンストアプリケーションADAPLのローディング処理が終了した段階で、前記タイトルタイムラインTMLEの進行(カウントアップ)を再開させると同時に前記映像の動きを再開させ、対応したアドバンストアプリケーションADAPLの表示を行う。また、前記再生表示オブジェクトの同期属性情報SYNCAT(sync属性情報)が“soft”に設定された場合にはソフトシンクジャンプを意味する。すなわち、事前にアドバンストアプリケーションADAPLのローディング処理がなされ、前記ローディングが完了したアドバンストアプリケーションADAPLの表示開始をタイトルタイムラインTMLEの進行(カウントアップ)を一時停止する事無く、シームレスに表示させたまま前記アドバンストアプリケーションADAPLを開始する事が出来る。また本実施形態において再生表示オブジェクトの同期属性情報SYNCAT(sync属性情報)が“soft”に設定された場合には、上記内容に限らず図65(b)に示す同期処理を行っても良い。すなわち図65(b)に示す同期処理はクリップエレメントやセグメントエレメント内に再生表示オブジェクトの取り込みを開始するタイトルタイムライン上の時間PRLOAD(preload属性情報)の記述が無い場合に専ら使用するもので、クリップエレメントやセグメントエレメント内に設定されたタイトルタイムライン上の開始時間TTSTTM(titleTimeBegin属性情報の値)からクリップエレメントやセグメントエレメントで指定した(管理している)再生表示オブジェクトで使用されるリソースのファイルキャッシュFLCCH内へのローディングを開始させる(タイトルタイムライン上の開始時間TTSTTMとファイルキャッシュFLCCH内へのローディング時間LOADPEの開始時間を一致させる)。その後は前記リソースのファイルキャッシュFLCCH内へのローディング処理とタイトルタイムラインTMLE上の時間進行(カウントアップ)を平行して継続させてユーザに表示する動画の進行を中断させない処理を行う。前記リソースのファイルキャッシュFLCCH内へのローディング時間LOADPEが終了した段階で初めて対応するアドバンストアプリケーションADAPLの表示または実行を開始し、アドバンストアプリケーションの実行時間APACPEに入る。前記実施形態においては
1)アドバンストアプリケーションADAPLで使用するリソースのファイルキャッシュFLCCH内へのローディング中にも中断する事無く、タイトルタイムラインTMLE上の時間進行(カウントアップ)が継続される
2)アドバンストアプリケーションADAPLの表示または実行を開始するアドバンストアプリケーションの実行時間APACPEの開始時間が、クリップエレメントやセグメントエレメント内で規定されたタイトルタイムライン上の開始時間TTSTTM(titleTimeBegin属性情報)の値より遅れる
という特徴を持つ。
<Application segment element>
As shown in FIG. 18, the application segment element APPLSG means a playback display clip element related to the advanced application ADAPL. The application segment APPLSG describes the contents of the object mapping information OBMAPI of the advanced application ADAPL in the title. The advanced application ADAPL must be scheduled within a specific time range on the title timeline TMLE. The specific time range is called an effective period of the advanced application ADAPL. When the progress time (count value) on the title timeline TMLE reaches the valid period, the advanced application ADAPL is said to have entered the valid time. Further, the validity period of the advanced application ADAPL on the title timeline TMLE is set by the start time and end time on the title timeline TMLE. That is, the start time of the valid period is set by the start time TTSTTM (titleTimeBegin attribute information) on the title timeline in FIG. 56 (d), and similarly, the end time of the valid period of the advanced application ADAPL is the end time on the title timeline. Set by TTEDTM (titleTimeEnd attribute information). As shown in FIG. 12 or FIG. 18, when referring to the advanced application ADAPL, the manifest file MNFST is referred to from the playlist file PLLST. The value of the src attribute information (source attribute information) indicating the manifest file storage location URIMNF including the initial setting information of the advanced application is described in the form of URI (Uniform Resource Identifier). As a result, information necessary for the initial state in the advanced application ADAPL can be acquired. As shown in FIG. 56 (b), a list of application resource elements APRELE can be included in the application segment element APPLSG. The application resource element APRELE indicates resource information RESRCI information for the corresponding advanced application ADAPL (see FIG. 63 (d)). As shown in FIG. 56 (d), the application segment element APPLSG tag includes language attribute information LANGAT (language attribute information), application block attribute (index number) information APBLAT (appblock attribute information), and advanced application group attributes ( Index number) information APGRAT (group attribute information) and autorun attribute information ATRNAT (autorun attribute information) are included, and these four types of attribute information are referred to as application activation information (how to use the application activation information is shown in FIG. 58). To be described later). In the application segment element APPLSG tag, the ID information APPLID of the application segment element is written immediately after “ID =” prior to the attribute information APATRI of the application segment element. Since the application segment element ID information APPLID can be set in this way, in this embodiment, a plurality of application segment elements APPLSG can be set in the object mapping information OBMAPI. Therefore, it is possible to display a plurality of advanced applications ADAPL each having a different display format during the display period of one title, and the way of expressing to the user can be greatly improved. Further, by setting the ID information APPLID as shown in FIG. 82, it is easy to specify a specific application segment element APPLSG using the ID information APPLID by the API command, and the API command processing control can be simplified. Also, as shown in FIG. 56 (d), at the beginning of the attribute information APATRI of the application segment element, information on the start time TTSTTM (titleTimeBegin) on the title timeline and information on the end time TTEDTM (titleTimeEnd) on the title timeline Is described. As can be seen from FIG. 56 (c), in the present embodiment, the advanced subtitle segment element ADSTSG and the application segment element APPLSG have the advanced subtitle segment element attribute information ADATRI and the application segment element attribute information APATRI at the start positions. The start time TTSTTM and end time TTEDTM on the title timeline are described. Thus, by describing the start / end time of the valid period on the title timeline first, the display timing setting process on the title timeline TMLE in the playlist manager PLMNG (see FIG. 28) can be accelerated. You can plan. In this embodiment, in the advanced application ADAPL, two types of information “hard” or “soft” can be set as the synchronization attribute information SYNCAT (sync attribute information) of the reproduction display object. That is, when the value of the synchronization attribute information SYNCAT (sync attribute information) of the reproduction display object is set to “hard”, the hard sync jump state is represented as described in the explanatory text of FIG. That is, while the advanced application ADAPL is loaded, the progress (counting up) on the title timeline TMLE is paused and the video to be displayed (for example, video information based on the primary enhanced video object data P-EVOB) is displayed. Also pause to make a still image. At the stage where the loading process of the advanced application ADAPL is completed, the progress (counting up) of the title timeline TMLE is resumed, and at the same time, the motion of the video is resumed, and the corresponding advanced application ADAPL is displayed. Further, when the sync attribute information SYNCAT (sync attribute information) of the reproduction display object is set to “soft”, it means a soft sync jump. In other words, the advanced application ADAPL is loaded in advance, and the display of the advanced application ADAPL for which the loading has been completed is displayed seamlessly without pausing the progress (counting up) of the title timeline TMLE. You can start the application ADAPL. Further, in the present embodiment, when the synchronization attribute information SYNCAT (sync attribute information) of the reproduction display object is set to “soft”, the synchronization processing shown in FIG. That is, the synchronization processing shown in FIG. 65 (b) is used exclusively when there is no description of the time PRLOAD (preload attribute information) on the title timeline at which the playback display object starts to be taken in the clip element or segment element. Resource file used by the playback display object specified (managed) by the clip element or segment element from the start time TTSTTM (titleTimeBegin attribute information value) on the title timeline set in the clip element or segment element Start loading into the cache FLCCH (match the start time TTSTTM on the title timeline with the start time of the load time LOADPE into the file cache FLCCH). After that, the loading process of the resource into the file cache FLCCH and the time progress (count up) on the title timeline TMLE are continued in parallel to perform a process that does not interrupt the progress of the moving image displayed to the user. The display or execution of the corresponding advanced application ADAPL is started only when the loading time LOADPE of the resource into the file cache FLCCH is completed, and the advanced application execution time APACPE is entered. In the above embodiment, 1) The time progress (counting up) on the title timeline TMLE is continued without interruption even during loading of resources used in the advanced application ADAPL into the file cache FLCCH. 2) Advanced application Advanced application execution time that starts ADAPL display or execution The start time of APACPE is delayed from the value of the start time TTSTTM (titleTimeBegin attribute information) on the title timeline specified in the clip element or segment element .
次にアプリケーションセグメントエレメントAPPLSG内に配置されるZオーダー属性(Z-インデックス)情報ZORDERの説明を行う。図16に示すようにユーザへの表示画面上にヘルプアイコン33からFFボタン38に至る複数のボタンを表示する事がある。前記表示画面上にヘルプアイコン33からFFボタン38に至る複数のボタンを表示する方法として、マニフェストMNFSTによりアドバンストアプリケーションADAPLの表示領域を設定後、各アプリケーションエレメントとしてヘルプアイコン33・ストップボタン34・プレイボタン35・FRボタン36・ポーズボタン37およびFFボタン38の表示場所と表示サイズを前記マニフェストMNFST内から指定されるマークアップMRKUP内で設定する事が出来る(図84参照)。この場合、ヘルプアイコン33が1個のアプリケーションエレメント(コンテントエレメント、または図40に示すグラフィックオブジェクト)に対応し、ストップボタン34からFFボタン38に至る各ボタンも、それぞれ別々のアプリケーションエレメント(コンテントエレメント、または図40に示すグラフィックオブジェクト)に対応させて設定する事が出来る。本実施形態において前記アドバンストアプリケーションADAPLの表示領域全体を1個のアドバンストアプリケーションADAPLと見なして同一のアプリケーションセグメントエレメントAPPLSGで統合的に管理しても良い。またそれに限らず、コンテンツプロバイダの作成意図に応じてストップボタン34からFFボタン38に至る各ボタン毎に別々のアドバンストアプリケーションADAPLと見なし、各ボタンに対応した表示図形やそのボタンを押した時に実行されるスクリプトSCRPT単位でアプリケーションセグメントエレメントAPPLSGにより管理することもできる。この場合、ストップボタン34からFFボタン38までを同時にユーザが入力可能な状態(フォーカス状態)にできるようにストップボタン34に対応したアドバンストアプリケーションADAPLからFFボタン38に対応したアドバンストアプリケーションADAPLまでをまとめてグループ化できる。このようにストップボタン34に対応したアドバンストアプリケーションADAPLからFFボタン38に対応したアドバンストアプリケーションADAPLまでをまとめてグループ化した場合には、ストップボタン34に関連したアプリケーションセグメントエレメントAPPLSG内のアドバンストアプリケーショングループの属性(インデックス番号)情報APGRAT(group属性情報)の設定値からFFボタン38に関連したアプリケーションセグメントエレメントAPPLSG内のアドバンストアプリケーショングループの属性(インデックス番号)情報APGRAT(group属性情報)の設定値までをすべて同じ値に設定する。図16においては各アプリケーションエレメント(コンテントエレメント、または図40に示すグラフィックオブジェクト)がそれぞれ異なる位置に配置されているが、本実施形態では前記複数のアプリケーションエレメント(コンテントエレメント、または図40に示すグラフィックオブジェクト)を一部重ねて表示する事が可能になる。例えば、図16の実施形態で示すとヘルプアイコン33の上に一部重ねてストップボタン34を表示させる事が出来る。このように本実施形態では複数のアプリケーションエレメント(コンテントエレメント、または図40に示すグラフィックオブジェクト)を一部重ねて表示することが出来る。また、各アプリケーションエレメント(コンテントエレメント、または図40に示すグラフィックオブジェクト)毎に別々にアドバンストアプリケーションADAPLを対応付けた場合には複数のアドバンストアプリケーションADAPL間で一部重ねて配置されることになり、どちらのアドバンストアプリケーションADAPLを“上側”に表示するか制御する必要が生じる。上記制御を可能にするため、各アドバンストアプリケーションADAPL毎にレイヤーを設定し、そのレイヤーを重ねた形でグラフィックプレインGRPHPL(図39参照)内に表示するデータ管理方法を採用する。すなわち“上側”のレイヤーに設定されたアドバンストアプリケーションADAPLに対応する図形(アプリケーションエレメント、コンテントエレメント、または図40に示すグラフィックオブジェクト)が、“下側”のレイヤーに設定されたアドバンストアプリケーションADAPLに対応する図形よりも画面上で“上側”に表示されることになる。これに対応して各アドバンストアプリケーションADAPL毎に対応するレイヤー番号を設定する事が出来る。すなわち前記Zオーダー属性(Z-インデックス)情報ZORDER(zOrder属性情報)により、対応するアドバンストアプリケーションADAPLのグラフィックプレインGRPHPL上でのレイヤー番号を設定する。前記レイヤー番号情報の値としては“0”または整数値が設定出来る。前記Zオーダー属性(Z-インデックス)情報ZORDER(zOrder属性情報)は、図24(b)で示したマークアップ内で使われるチッククロックの周波数情報TKBASE(tickBase属性情報)により使用(切り替わり制御)される。次に記述される言語属性情報LANGAT(language属性情報)は、アドバンストアプリケーションADAPLにより画面上(例えばメニュー画面など)に表示される文字や音声などに使用される言語を指定する情報である。ここで指定した言語内容がアプリケーション言語システムパラメータ(図46から図49参照)で指定されている言語内容と異なる場合にはこのアプリケーションセグメントエレメントAPPLSGで指定したアドバンストアプリケーションADAPL無効状態(アクティブでない状態)となる。前記言語属性情報LANGATはISO−639において設定される言語コード(two-letter lowercase symbols)から構成される。本実施形態においては前記言語属性情報LANGATを前記アプリケーションセグメントエレメントAPPLSGの属性情報APATRI内での記述を省く事が出来る。もし、このように前記言語属性情報LANGATの記述が省かれた場合には、前記アドバンストアプリケーションADAPLの言語は状況に対応した任意の言語として設定される。またアプリケーションブロックの属性(インデックス番号)情報APBLAT(appblock属性情報)は図57の説明文中で詳細に説明するように、対応するアプリケーションセグメントエレメントAPPLSGで指定したアドバンストアプリケーションADAPLが所属するアドバンストブロックのインデックス番号(整数値)を表している。前記アプリケーションブロックの属性(インデックス番号)情報APBLATは、前記アプリケーションセグメントエレメントの属性情報APATRI内での記述を省く事が出来る。もし、前記アプリケーションブロックの属性(インデックス番号)情報APBLATの記述を省いた場合には、対応するアドバンストアプリケーションADAPLはアプリケーションブロック内に属さず単独で存在する事を意味している。
Next, the Z order attribute (Z-index) information ZORDER arranged in the application segment element APPLSG will be described. As shown in FIG. 16, a plurality of buttons from the
前述したように図16にしめすストップボタン34に対応したアドバンストアプリケーションADAPLからFFボタン38に対応したアドバンストアプリケーションADAPLまでをまとめてグループ化してユーザ入力に対応した処理の簡素化を図ることができる。このようにグループ化された対象を“アドバンストアプリケーショングループ”と呼ぶ。本実施形態ではアドバンストアプリケーショングループ毎に“インデックス番号(整数値)”を設定し、各アドバンストアプリケーショングループ間の識別を可能にしている。前記インデックス番号(整数値)の値がアプリケーションセグメントエレメントAPPLSG内のアドバンストアプリケーショングループの属性(インデックス番号)情報APGRAT(group属性情報)として設定(記述)される。コンテンツプロバイダの意図に基づき、図16に示すストップボタン34からFFボタン38までを同時に表示開始または表示終了したり、ストップボタン34からFFボタン38までのどれでもユーザによる実行指定を可能にする(ストップボタン34からFFボタン38までを同時にフォーカス状態にする)事ができる。ストップボタン34に対応したアドバンストアプリケーションADAPLからFFボタン38に対応したアドバンストアプリケーションADAPLで構成されるアドバンストアプリケーショングループ全体を実行状態(アクティブ状態)にした場合には、前記アドバンストアプリケーショングループ内の全てのアドバンストアプリケーションADAPLが同時に実行状態(アクティブ状態)になる。本実施形態において全てのアドバンストアプリケーションADAPLがアドバンストアプリケーショングループに属している必要は無い。アプリケーションセグメントエレメントAPPLSGが管理するアドバンストアプリケーションADAPLがアドバンストアプリケーショングループに属さず、単独に存在する場合には前記アドバンストアプリケーショングループの属性(インデックス番号)情報APGRATの記述が省かれる。
As described above, the advanced application ADAPL corresponding to the
オートラン属性情報ATRNAT(autorun属性情報)の値として“true”もしくは“false”のいずれかを設定する事が出来る。タイトルタイムラインTMLEのカウント値が有効期間(titleTimeBegin(TTSTTM)からtitleTimeEnd(TTEDTM)までの範囲内)に入った時、上記オートラン属性情報ATRNATの値が“true”の場合には、アドバンストアプリケーションADAPLが自動的に起ち上がり(アクティブとなり)、“false”の場合には、APIコマンドにより指定を受けない限りアクティブにならない事を意味している。また、前記オートラン属性情報ATRNATは前記アプリケーションセグメントエレメントの属性情報APATRI内での記述を省く事が出来る。このようにオートラン属性情報ATRNATの記述が省かれた場合は、オートラン属性情報ATRNATのデフォルト値である“true”が自動的に設定される。またアプリケーションセグメントエレメントAPPLSGタグ内の最後に記述されるアプリケーションセグメントに関する付加情報(description属性情報)は、人が容易に解釈出来るテキストフォーマットにより記述されている。前記付加情報はアプリケーションセグメントエレメントの属性情報APATRI内での記述を省く事が出来る。 Either “true” or “false” can be set as the value of the autorun attribute information ATRNAT (autorun attribute information). When the count value of the title timeline TMLE enters the valid period (within the range from titleTimeBegin (TTSTTM) to titleTimeEnd (TTEDTM)), if the autorun attribute information ATRNAT is “true”, the advanced application ADAPL It starts up automatically (becomes active) and “false” means that it will not become active unless specified by an API command. The autorun attribute information ATRNAT can omit the description in the attribute information APATRI of the application segment element. Thus, when the description of the autorun attribute information ATRNAT is omitted, “true” which is the default value of the autorun attribute information ATRNAT is automatically set. Further, additional information (description attribute information) related to the application segment described at the end in the application segment element APPLSG tag is described in a text format that can be easily interpreted by a person. The additional information can be omitted from the attribute information APATRI of the application segment element.
<アプリケーションアクティベーションインフォメーション(Application Activation Information)>
図56(d)に示すようにアプリケーションセグメントエレメントAPPLSGタグ内にオプショナルな情報として言語属性情報LANGAT、アプリケーションブロックの属性(インデックス番号)情報APBLAT、アドバンストアプリケーショングループの属性(インデックス番号)情報APGRAT、およびオートラン属性情報ATRNATを記述する事が出来る。前記4つの属性情報はアプリケーションアクティベーションインフォメーション(対応アプリケーションを実行状態にするか否かを設定するための判定情報)と呼ばれる。タイトルタイムラインTMLE上において前記アドバンストアプリケーションADAPLの有効期間内(図56(d)に示すアプリケーションセグメントエレメントAPPLSG内で設定されたタイトルタイムライン上の開始時間TTSTTM(titleTimeBegin)から終了時間TTEDTM(titleTimeEnd)までの期間)においては前記アプリケーションアクティベーションインフォメーションにより、前記アドバンストアプリケーションADAPLが実行可能であるか、或いは実行が不可能であるかを判定する事が出来る。
<Application Activation Information>
As shown in FIG. 56 (d), language attribute information LANGAT, application block attribute (index number) information APBLAT, advanced application group attribute (index number) information APGRAT, and autorun as optional information in the application segment element APPLSG tag Attribute information ATRNAT can be described. The four pieces of attribute information are called application activation information (determination information for setting whether or not to set the corresponding application to an execution state). Within the effective period of the advanced application ADAPL on the title timeline TMLE (from the start time TTSTTM (titleTimeBegin) on the title timeline set in the application segment element APPLSG shown in FIG. 56 (d) to the end time TTEDTM (titleTimeEnd) In this period, it is possible to determine whether the advanced application ADAPL can be executed or cannot be executed by the application activation information.
<アプリケーションブロックの言語(Language and Application Block)>
アドバンストアプリケーションADAPLが実行可能であるか、若しくは不可能であるかを判定する基準として、前記言語属性情報LANGATと前記アプリケーションブロックの属性(インデックス番号)情報APBLATとの関係を図57に示す。図57の実施形態においてタイトルのデフォルト言語を英語に設定し、図47におけるプロファイルパラメータとしてメニュー言語を英語で記録した場合を説明する(図47におけるプロファイルパラメータは図14に示すナビゲーションマネージャNMVNG内に内蔵されたメモリ領域内に保存されている)。図57に示すように同じメニュー内容を異なるメニュー言語により表示するアドバンストアプリケーションをセットとして持たす事が可能である。このように本実施形態においては、同じメニュー内容を持ちユーザに表示する時の言語が異なるアドバンストアプリケーションADAPLのセットをアプリケーションブロックと呼んでいる。同一アプリケーションブロック内においてユーザが理解出来る(理解しやすい)言語で表現されたアドバンストアプリケーションADAPLを選択的に実行(表示)させる事で、互いに異なる言語に馴染んだ複数の人に対してそれぞれ適正な形(各人に合わせた言語表現)で同一のメニュー内容を表示する事が可能となる。例えば図57においてアプリケーションブロックの属性(インデックス番号)情報APBLATの値が1(appblock = “1”)の中にはメニュー言語が英語となっているアドバンストアプリケーションADAPL #1_en(英語)とメニュー言語としてフランス語で表示されるアドバンストアプリケーションADAPL #1_fr(仏語)及びメニュー言語が日本語で表示されるアドバンストアプリケーションADAPL #1_ja(日本語)の3種類を持たせ、ユーザが理解しやすい言語に応じて最適なアドバンストアプリケーションADAPLを選択し、実行(表示)させる事が出来る。アプリケーションセグメントエレメントAPPLSGにおけるメニュー表示される言語内容は図56(d)に示す言語属性情報LANGATにより設定されている。またユーザに表示すべきメニュー言語内容はシステムパラメータにおけるメニュー言語(図47参照)の値により設定されている。同一タイトル内において前記アプリケーションブロックは複数のアプリケーションセグメントエレメントAPPLSGの組み合わせ(セット)の構造を有している。また同一アプリケーションブロック内においては前記アプリケーションセグメントエレメントAPPLSGタグ内におけるアプリケーションブロックの属性(インデックス番号)情報APBLATは同一の値で設定される。従って、各アプリケーションセグメントエレメントAPPLSGタグ内の前記アプリケーションブロックの属性(インデックス番号)情報APBLATの値を見る事により、各アプリケーションセグメントエレメントAPPLSGが、どのアプリケーションブロックに属しているかを知ることが出来る。同一の1個のアプリケーションブロック内においては、全てのアプリケーションセグメントエレメントAPPLSGは以下の条件を満足しなければならない。
<Language and Application Block>
FIG. 57 shows the relationship between the language attribute information LANGAT and the application block attribute (index number) information APBLAT as a reference for determining whether or not the advanced application ADAPL can be executed. In the embodiment of FIG. 57, the case where the default language of the title is set to English and the menu language is recorded as English as the profile parameter in FIG. 47 will be described (the profile parameter in FIG. 47 is built in the navigation manager NMVNG shown in FIG. 14). Stored in the designated memory area). As shown in FIG. 57, an advanced application that displays the same menu contents in different menu languages can be provided as a set. As described above, in this embodiment, a set of advanced applications ADAPL having the same menu contents and different languages when displayed to the user is called an application block. By selectively executing (displaying) the advanced application ADAPL expressed in a language that the user can understand (easy to understand) within the same application block, it is appropriate for multiple people who are familiar with different languages. It is possible to display the same menu contents (language expression tailored to each person). For example, in FIG. 57, the application block attribute (index number) information APBLAT has a value of 1 (appblock = “1”), the advanced application ADAPL # 1_en (English) whose menu language is English, and French as the menu language. Advanced application ADAPL # 1_fr (French) displayed in, and Advanced application ADAPL # 1_ja (Japanese) displayed in Japanese, and the advanced language that is most appropriate for the user-friendly language Application ADAPL can be selected and executed (displayed). The language content displayed in the menu in the application segment element APPLSG is set by the language attribute information LANGAT shown in FIG. 56 (d). The menu language content to be displayed to the user is set by the value of the menu language (see FIG. 47) in the system parameters. Within the same title, the application block has a combination (set) structure of a plurality of application segment elements APPLSG. In the same application block, the application block attribute (index number) information APBLAT in the application segment element APPLSG tag is set to the same value. Accordingly, by looking at the value of the attribute (index number) information APBLAT of the application block in each application segment element APPLSG tag, it is possible to know to which application block each application segment element APPLSG belongs. Within the same application block, all application segment elements APPLSG must satisfy the following conditions.
(1) 本来は図56(d)に示す言語属性情報LANGATはオプショナルな情報として設定されているが、対応するアプリケーションセグメントエレメントAPPLSGがアプリケーションブロック内に存在している場合には、前記言語属性情報LANGATは対応するアプリケーションセグメントエレメントAPPLSGタグ内に必ず記述されなくてはならない。また同一のアプリケーションブロック内に属する互いに異なるアプリケーションセグメントエレメントAPPLSG間では異なる言語属性情報LANGATの値が設定されなければならない
…すなわち同一アプリケーションブロック内において各アプリケーションセグメントエレメトAPPLSG内の言語属性情報LANGATの値をユニーク(唯一)に設定する事により、プレイリストマネージャPLMNG(図28参照)が使用可能な(実行・表示する)アプリケーションセグメントエレメントAPPLSGの選択抽出が容易となる。
(1) Originally, the language attribute information LANGAT shown in FIG. 56 (d) is set as optional information. However, if the corresponding application segment element APPLSG exists in the application block, the language attribute information LANGAT must be described in the corresponding application segment element APPLSG tag. Also, different language attribute information LANGAT values must be set between different application segment elements APPLSG belonging to the same application block. That is, the value of language attribute information LANGAT in each application segment element APPLSG within the same application block. Is set to be unique, the application segment element APPLSG that can be used (executed and displayed) by the playlist manager PLMNG (see FIG. 28) can be easily selected and extracted.
(2) 同一アプリケーションブロック内に属する別々のアプリケーションセグメントエレメントAPPLSG間での有効期間(タイトルタイムライン上の開始時間TTSTTMからタイトルタイムライン上の終了時間TTEDTMまでの時間)は全て一致しなければならない。 (2) All valid periods (time from the start time TTSTTM on the title timeline to the end time TTEDTM on the title timeline) between different application segment elements APPLSG belonging to the same application block must match.
…それにより、表示言語によらず全てのアドバンストアプリケーションADAPLのユーザへの表示期間が等しくなるため、プレイリストマネージャPLMNGのタイトルタイムラインTMLE上の時間管理が容易となる。 ... Thereby, since the display period for all the advanced applications ADAPL to the user becomes equal regardless of the display language, time management on the title timeline TMLE of the playlist manager PLMNG becomes easy.
(3) 同一アプリケーションブロック内に属する、異なる全てのアプリケーションセグメントエレメントAPPLSGタグ内のオートラン属性情報ATRNATは全て同じ値に設定しなければならない。 (3) The autorun attribute information ATRNAT in all the different application segment element APPLSG tags belonging to the same application block must be set to the same value.
…例えば図57に示すアプリケーションブロック“1”の中でアドバンストアプリケーションADAPL #1_en(英語)のオートラン属性情報ATRNATを“true”にした場合には、他の仏語および日本語に対応したアドバンストアプリケーションADAPLにおけるオートラン属性情報ATRNATの値も“true”に設定しなければならない。またアプリケーションブロック“2”に含まれるアドバンストアプリケーションADAPL #2_en(英語)のオートラン属性情報ATRNATを“false”にした場合には対応する仏語・日本語・中国語のアドバンストアプリケーションADAPLのオートラン属性情報ATRNATの設定値も“false”に設定しなければならない。 For example, in the application block “1” shown in FIG. 57, when the autorun attribute information ATRNAT of the advanced application ADAPL # 1_en (English) is set to “true”, the advanced application ADAPL corresponding to other French and Japanese The value of autorun attribute information ATRNAT must also be set to “true”. If the autorun attribute information ATRNAT of the advanced application ADAPL # 2_en (English) included in the application block “2” is set to “false”, the autorun attribute information ATRNAT of the corresponding advanced application ADAPL in French / Japanese / Chinese The setting value must also be set to “false”.
…もしアドバンストアプリケーションADAPL毎にオートラン属性情報ATRNATの値が異なると、特定言語で表示するアドバンストアプリケーションは自動的に立ち上がり、他の言語で表示するアドバンストアプリケーションでは自動的に立ち上がらずにAPIコマンドを発行しない限り実行状態に遷移しない場合にはプレイリストマネージャPLMNGの管理・制御が非常に煩雑になる。上記条件を設定する事で上記煩雑さを回避し、プレイリストマネージャPLMNGの管理・制御の簡素化を図る事が可能となる。 ... If the value of the autorun attribute information ATRNAT differs for each advanced application ADAPL, the advanced application that displays in a specific language will start up automatically, and the advanced application that displays in another language will not start up automatically and will not issue an API command As long as it does not transition to the execution state, management and control of the playlist manager PLMNG becomes very complicated. By setting the above conditions, the above complexity can be avoided, and the management and control of the playlist manager PLMNG can be simplified.
(4) アプリケーションブロック内に含まれるアプリケーションセグメントエレメントAPPLSGタグ内においてはアドバンストアプリケーショングループの属性(インデックス番号)情報APGRATの記述を省略しなければならない。 (4) The description of the advanced application group attribute (index number) information APGRAT must be omitted in the application segment element APPLSG tag included in the application block.
…前記アドバンストアプリケーショングループの属性(インデックス番号)情報APGRATはユーザオプションを含むAPIコマンドにより同時に実行状態(アクティブ)に設定できるアドバンストアプリケーションADAPLをまとめてグループしたものであり、同一ブロック内の特定のアドバンストアプリケーションADAPLをグループ化させると前記のAPIコマンドにより特定の言語メニューを持ったアプリケーションのみが起ち上がる事になり、その言語が理解出来ないユーザにとっては違和感を与える事になる。従って、本実施形態においてアプリケーションブロックに含まれるアドバンストアプリケーションADAPLとアドバンストアプリケーショングループに含まれるアドバンストアプリケーションADAPLを完全に分離する事により(同一のアドバンストアプリケーションADAPLがアプリケーションブロックとアドバンストアプリケーショングループの両方に含まれない)特定の言語のみ理解出来るユーザに対する間違った言語によるメニュー表示の誤動作を回避する事が可能となる。 ... Advanced application group attribute (index number) information APGRAT is a group of advanced applications ADAPL that can be simultaneously set to the execution state (active) by an API command including a user option, and a specific advanced application in the same block When ADAPL is grouped, only the application having a specific language menu is activated by the API command, which gives a sense of incongruity to a user who cannot understand the language. Therefore, by completely separating the advanced application ADAPL included in the application block and the advanced application ADAPL included in the advanced application group in this embodiment (the same advanced application ADAPL is not included in both the application block and the advanced application group). ) It is possible to avoid a malfunction of menu display in a wrong language for a user who can understand only a specific language.
また、本実施形態においては図56(d)に示す言語属性情報LANGATがプレイリストPLLST内に記述されている場合には、必ずアプリケーションブロックの属性(インデックス番号)情報APBLATも記述しなければならない。すなわち、図57に示すようにアドバンストアプリケーションADAPL #3_en(英語)は1個しか存在しない(日本語や仏語などのメニュー言語に対応したアドバンストアプリケーションADAPLを持たない)場合でも、アプリケーションブロック“3”の中に単独で存在するように定義している。このようにアドバンストアプリケーションADAPL内において言語コードが設定されている場合に、必ずアプリケーションブロックを構成するように設定する事によりプレイリストマネージャPLMNG(図28参照)におけるユーザが表示すべき(実行・使用すべき)アドバンストアプリケーションADAPLの選択処理を容易にしている。 In this embodiment, when the language attribute information LANGAT shown in FIG. 56 (d) is described in the playlist PLLST, the application block attribute (index number) information APBLAT must be described. That is, as shown in FIG. 57, even when there is only one advanced application ADAPL # 3_en (English) (there is no advanced application ADAPL corresponding to a menu language such as Japanese or French), the application block “3” It is defined to exist by itself. Thus, when the language code is set in the advanced application ADAPL, the user in the playlist manager PLMNG (see FIG. 28) should display (execute / use) by setting the application code so that it is always configured. Ought to make the advanced application ADAPL selection process easier.
図57の実施形態においてタイトルのデフォルト言語を英語に設定した場合には、各有効期間内においてアドバンストアプリケーションADAPL #1_en(英語)とアドバンストアプリケーションADAPL #2_en(英語)、及びアドバンストアプリケーションADAPL #3_en(英語)が実行・表示されるアプリケーションとして選択される。また、もしタイトルのデフォルト言語を日本語に設定した場合には、有効期間中においてアドバンストアプリケーションADAPL #1_ja(日本語)とアドバンストアプリケーションADAPL #2_ja(日本語)のみが実行・表示されるべきアドバンストアプリケーションとして抽出され、アドバンストアプリケーションADAPL #3_en(英語)の表示期間では、対応する日本語のメニュー言語が無い為、アドバンストアプリケーションADAPLの表示が行われないような処理となる。 In the embodiment of FIG. 57, when the default language of the title is set to English, the advanced application ADAPL # 1_en (English), the advanced application ADAPL # 2_en (English), and the advanced application ADAPL # 3_en (English) are used within the validity period. ) Is selected as the application to be executed and displayed. If the default language of the title is set to Japanese, the advanced application ADAPL # 1_ja (Japanese) and the advanced application ADAPL # 2_ja (Japanese) should be executed and displayed during the validity period. In the display period of the advanced application ADAPL # 3_en (English), since there is no corresponding Japanese menu language, the processing is performed so that the advanced application ADAPL is not displayed.
<アプリケーションアクティベーションインフォメーション(Application Activation Information)>
図56(d)に示すようにアプリケーションセグメントエレメントの属性情報APATRI内にはオプショナル属性情報として言語属性情報LANGAT、アプリケーションブロックの属性(インデックス番号)情報APBLAT、アドバンストアプリケーショングループの属性(インデックス番号)情報APGRAT、およびオートラン属性情報ATRNATの4種類の属性情報が存在している。これらの4種類の属性情報をアプリケーションアクティベーションインフォメーション(対応アプリケーションを実行状態にするか否かを設定するための判定情報)と呼ばれている。タイトルタイムラインTMLE上において前記アドバンストアプリケーションADAPLの有効期間(図56(d)に示すアプリケーションセグメントエレメントAPPLSG内で設定されたタイトルタイムライン上の開始時間TTSTTM(titleTimeBegin)から終了時間TTEDTM(titleTimeEnd)までの期間)内においては前記アプリケーションアクティベーションインフォメーションにより、前記アドバンストアプリケーションADAPLが実行可能であるか、或いは実行が不可能であるかを判定する事が出来る。前記タイトルタイムラインTMLE上での表示時間が前記アドバンストアプリケーションADAPLの有効期間内にある場合、対応するアドバンストアプリケーションADAPLが有効であるか否かを判定する基準を図58に示す。図1に示すように本実施形態における情報記憶媒体DISC内にはアドバンストコンテンツ再生部ADVPLが存在する。更に前記アドバンストコンテンツ再生部ADVPL内には図14に示すように、ナビゲーションマネージャNVMNGとプレゼンテーションエンジンPRSENが存在する。また前記ナビゲーションマネージャNVMNG内には、図28に示すようにプレイリストファイルPLLSTの内容を解析するプレイリストマネージャPLMNGとアドバンストアプリケーションADAPLの処理を制御するアドバンストアプリケーションマネージャADAMNGが存在する。始めに図56(d)に示すアプリケーションセグメントエレメントAPPLSGの内容を前記プレイリストマネージャPLMNGが解析する。図58に示すアドバンストアプリケーションADAPLの有効性判断は前記プレイリストマネージャPLMNGが行う。本実施形態においては、それに限らず他の実施形態としてプレイリストマネージャPLMNGが図56(d)に示すアプリケーションセグメントエレメントAPPLSGの内容を抽出し、その抽出した結果をアドバンストアプリケーションマネージャADAMNGに送り、アドバンストアプリケーションマネージャADAMNG内で図58に基づくアドバンストアプリケーションADAPLの有効性判別を行っても良い。ここで前記アドバンストアプリケーションADAPLの表示の無効性が判定されるとユーザに対して前記アドバンストアプリケーションADAPLの表示(及びそれに基づく実行処理)は行われない。それとは反対にプレイリストマネージャPLMNG内(またはアドバンストアプリケーションマネージャADAMNG内)で、前記アドバンストアプリケーションADAPLの有効性が判定されると、アドバンストアプリケーションマネージャADAMNGが図30に示すプレゼンテーションエンジンPRSEN内のアドバンストアプリケーションプレゼンテーションエンジンAAPENを制御し、対象の(有効と判断された)アドバンストアプリケーションADAPLの表示および実行処理が開始される。
<Application Activation Information>
As shown in FIG. 56 (d), the attribute information APATRI of the application segment element includes language attribute information LANGAT, application block attribute (index number) information APBLAT, and advanced application group attribute (index number) information APGRAT as optional attribute information. , And four types of attribute information, autorun attribute information ATRNAT, exist. These four types of attribute information are called application activation information (determination information for setting whether or not the corresponding application is to be executed). On the title timeline TMLE, the validity period of the advanced application ADAPL (from the start time TTSTTM (titleTimeBegin) on the title timeline set in the application segment element APPLSG shown in FIG. 56 (d) to the end time TTEDTM (titleTimeEnd) Within the period), it is possible to determine whether the advanced application ADAPL can be executed or cannot be executed by the application activation information. FIG. 58 shows criteria for determining whether or not the corresponding advanced application ADAPL is valid when the display time on the title timeline TMLE is within the validity period of the advanced application ADAPL. As shown in FIG. 1, an advanced content playback unit ADVPL exists in the information storage medium DISC in the present embodiment. Further, as shown in FIG. 14, a navigation manager NVMNG and a presentation engine PRSEN exist in the advanced content playback unit ADVPL. In the navigation manager NVMNG, there are a playlist manager PLMNG for analyzing the contents of the playlist file PLLST and an advanced application manager ADAMNG for controlling the processing of the advanced application ADAPL as shown in FIG. First, the playlist manager PLMNG analyzes the contents of the application segment element APPLSG shown in FIG. 56 (d). The play list manager PLMNG determines the validity of the advanced application ADAPL shown in FIG. In this embodiment, as another embodiment, the playlist manager PLMNG extracts the contents of the application segment element APPLSG shown in FIG. 56 (d), and sends the extracted result to the advanced application manager ADAMNG. The validity of the advanced application ADAPL based on FIG. 58 may be determined in the manager ADAMNG. If it is determined that the display of the advanced application ADAPL is invalid, the display of the advanced application ADAPL (and execution processing based on the display) is not performed for the user. On the contrary, when the validity of the advanced application ADAPL is determined in the playlist manager PLMNG (or in the advanced application manager ADAMNG), the advanced application manager ADAMNG determines the advanced application presentation engine in the presentation engine PRSEN shown in FIG. AAPEN is controlled, and display and execution processing of the target advanced application ADAPL (determined as valid) is started.
図58に示すように、アドバンストアプリケーションADAPLの有効性判別が開始されると、まず始めにオートラン属性情報ATRNATが“false”かどうかが判定される(ステップS91)。もし、図56(d)内に記述されているオートラン属性情報ATRNATが“false”と判定された場合には、アドバンストアプリケーションADAPLは無効とみなされ(ステップS97)、ユーザへの表示および一切の実行処理は行われず、終了に移る。但し、この状態においてもAPI(アプリケーションインタフェースコマンド)により対応するアドバンストアプリケーションADAPLを有効に変更する事が出来る。次にステップS91の判定において、オートラン属性情報ATRNATが“false”で無い場合(“true”と指定された場合)には、図56(d)内に記述されたアドバンストアプリケーショングループの属性(インデックス番号)情報APGRATが、アプリケーションセグメントエレメントAPPLSG内に記述されているか否かが判定される(ステップS92)。もし、ここでアプリケーションセグメントエレメントAPPLSG内にアドバンストアプリケーショングループの属性(インデックス番号)情報APGRATが記述されている場合には、記述されているアドバンストアプリケーショングループの属性(インデックス番号)情報APGRATが有効であるか否かが判定される(ステップS93)。ここで記載されているアドバンストアプリケーショングループの属性(インデックス番号)情報APGRATが有効である場合には、アドバンストアプリケーションADAPLは有効とみなされる(ステップS98)。この場合には対応するアドバンストアプリケーションADAPLの表示画面がユーザに表示されると共に、ユーザアクションに対応したアドバンストアプリケーションADAPLの実行処理が開始される。また、ユーザ要求に基づくAPIコマンド入力が入った場合、もしくはタイトルタイムラインTMLE上の前記アドバンストアプリケーションADAPLの有効期間からはみ出た場合には、終了になる。ここでステップS93の判定時に規定されているアドバンストアプリケーショングループの属性(インデックス番号)情報APGRATが無効の場合には、アドバンストアプリケーションADAPLは無効とみなされる(ステップS97)。但し、この場合にもユーザ入力や特定のスクリプトに基づくAPIコマンドにより有効なアプリケーショングループの選別もしくは変更が可能であり、ステップS97に示すアドバンストアプリケーションADAPLが無効とみなされた時でも、前記APIコマンドに基づく有効となるアプリケーショングループの変更処理(または別の選択処理)により、ステップS93での有効性に変更が起き、ステップS98に示すようにアドバンストアプリケーションADAPLが有効に変更される事がある。前記オートラン属性情報ATRNATとアドバンストアプリケーショングループの属性(インデックス番号)情報APGRATの判別以外で下記に示すように言語属性情報LANGATによるアドバンストアプリケーションADAPLの有効性判別が行われる。すなわち、ステップS91に基づくオートラン属性情報ATRNATが“true”であり、更にステップS92に示すアドバンストアプリケーショングループの属性(インデックス番号)情報APGRATがアプリケーションセグメントエレメントAPPLSG内に記述されていない場合、アプリケーションブロックの属性(インデックス番号)情報APBLATと言語属性情報LANGATが記述されているか否かが判定される(ステップS94)。もし、ステップS94に示すようにアプリケーションブロックの属性(インデックス番号)情報APBLATと言語属性情報LANGATが記述されている場合には、言語属性情報LANGATがメニュー言語に指定されているか否かが判定される(ステップS95)。既に情報記録再生装置1内にアドバンストコンテンツ再生部ADVPLが存在する事は説明した。前記アドバンストコンテンツ再生部ADVPL内には、システムパラメータの情報を一時保管出来るメモリ領域を持っている。前記アドバンストコンテンツ再生部ADVPL内に一時保存されているシステムパラメータのうちプロファイルパラメータの一覧表を図47に示す。図47に示すように前記プロファイルパラメータ内にメニュー言語を指定するパラメータが存在している。ステップS95で説明するメニュー言語とは、前記図47に示すプロファイルパラメータ内のメニュー言語を意味している。前記ナビゲーションマネージャNVMNG内では、前記メニュー言語で指定された言語情報と図56(d)で設定されている言語属性情報LANGATが一致しているか否かを判定し、一致しているアドバンストアプリケーションADAPLに対して有効と設定される(ステップS98)。もし、この時に言語属性情報LANGATが前記メニュー言語と一致していない場合には、タイトルエレメント内の言語属性情報LANGATがデフォルト状態の言語属性LANGATとなり、かつアプリケーションブロック内のアプリケーションセグメントエレメントAPPLSGがメニュー言語の言語属性情報LANGATを持たない場合(ステップS96)には、自動的に対応するアドバンストアプリケーションADAPLが前記プロファイルパラメータであるメニュー言語とみなされ、アドバンストアプリケーションADAPLが有効と見なされる(ステップS98)。また、そうでない場合には前記アドバンストアプリケーションADAPLは無効と見なされる(ステップS97)。またステップS94に示すようにアプリケーションブロックと言語属性情報LANGATが記述されていない場合には、自動的にアドバンストアプリケーションADAPLが無効とみなされ(ステップS97)、ユーザへの表示や実行処理を行わずに、そのまま終了へ進む。
As shown in FIG. 58, when the validity determination of the advanced application ADAPL is started, first, it is determined whether or not the autorun attribute information ATRNAT is “false” (step S91). If the autorun attribute information ATRNAT described in FIG. 56 (d) is determined to be “false”, the advanced application ADAPL is regarded as invalid (step S97), and is displayed to the user and executed at all. Processing is not performed, and the process ends. However, even in this state, the corresponding advanced application ADAPL can be effectively changed by an API (application interface command). Next, in the determination of step S91, when the autorun attribute information ATRNAT is not “false” (when “true” is specified), the attribute (index number) of the advanced application group described in FIG. It is determined whether or not the information APGRAT is described in the application segment element APPLSG (step S92). If the attribute (index number) information APGRAT of the advanced application group is described in the application segment element APPLSG here, is the attribute (index number) information APGRAT of the described advanced application group valid? It is determined whether or not (step S93). If the attribute (index number) information APGRAT of the advanced application group described here is valid, the advanced application ADAPL is regarded as valid (step S98). In this case, the display screen of the corresponding advanced application ADAPL is displayed to the user, and the execution process of the advanced application ADAPL corresponding to the user action is started. Also, when an API command input based on a user request is entered, or when the advanced application ADAPL on the title timeline TMLE is over the valid period, the processing ends. Here, when the advanced application group attribute (index number) information APGRAT defined at the time of determination in step S93 is invalid, the advanced application ADAPL is regarded as invalid (step S97). However, even in this case, it is possible to select or change an effective application group by an API command based on user input or a specific script, and even when the advanced application ADAPL shown in step S97 is considered invalid, Depending on the application group change process (or another selection process) based on the validity, the validity in step S93 may change, and the advanced application ADAPL may be effectively changed as shown in step S98. In addition to the determination of the autorun attribute information ATRNAT and the attribute (index number) information APGRAT of the advanced application group, the validity determination of the advanced application ADAPL is performed based on the language attribute information LANGAT as described below. That is, when the autorun attribute information ATRNAT based on step S91 is “true” and the advanced application group attribute (index number) information APGRAT shown in step S92 is not described in the application segment element APPLSG, the application block attribute It is determined whether (index number) information APBLAT and language attribute information LANGAT are described (step S94). If application block attribute (index number) information APBLAT and language attribute information LANGAT are described as shown in step S94, it is determined whether or not the language attribute information LANGAT is specified as the menu language. (Step S95). It has been described that the advanced content playback unit ADVPL already exists in the information recording /
プレイリストPLLST内のデータ構造としては、図23(a)に示すようにタイトル情報TTINFOが存在し、図23(b)に示すように前記タイトル情報TTINFOはタイトル毎に設定されたタイトルエレメント情報TTELEMが記述され、図23(c)に示すように1個のタイトルエレメント情報TTELEM内にはオブジェクトマッピングインフォメーションOBMAPI、リソースインフォメーションRESRCI、プレイバックシーケンスインフォメーションPLSQI、トラックナビゲーションインフォメーションTRNAVIとスケジュールドコントロールインフォメーションSCHECIが存在する。図59に前記オブジェクトマッピングインフォメーションOBMAPI内に存在するメインビデオエレメントMANVD、メインオーディオエレメントMANAD、サブタイトルエレメントSBTELE、サブビデオエレメントSUBVD及びサブオーディオエレメントSUBAD内のデータ構造を示す。 As the data structure in the playlist PLLST, there is title information TTINFO as shown in FIG. 23 (a). As shown in FIG. 23 (b), the title information TTINFO is title element information TTELEM set for each title. As shown in FIG. 23 (c), there is object mapping information OBMAPI, resource information RESRCI, playback sequence information PLSQI, track navigation information TRNAVI and scheduled control information SCHECI in one title element information TTELEM. To do. FIG. 59 shows the data structure in the main video element MANVD, main audio element MANAD, subtitle element SBTELE, sub video element SUBVD, and sub audio element SUBAD existing in the object mapping information OBMAPI.
図10に示すようにプライマリーオーディオビデオPRMAV内にはメインビデオMANVD、メインオーディオMANAD、サブビデオSUBVD、サブオーディオSUBADと副映像SUBPTを含む事が出来る。それに対応し、図59(b)に示すようにプライマリーオーディオビデオクリップエレメントPRAVCP内にはメインビデオエレメントMANVD、メインオーディオエレメントMANAD、サブタイトルエレメントSBTELE、サブビデオエレメントSUBVD及びサブオーディオエレメントSUBADの情報を記述する事が可能となっている。図59(b)では各エレメントを1個ずつ記載しているが、それに限らず例えば対応するプライマリーオーディオビデオPRMAV内にサブビデオSUBVDとサブオーディオSUBADが存在しない場合には、対応してサブビデオエレメントSUBVDとサブオーディオエレメントSUBADの記述を省く事が可能である。また、例えば同一プライマリーオーディオビデオPRMAV内に複数のメインオーディオMANADが存在する場合には、前記プライマリーオーディオビデオクリップエレメントPRAVCP内にトラック毎のメインオーディオエレメントMANADを複数記述する事が可能となる。図10に示すように本実施形態ではサブスティテュートオーディオビデオSBTAV内にはメインビデオMANVDとメインオーディオMANADを含む事が出来る。それに対応し、図59(b)に示すようにサブスティテュートオーディオビデオクリップエレメントSBAVCP内にはメインビデオエレメントMANVDとメインオーディオエレメントMANADを記述する事が可能である。更に、図10に示すようにサブスティテュートオーディオビデオSBTAVのオブジェクトの記録場所としてネットワーク経由(ネットワークサーバNTSRV)に記録されている場合には、サブスティテュートオーディオビデオクリップエレメントSBAVCP内にネットワークソースエレメントNTSELEを記述する事が可能である。同様にサブスティテュートオーディオSBTADとセカンダリーオーディオビデオSCDAVもネットワークサーバNTSRV内に記録される場合には対応してサブスティテュートオーディオクリップエレメントSBADCP及びセカンダリーオーディオビデオクリップエレメントSCAVCP内にネットワークソースエレメントNTSELEを記述する事も可能である。また、図10に示すように本実施形態ではサブスティテュートオーディオSBTAD内にメインオーディオMANADを含む事が出来、またセカンダリーオーディオビデオSCDAV内にはサブビデオSUBVDとサブオーディオSUBADを含む事が出来る。従って、それに対応してサブスティテュートオーディオクリップエレメントSBADCP内にメインオーディオエレメントMANADを記述する事が出来ると共に、セカンダリーオーディオビデオクリップエレメントSCAVCP内にサブビデオエレメントSUBVDとサブオーディオエレメントSUBADを記述する事が出来る。プライマリーオーディオビデオクリップエレメントPRAVCP内で説明したように各クリップエレメント内に複数のトラックが存在する場合にはそれぞれトラック毎に各エレメントを複数記述する。前記メインビデオエレメントMANVD内のデータ構造を図59(c)内に示し、またメインオーディオエレメントMANAD内のデータ構造を図59(d)に示す。更に、サブタイトルエレメントSBTELE内のデータ構造を図59(e)内に記述すると共にサブビデオエレメントSUBVD内のデータ構造を図59(f)に、サブオーディオエレメントSUBAD内のデータ構造を図59(g)内に説明をする。図59(c)から(g)に示す各エレメントタグ内の情報はエレメントタグの種類によらず、共通して以下の特徴を持っている。 As shown in FIG. 10, the primary audio video PRMAV can include main video MANVD, main audio MANAD, sub video SUBVD, sub audio SUBAD, and sub video SUBPT. Correspondingly, information of the main video element MANVD, main audio element MANAD, subtitle element SBTELE, sub video element SUBVD, and sub audio element SUBAD is described in the primary audio video clip element PRAVCP as shown in FIG. 59 (b). Things are possible. In FIG. 59 (b), each element is described one by one. However, the present invention is not limited to this. For example, when the sub video SUBVD and the sub audio SUBAD do not exist in the corresponding primary audio video PRMAV, the corresponding sub video element is displayed. It is possible to omit the description of SUBVD and sub audio element SUBAD. For example, when a plurality of main audio MANADs exist in the same primary audio video PRMAV, a plurality of main audio elements MANAD for each track can be described in the primary audio video clip element PRAVCP. As shown in FIG. 10, in the present embodiment, the substitute audio video SBTAV can include a main video MANVD and a main audio MANAD. Correspondingly, the main video element MANVD and the main audio element MANAD can be described in the substitute audio video clip element SBAVCP as shown in FIG. 59 (b). Furthermore, as shown in FIG. 10, in the case where the substitute audio video SBTAV object is recorded via the network (network server NTSRV), the network source element NTSELE is described in the substitute audio video clip element SBAVCP. It is possible to do. Similarly, when the substitute audio SBTAD and the secondary audio video SCDAV are recorded in the network server NTSRV, the network source element NTSELE may be described in the substitute audio clip element SBADCP and the secondary audio video clip element SCAVCP. Is possible. Also, as shown in FIG. 10, in this embodiment, the main audio MANAD can be included in the substitute audio SBTAD, and the sub video SUBVD and the sub audio SUBAD can be included in the secondary audio video SCDAV. Accordingly, the main audio element MANAD can be described in the substitute audio clip element SBADCP and the sub video element SUBVD and the sub audio element SUBAD can be described in the secondary audio video clip element SCAVCP. As described in the primary audio video clip element PRAVCP, when there are a plurality of tracks in each clip element, a plurality of each element is described for each track. The data structure in the main video element MANVD is shown in FIG. 59 (c), and the data structure in the main audio element MANAD is shown in FIG. 59 (d). Further, the data structure in the subtitle element SBTELE is described in FIG. 59 (e), the data structure in the sub video element SUBVD is shown in FIG. 59 (f), and the data structure in the sub audio element SUBAD is shown in FIG. 59 (g). The explanation is in the inside. The information in each element tag shown in FIGS. 59 (c) to (g) has the following characteristics in common regardless of the type of element tag.
(1) “track = [トラック番号TRCKAT]”は各エレメントタグ内の最初に記述されている。トラック番号を各エレメントタグ内の最初に記述する事により、エレメントタグ毎のトラック番号の識別が容易になると共に高速に識別する事が可能となる。 (1) “track = [track number TRCKAT]” is described first in each element tag. By describing the track number first in each element tag, the track number for each element tag can be easily identified and identified at high speed.
(2) 各エレメントタグ内に共通して最後に“description = [付加情報]”が記述(配置)される。(図54から図56に示すように各クリップエレメント内でも前記“description = [付加情報]”が一番最後に記述されており、各エレメントタグ内での配置の共通化が図れる。このように“description = [付加情報]”の配置位置が共通化されているため、図28に示すようにナビゲーションマネージャNVMNG内のプレイリストマネージャPLMNGにおいて“description = [付加情報]”の場所抽出が容易となり、プレイリストPLLST内のデータ解析の容易化と高速化が図れる。 (2) “description = [additional information]” is described (arranged) at the end in common in each element tag. (As shown in FIGS. 54 to 56, the “description = [additional information]” is described last in each clip element, and the arrangement in each element tag can be shared.) Since the arrangement position of “description = [additional information]” is made common, the location of “description = [additional information]” can be easily extracted in the playlist manager PLMNG in the navigation manager NVMNG as shown in FIG. Data analysis in the playlist PLLST can be facilitated and speeded up.
(3) 前記トラック番号情報TRCKATと付加情報の情報が記述されている間に“mediaAttr = [メディア属性情報内の対応したメディア属性エレメントのインデックス番号MDATNM]”が記述(配置)される。 (3) While the track number information TRCKAT and the additional information information are described, “mediaAttr = [index number MDATNM of the corresponding media attribute element in the media attribute information]” is described (arranged).
(4) 前記トラック番号情報TRCKATとメディア属性情報内の対応したメディア属性エレメントのインデックス番号MDATNMとの間に“streamNumber = [ストリーム番号]”または“angleNumber = [アングル番号情報ANGLNM]”が記述(配置)される。 (4) “streamNumber = [stream number]” or “angleNumber = [angle number information ANGLNM]” is described (arranged) between the track number information TRCKAT and the index number MDATNM of the corresponding media attribute element in the media attribute information. )
前記(3)と(4)に示したようなデータ配置の共通化を図る事により、前記プレイリストマネージャPLMNGによる各エレメントタグ内での関連情報検索の容易化と高速化を図る事が出来る。以下に各オブジェクトエレメント内のデータ構造の説明を行う。 By sharing the data arrangement as shown in the above (3) and (4), it is possible to facilitate and speed up the related information search in each element tag by the playlist manager PLMNG. The data structure in each object element will be described below.
<ビデオエレメント(Video Element)>
まず始めにメインビデオエレメントMANVD内のデータ構造の説明を行う。プライマリーエンハンストビデオオブジェクトP-EVOB内に存在するメインビデオパックVM_PCKにおけるメインビデオMANVDストリーム毎に設定されるビデオトラック番号に関する情報が前記メインビデオエレメントMANVD内に記載される。本実施形態において前記メインビデオエレメントMANVDはプライマリーオーディオビデオクリップエレメントPRAVCPとサブスティテュートオーディオビデオクリップエレメントSBAVCP内に記述する事が出来る。プライマリーエンハンストビデオオブジェクトP-EVOBのインターリーブドブロックを参照しているプライマリーオーディオビデオクリップエレメントPRAVCP内に前記メインビデオエレメントMANVDが存在している場合には、前記メインビデオエレメントMANVDはインターリーブドブロック内にプライマリーエンハンストビデオオブジェクトが存在する事を示されている。また同時に前記メインビデオエレメントMANVD内にはプライマリーエンハンストビデオオブジェクトP-EVOB内のメインビデオMANVDに対するビデオトラック番号の設定情報が記述されている。前記プライマリーエンハンストビデオオブジェクトP-EVOBがインターリーブドブロックを形成していない場合には、プライマリーエンハンストビデオオブジェクトP-EVOB内のメインビデオMANVDが単独で存在し、前記メインビデオMANVDのトラック番号は“1”と設定される。図59(c)で記述されたトラック番号情報TRCKATの情報は対応するメインビデオエレメントMANVDが指定しているビデオトラック番号の情報を意味している。本実施形態においては、ビデオトラック番号は1から9までのいずれかの正数に設定しなくてはならない。前記トラック番号情報TRCKATの値は、トラックナビゲーションインフォメーションTRNAVIのビデオトラックエレメントVDTRKタグ内におけるビデオトラック番号VDTKNM(図62(d)参照)に対応している。すなわちトラックナンバーアサイメントインフォメーション(オブジェクトマッピングインフォメーションOBMAPI)におけるメインビデオエレメントMANVDタグ内に記述したメインビデオMANVDの属性情報やアングル番号情報とトラックナビゲーションインフォメーションTRNAVIにおけるビデオトラックエレメントVDTRKタグ内に記述したユーザ選択可否情報との間の関係は、一致した値を持つトラック番号情報TRCKATとビデオトラック番号VDTKNMを介して知る事が出来る。図59(c)に示すインターリーブドブロック内で選択されるアングル番号情報ANGLNMは、インターリーブドブロック内にプライマリーエンハンストビデオオブジェクトデータP-EVOBが存在している事を示している。また前記インターリーブドブロック内で選択されるアングル番号情報ANGLNMにより、対応する表示クリップがプライマリーエンハンストビデオオブジェクトP-EVOBのインターリーブドブロックを参照する場合には、表示するビデオトラック番号の選択するための情報として利用される。すなわち、インターリーブドブロック内にプライマリーエンハンストビデオオブジェクトP-EVOBが存在している場合に、メインビデオストリーム毎にトラック番号情報TRCKATと同時にインターリーブドブロック内で選択されるアングル番号情報ANGLNMを設定する事により、プレーヤがユーザ要求に応じてユーザに表示するアングルの選択が容易となる。もし対応するメインビデオMANVDがインターリーブドブロック内に存在しない場合には前記インターリーブドブロック内で選択されるアングル番号情報ANGLNM(angleNumber属性情報)の記載が省略される。前記メインビデオエレメントMANVDがプライマリーオーディオビデオクリップエレメントPRAVCP内に記述されている場合には前記インターリーブドブロック内で選択されるアングル番号情報ANGLNMは最大“9”まで設定する事が出来る。また、前記メインビデオエレメントMANVDがサブスティテュートオーディオクリップエレメントSBADCP内に記述されている場合には前記インターリーブドブロック内で選択されるアングル番号情報ANGLNMの値は“1”として設定される。本実施形態においては前記インターリーブドブロック内で選択されるアングル番号情報ANGLNMの値のデフォルト値は“1”として設定される。図59(c)に示すメディア属性情報内の対応したメディア属性エレメントのインデックス番号MDATNMは対応するメインビデオストリームに対するメディア属性情報MDATRIのメディア属性インデックス番号の値を示している。図79(a)に示すようにプレイリストPLLST内にメディア属性情報MDATRIが存在し、図79(b)に示すように前記メディア属性情報MDATRI内にビデオに対するビデオアトリビュートアイテムエレメントVABITMが記述されている。図59(b)に示すようにメインビデオエレメントMANVDとサブビデオエレメントSUBVDにおける解像度や画面表示サイズなどの属性が全て共通の場合には、図79(b)に示すようにメディア属性情報MDATRI内に1個のビデオアトリビュートアイテムエレメントVABITMが存在し、全てのメディア属性情報内の対応したメディア属性エレメントのインデックス番号MDATNMの値が“1”と設定され、共通な属性情報が参照される。それに対し、各メインビデオエレメントMANVDとサブビデオエレメントSUBVDの解像度や表示画面サイズなどの属性情報が互いに異なり、複数の属性情報をそれぞれ参照する場合には図79(b)内においてはそれぞれの各属性情報に応じた複数のビデオアトリビュートアイテムエレメントVABITMが記述され、前記複数のビデオアトリビュートアイテムエレメントVABITM内の何番目のビデオアトリビュートアイテムエレメントVABITMが対応するかの番号が図59(c)に示すメディア属性情報内の対応したメディア属性エレメントのインデックス番号MDATNMに記述される。このように本実施形態においてプレイリストPLLST内に記載される情報としてオブジェクトマッピングインフォメーションOBMAPIが記述されるタイトル情報TTINFOと異なる領域にメディア属性情報MDATRIをまとめて記述させる事により、ビデオエレメント毎の属性検索が容易になるばかりで無く、共通したビデオ属性情報を異なるビデオエレメント間で参照する事によりプレイリストPLLST内に記載されるデータ量を減らす事が可能となる。本実施形態においては前記メディア属性情報内の対応したメディア属性エレメントのインデックス番号MDATNMの記載を省く事が出来る。その場合にはデフォルト値である“1”の値が自動設定される。図59(c)に示すようにメインビデオエレメントタグ内の最後にビデオエレメントに関する付加情報は人が馴染みの深いテキストフォーマットで記述される。前記ビデオエレメントに関する付加情報はメインビデオエレメントタグ内での記載を省く事が可能となる。
<Video Element>
First, the data structure in the main video element MANVD will be described. Information on the video track number set for each main video MANVD stream in the main video pack VM_PCK existing in the primary enhanced video object P-EVOB is described in the main video element MANVD. In the present embodiment, the main video element MANVD can be described in a primary audio video clip element PRAVCP and a substitute audio video clip element SBAVCP. If the main video element MANVD exists in the primary audio video clip element PRAVCP referring to the interleaved block of the primary enhanced video object P-EVOB, the main video element MANVD is primary in the interleaved block. It is shown that an enhanced video object exists. At the same time, in the main video element MANVD, video track number setting information for the main video MANVD in the primary enhanced video object P-EVOB is described. When the primary enhanced video object P-EVOB does not form an interleaved block, the main video MANVD in the primary enhanced video object P-EVOB exists alone, and the track number of the main video MANVD is “1”. Is set. The information of the track number information TRCKAT described in FIG. 59 (c) means the information of the video track number designated by the corresponding main video element MANVD. In the present embodiment, the video track number must be set to any positive number from 1 to 9. The value of the track number information TRCKAT corresponds to the video track number VDTKNM (see FIG. 62 (d)) in the video track element VDTRK tag of the track navigation information TRNAVI. That is, the user selectability described in the video track element VDTRK tag of the main video MANVD attribute information and angle number information described in the main video element MANVD tag in the track number assignment information (object mapping information OBMAPI) and the track navigation information TRNAVI The relationship between the information can be known through the track number information TRCKAT and the video track number VDTKNM having the matched values. Angle number information ANGLNM selected in the interleaved block shown in FIG. 59 (c) indicates that primary enhanced video object data P-EVOB exists in the interleaved block. In addition, when the corresponding display clip refers to the interleaved block of the primary enhanced video object P-EVOB according to the angle number information ANGLNM selected in the interleaved block, information for selecting the video track number to be displayed. Used as That is, when the primary enhanced video object P-EVOB exists in the interleaved block, the angle number information ANGLNM selected in the interleaved block is set simultaneously with the track number information TRCKAT for each main video stream. The player can easily select the angle displayed to the user in response to the user request. If the corresponding main video MANVD does not exist in the interleaved block, the description of the angle number information ANGLNM (angleNumber attribute information) selected in the interleaved block is omitted. When the main video element MANVD is described in the primary audio video clip element PRAVCP, the angle number information ANGLNM selected in the interleaved block can be set to a maximum of “9”. When the main video element MANVD is described in the substitute audio clip element SBADCP, the value of the angle number information ANGLNM selected in the interleaved block is set as “1”. In the present embodiment, the default value of the angle number information ANGLNM selected in the interleaved block is set as “1”. The index number MDATNM of the corresponding media attribute element in the media attribute information shown in FIG. 59 (c) indicates the value of the media attribute index number of the media attribute information MDATRI for the corresponding main video stream. As shown in FIG. 79 (a), media attribute information MDATRI exists in the playlist PLLST, and as shown in FIG. 79 (b), video attribute item elements VABITM for video are described in the media attribute information MDATRI. . As shown in FIG. 59 (b), when the attributes such as the resolution and the screen display size are common in the main video element MANVD and the sub video element SUBVD, the media attribute information MDATRI as shown in FIG. 79 (b). There is one video attribute item element VABITM, and the value of the index number MDATNM of the corresponding media attribute element in all media attribute information is set to “1”, and common attribute information is referred to. On the other hand, the attribute information such as the resolution and display screen size of the main video element MANVD and the sub video element SUBVD are different from each other, and when referring to a plurality of attribute information, the respective attributes are shown in FIG. A plurality of video attribute item elements VABITM corresponding to the information are described, and the media attribute information shown in FIG. 59 (c) is the number of the video attribute item element VABITM corresponding to the video attribute item element VABITM in the plurality of video attribute item elements VABITM. In the corresponding media attribute element index number MDATNM. As described above, the attribute search for each video element is performed by causing the media attribute information MDATRI to be described collectively in a different area from the title information TTINFO in which the object mapping information OBMAPI is described as information described in the playlist PLLST in the present embodiment. This makes it possible to reduce the amount of data described in the playlist PLLST by referring to common video attribute information between different video elements. In this embodiment, the description of the index number MDATNM of the corresponding media attribute element in the media attribute information can be omitted. In this case, the default value “1” is automatically set. As shown in FIG. 59 (c), at the end of the main video element tag, additional information related to the video element is described in a text format familiar to humans. The additional information regarding the video element can be omitted from the main video element tag.
<オーディオエレメント(Audio Element)>
次に図59(d)に示すメインオーディオエレメントMANAD内のデータ構造について以下に説明を行う。メインオーディオエレメントMANADはプライマリーエンハンストビデオオブジェクトP-EVOBのメインオーディオパックAM_PCK内におけるメインオーディオストリームのオーディオトラック番号設定についての情報もしくはセカンダリーエンハンストビデオオブジェクトS-EVOBのメインオーディオパックAM_PCK内のメインオーディオストリームに関するオーディオトラック番号設定に関する情報が記載されている。プライマリーオーディオビデオクリップエレメントPRAVCP及びサブスティテュートオーディオクリップエレメントSBADCP内におけるオーディオエレメントのリストにより、プライマリーエンハンストビデオオブジェクトP-EVOBとセカンダリーエンハンストビデオオブジェクトS-EVOB内における存在しうる(使用可能な)オーディオトラックの情報がそれぞれ記載される。すなわち、例えば対応するオーディオストリームにおいてオーディオトラックが3トラック存在する場合にはプライマリーオーディオビデオクリップエレメントPRAVCP内に1から3までの各トラック番号が設定された3個のメインオーディオエレメントMANADが記述される。前記メインオーディオエレメントMANADは各オーディオトラック番号から対応するメインオーディオストリームMANADへ変換される情報が記述されている。すなわち図59(d)に示すようにメインオーディオMANAD毎のトラック番号情報TRCKATから、それに対応するオーディオパックのオーディオストリーム番号ADSTRNの対応関係を抽出する事が出来る。指定されたトラック番号から対応するオーディオストリーム番号ADSTRNを抽出する事により、エンハンストビデオオブジェクトEVOB内に設定されたオーディオストリーム番号ADSTRNの情報を用いて、再生必要なメインオーディオストリームMANADを抽出する事が可能となる。図59(d)に示すtrack属性情報はトラック番号情報TRCKATを示す。本実施形態において、トラック番号情報TRCKATの値として1から8までの正数値を記述する事が出来る。すなわち、本実施形態においてはメインオーディオMANADとして最大8トラックまで情報を記録する事が可能となる。前記トラック番号情報TRCKATの値は、トラックナビゲーションインフォメーションTRNAVIのオーディオトラックエレメントADTRKタグ内におけるオーディオトラック番号ADTKNM(図62(d)参照)に対応している。すなわちトラックナンバーアサイメントインフォメーション(オブジェクトマッピングインフォメーションOBMAPI)におけるメインオーディオエレメントMANADタグ内に記述したメインオーディオMANADの属性情報やオーディオストリーム番号情報とトラックナビゲーションインフォメーションTRNAVIにおけるオーディオトラックエレメントADTRKタグ内に記述したユーザ選択可否情報や言語コード情報との間の関係は、一致した値を持つトラック番号情報TRCKATとオーディオトラック番号ADTKNMを介して知る事が出来る。また、プライマリーエンハンストビデオオブジェクトP-EVOBまたはセカンダリーエンハンストビデオオブジェクトS-EVOBのメインオーディオパックAM_PCK内のオーディオストリームはそれぞれ別々のオーディオトラック番号が設定されており、上記トラック番号に対応したオーディオパックのオーディオストリーム番号ADSTRNの情報が前記対応関係を表している。前記トラック番号に対応したオーディオパックのオーディオストリーム番号ADSTRNの値はオーディオストリームのID番号に“1”を加算した値が設定される。LineatPCM、DD+、DTS-HD、またはMLPにおいてはオーディオストリームIDの値はサブストリームIDの意味のある下位3bitで表される。またMPEG1オーディオ、或いはMPEG2オーディオにおいてはオーディオストリームIDの値はパケットヘッダー内のストリームIDの意味のある(有効な)下位3bitで定義される。本実施形態において、オーディオストリーム番号ADSTRNの値は1から8までの正数で設定される。前記オーディオストリーム番号ADSTRNのデフォルト値は“1”として設定される。図59(d)に示すメディア属性情報内の対応したメディア属性エレメントのインデックス番号MDATNMはオーディオストリームに対応したメディア属性情報MDATRIのメディア属性インデックス番号を表す。前記オーディオストリームに対応したメディア属性情報MDATRIは図79(b)に示すようにプレイリストPLLST内のメディア属性情報MDATRI内のオーディオアトリビュートアイテムエレメントAABITM内に記載される。図59(b)に示すようにオブジェクトマッピングインフォメーションOBMAPI内のメインオーディオエレメントMANADとサブオーディオエレメントSUBADのオーディオの圧縮コードやサンプリング周波数量子化ビット数などのオーディオ属性情報が全て一致する場合には図79(b)内には1個の共通したオーディオアトリビュートアイテムエレメントAABITMが記述される。また逆に図59に示すメインオーディオエレメントMANADとサブオーディオエレメントSUBAD内にそれぞれ異なる圧縮コード情報やオーディオのサンプリング周波数などの属性情報がそれぞれ複数異なる情報が設定されている場合には、図79(b)にはその異なるオーディオ属性数に応じた数のオーディオアトリビュートアイテムエレメントAABITMが記述される。複数のオーディオアトリビュートアイテムエレメントAABITMが記述された場合には、どのオーディオアトリビュートアイテムエレメントAABITMに対応するかを指定する必要が有るので、前記オーディオアトリビュートアイテムエレメントAABITM内に記述されたメディアインデックス番号情報INDEXを指定する事により各メインオーディオエレメントMANADまたはサブオーディオエレメントSUBADに対応したオーディオアトリビュートアイテムエレメントAABITMを対応づける事が可能となる。このようにオブジェクトマッピングインフォメーションOBMAPIが記述されているタイトル情報TTINFOと異なる場所にオーディオアトリビュートアイテムエレメントAABITMをまとめて記載したメディア属性情報MDATRIの場所を設定する事により、オーディオ情報再生時におけるオーディオデコーダーの設定・管理を容易にすると共に、共通の属性情報を持ったオーディオアトリビュートアイテムエレメントAABITMを共有させる事により、プレイリストPLLST内の記載情報量を少なく出来るという効果がある。図59(d)に示すオーディオエレメントに関する付加情報は人が馴染み深いテキストフォーマットで記述されている。前記オーディオエレメントに関する付加情報はメインオーディオエレメントMANADタグ内で記載を省く事が出来る。
<Audio Element>
Next, the data structure in the main audio element MANAD shown in FIG. 59 (d) will be described below. The main audio element MANAD is information on the audio track number setting of the main audio stream in the main audio pack AM_PCK of the primary enhanced video object P-EVOB or the audio related to the main audio stream in the main audio pack AM_PCK of the secondary enhanced video object S-EVOB. Contains information on track number settings. Information of audio tracks that can exist (can be used) in the primary enhanced video object P-EVOB and the secondary enhanced video object S-EVOB according to the list of audio elements in the primary audio video clip element PRAVCP and the substitute audio clip element SBADCP. Are described respectively. That is, for example, when there are three audio tracks in the corresponding audio stream, three main audio elements MANAD having
<サブタイトルエレメント(Subtitle Element)>
プライマリーオーディオビデオクリップエレメントPRAVCP内にサブタイトルエレメントSBTELEが存在する場合には、前記サブタイトルエレメントSBTELEはサブタイトルトラック番号からプライマリーエンハンストビデオオブジェクトデータP-EVOB内の副映像ストリームへの変換情報が前記サブタイトルエレメントSBTELE情報内に記述されている。すなわち図59(e)内にサブタイトルのトラック番号情報TRCKATと上記トラック番号に対応した副映像パックの副映像ストリーム番号SPSTRNの対応情報が記述されているので、前記対応情報を利用して指定された副映像のトラック番号情報TRCKATから副映像パックの副映像ストリーム番号SPSTRNの情報を知る事が出来る。もしアドバンストサブタイトルセグメントエレメントADSTSG内に前記サブタイトルエレメントSBTELEが存在した場合には、対応するアドバンストサブタイトルのセグメントが指定されたサブタイトルトラック番号に設定されている設定情報が前記サブタイトルエレメントSBTELE内に記述される。図59(e)に示すサブタイトルのトラック番号情報TRCKATはサブタイトルのトラック番号を意味し、本実施形態において前記サブタイトルトラック番号は1から32までの正数値を設定する事が出来る。すなわち本実施形態においてのサブタイトルとしては32個までのトラックを同時に設定する事が可能となる。前記トラック番号情報TRCKATの値は、トラックナビゲーションインフォメーションTRNAVIのサブタイトルトラックエレメントSBTRELタグ内におけるサブタイトルトラック番号STTKNM(図62(d)参照)に対応している。すなわちトラックナンバーアサイメントインフォメーション(オブジェクトマッピングインフォメーションOBMAPI)におけるサブタイトルエレメントSBTELEタグ内に記述した属性情報や副映像ストリーム番号情報とトラックナビゲーションインフォメーションTRNAVIにおけるサブタイトルトラックエレメントSBTRELタグ内に記述したユーザ選択可否情報や言語コード情報との間の関係は、一致した値を持つトラック番号情報TRCKATとサブタイトルトラック番号STTKNMを介して知る事が出来る。前記サブタイトルエレメントSBTELEがプライマリーオーディオビデオクリップエレメントPRAVCP内に存在する場合には、上記トラック番号に対応した副映像パックの副映像ストリーム番号SPSTRNの値はサブストリーム番号に“1”を加えた値が設定される。エンハンストビデオオブジェクトのサブピクチャーストリーム属性情報EVOB_SPST_ATTRを利用する事で、前記サブピクチャーストリーム番号はディスプレイタイプ毎にデコードされるストリーム番号に変換されなければならない。また前記デコーディングストリーム番号はプライマリーエンハンストビデオオブジェクトデータP-EVOB内の副映像パックSP_PCKと1対1に対応付けられる。本実施形態において前記副映像パックの副映像ストリーム番号SPSTRNは、1から32までの正数値として指定されなければならない。本実施形態においてアドバンストサブタイトルADSBTの情報は副映像パックSP_PCK内に保存されるようなマルチプレクストパッキング形態を取らない。従って副映像パックの副映像ストリーム番号SPSTRNの規定が不可能となる。そのためサブタイトルエレメントSBTELEがアドバンストサブタイトルセグメントエレメントADSTSG内に記述されている場合には、前記副映像パックの副映像ストリーム番号SPSTRNの記載は前記サブタイトルエレメントSBTELEタグ内から省かれる。前記サブタイトルエレメントSBTELEタグ内に前記副映像パックの副映像ストリーム番号SPSTRNの記述が省かれた場合にはデフォルト値である“1”が自動的に設定される。図79(b)に示すようにプレイリストPLLST内のメディア属性情報MDATRI内にサブピクチャーアトリビュートアイテムエレメントSPAITMが存在する。もし、メディア属性情報MDATRI内に複数のサブピクチャーアトリビュートアイテムエレメントSPAITMが存在する場合には、それぞれ異なるサブピクチャーの圧縮コード情報SPCDCに対応した個々のメディアインデックス番号情報INDEXが図79(e)に示すように組となって記述される。図79(b)に示すメディアインデックス番号情報INDEXを図59(e)に記載されたメディア属性情報内の対応したメディア属性エレメントのインデックス番号MDATNMで指定する事により、対応するサブピクチャーの圧縮コード情報SPCDCの対応を取る事が可能となる。このようにメディア属性情報内の対応したメディア属性エレメントのインデックス番号MDATNM情報は副映像ストリームに対するメディア属性情報のインデックス番号を指定している。本実施形態において前記サブタイトルエレメントSBTELE内でのメディア属性情報内の対応したメディア属性エレメントのインデックス番号MDATNMの情報記載を省く事が可能となる。その場合にはデフォルト値である“1”の値が自動的に設定される。アドバンストサブタイトルADSBTにおいては前記サブピクチャーの圧縮コード情報SPCDCの情報は意味を持たない。従って、前記サブタイトルエレメントSBTELEがアドバンストサブタイトルセグメントエレメントADSTSG内に記述されている場合には、前記メディア属性情報内の対応したメディア属性エレメントのインデックス番号MDATNMの値は無視されなければならない。図59(e)に示すサブタイトルエレメントSBTELEに関する付加情報は人に馴染みの深いテキストフォーマットで記述され、前記付加情報は前記サブタイトルエレメントSBTELEタグ内での記述を省く事が可能となる。
<Subtitle Element>
When the subtitle element SBTELE is present in the primary audio video clip element PRAVCP, the subtitle element SBTELE is converted from the subtitle track number to the sub video stream in the primary enhanced video object data P-EVOB. It is described in. That is, since the correspondence information of the subtitle track number information TRCKAT and the sub-picture stream number SPSTRN of the sub-picture pack corresponding to the track number is described in FIG. 59 (e), it is designated using the correspondence information. The sub-picture stream number SPSTRN information of the sub-picture pack can be known from the sub-picture track number information TRCKAT. If the subtitle element SBTELE exists in the advanced subtitle segment element ADSTSG, the setting information in which the corresponding advanced subtitle segment is set to the designated subtitle track number is described in the subtitle element SBTELE. The subtitle track number information TRCKAT shown in FIG. 59 (e) means the subtitle track number. In this embodiment, the subtitle track number can be set to a positive value from 1 to 32. That is, it is possible to set up to 32 tracks simultaneously as subtitles in this embodiment. The value of the track number information TRCKAT corresponds to the subtitle track number STTKNM (see FIG. 62 (d)) in the subtitle track element SBTREL tag of the track navigation information TRNAVI. That is, attribute information and sub-picture stream number information described in the subtitle element SBTELE tag in the track number assignment information (object mapping information OBMAPI) and user selectability information and language described in the subtitle track element SBTREL tag in the track navigation information TRNAVI The relationship between the chord information can be known through the track number information TRCKAT and the subtitle track number STTKNM having the matched values. When the subtitle element SBTELE exists in the primary audio video clip element PRAVCP, the value of the sub video stream number SPSTRN of the sub video pack corresponding to the track number is set to a value obtained by adding “1” to the sub stream number. Is done. By using the sub picture stream attribute information EVOB_SPST_ATTR of the enhanced video object, the sub picture stream number must be converted into a stream number that is decoded for each display type. The decoding stream number is associated with the sub-picture pack SP_PCK in the primary enhanced video object data P-EVOB on a one-to-one basis. In this embodiment, the sub-picture stream number SPSTRN of the sub-picture pack must be specified as a positive value from 1 to 32. In the present embodiment, the information of the advanced subtitle ADSBT does not take a multiplexed packing form as stored in the sub-picture pack SP_PCK. Therefore, it is impossible to define the sub-picture stream number SPSTRN of the sub-picture pack. Therefore, when the subtitle element SBTELE is described in the advanced subtitle segment element ADSTSG, the description of the sub video stream number SPSTRN of the sub video pack is omitted from the sub title element SBTELE tag. When the description of the sub-picture stream number SPSTRN of the sub-picture pack is omitted in the subtitle element SBTELE tag, the default value “1” is automatically set. As shown in FIG. 79 (b), the sub-picture attribute item element SPATM is present in the media attribute information MDATRI in the playlist PLLST. If there are a plurality of sub-picture attribute item elements SPAITM in the media attribute information MDATRI, individual media index number information INDEX corresponding to the compression code information SPCDC of different sub-pictures is shown in FIG. 79 (e). Are described as a pair. By specifying the media index number information INDEX shown in FIG. 79 (b) with the index number MDATNM of the corresponding media attribute element in the media attribute information shown in FIG. 59 (e), the compression code information of the corresponding subpicture It becomes possible to take measures of SPCDC. Thus, the corresponding media attribute element index number MDATNM information in the media attribute information designates the index number of the media attribute information for the sub-picture stream. In this embodiment, it is possible to omit the information description of the index number MDATNM of the corresponding media attribute element in the media attribute information in the subtitle element SBTELE. In this case, the default value “1” is automatically set. In the advanced subtitle ADSBT, the information of the compression code information SPCDC of the sub picture has no meaning. Therefore, when the subtitle element SBTELE is described in the advanced subtitle segment element ADSTSG, the value of the index number MDATNM of the corresponding media attribute element in the media attribute information must be ignored. The additional information related to the subtitle element SBTELE shown in FIG. 59 (e) is described in a text format familiar to people, and the additional information can omit the description in the subtitle element SBTELE tag.
<サブビデオエレメント(Subvideo Element)>
更に図59(f)に示すサブビデオエレメントSUBVDタグ内のデータ構造の説明を行う。前記サブビデオエレメントSUBVDはプライマリーエンハンストビデオオブジェクトデータP-EVOBのサブビデオパックVS_PCKにおけるサブビデオストリームに対応し、各サブビデオストリーム毎にサブビデオトラック番号設定情報が記載されている。またはセカンダリーエンハンストビデオオブジェクトデータS-EVOBのセカンダリービデオパックVS_PCK内に記録されたサブストリームのサブビデオトラック番号の設定情報を前記サブビデオエレメントSUBVD内に記述する事ができる。プライマリーオーディオビデオクリップエレメントPRAVCP内に前記サブビデオエレメントSUBVDの記載が有る場合には、プライマリーエンハンストビデオオブジェクトデータP-EVOBのセカンダリービデオパックVS_PCK内にサブビデオとしてサブビデオストリームが存在する(再生可能である)事を意味している。それとは異なる他の場合、すなわち前記プライマリーオーディオビデオクリップエレメントPRAVCP内にサブビデオエレメントSUBVDが存在しない場合には、セカンダリービデオパックVS_PCKの形でサブビデオストリームが記録されていない事になる。もし、セカンダリーオーディオビデオクリップエレメントSCAVCP内に前記サブビデオエレメントSUBVDが存在する場合には、サブビデオとしてセカンダリーエンハンストビデオオブジェクトデータS-EVOBのセカンダリービデオパックVS_PCK内にサブビデオストリームが存在する(使用可能である)事を意味する。それ以外の前記セカンダリーオーディオビデオクリップエレメントSCAVCP内にサブビデオエレメントSUBVDの記述が無い場合には、セカンダリービデオパックVS_PCKの形でサブビデオストリームが存在していない事になる。図59(f)に示すトラック番号情報TRCKATはサブビデオトラック番号を示すが、本実施形態においてサブビデオトラックは複数持つ事を禁止しているので前記トラック番号情報TRCKATは常に“1”と設定しなければならない。図59(f)に示すメディア属性情報内の対応したメディア属性エレメントのインデックス番号MDATNMは図79(d)に記載されたビデオアトリビュートアイテムエレメントVABITM内のメディアインデックス番号情報INDEXの情報が記載され、それにより対応するサブビデオの圧縮コード、アスペクト比、解像度、及び表示画面サイズなどの情報を指定する事が可能となる。図59(f)に示すサブビデオエレメントに関する付加情報は人に馴染みの深いテキストフォーマットで記述され、前記情報をサブビデオエレメントSUBVDタグ内での記述を省く事が可能となる。
<Subvideo Element>
Further, the data structure in the sub video element SUBVD tag shown in FIG. 59 (f) will be described. The sub video element SUBVD corresponds to a sub video stream in the sub video pack VS_PCK of the primary enhanced video object data P-EVOB, and sub video track number setting information is described for each sub video stream. Alternatively, the setting information of the sub video track number of the sub stream recorded in the secondary video pack VS_PCK of the secondary enhanced video object data S-EVOB can be described in the sub video element SUBVD. When the sub video element SUBVD is described in the primary audio video clip element PRAVCP, a sub video stream exists as a sub video in the secondary video pack VS_PCK of the primary enhanced video object data P-EVOB (can be played back). ) Means that. In other cases, that is, when the sub video element SUBVD does not exist in the primary audio video clip element PRAVCP, the sub video stream is not recorded in the form of the secondary video pack VS_PCK. If the sub video element SUBVD exists in the secondary audio video clip element SCAVCP, a sub video stream exists as a sub video in the secondary video pack VS_PCK of the secondary enhanced video object data S-EVOB (can be used). It means) If there is no description of the sub video element SUBVD in the other secondary audio video clip element SCAVCP, the sub video stream does not exist in the form of the secondary video pack VS_PCK. The track number information TRCKAT shown in FIG. 59 (f) indicates the sub video track number. In the present embodiment, however, the track number information TRCKAT is always set to “1” because it is prohibited to have a plurality of sub video tracks. There must be. The index number MDATNM of the corresponding media attribute element in the media attribute information shown in FIG. 59 (f) describes the information of the media index number information INDEX in the video attribute item element VABITM shown in FIG. 79 (d). It is possible to specify information such as the compression code, aspect ratio, resolution, and display screen size of the corresponding sub video. The additional information related to the sub video element shown in FIG. 59 (f) is described in a text format familiar to people, and the information can be omitted from the sub video element SUBVD tag.
<サブオーディオエレメント(SubAudio Element)>
最後に図59(g)に示すサブオーディオエレメントSUBADタグ内のデータ構造の説明を行う。前記サブオーディオエレメントSUBADはプライマリーエンハンストビデオオブジェクトデータP-EVOBのセカンダリーオーディオパックAS_PCK内におけるサブオーディオストリームに関する管理情報を示している。前記サブオーディオストリーム毎に設定されるサブオーディオトラック番号設定情報が前記サブオーディオエレメントSUBAD内に記述されている。また前記サブオーディオエレメントSUBADはセカンダリーエンハンストビデオオブジェクトデータS-EVOBのセカンダリーオーディオパックAS_PCK内のサブオーディオストリームに関する管理情報を示す事も有る。この場合には前記サブオーディオストリーム毎に設定されるサブオーディオトラック番号設定情報が前記サブオーディオエレメントSUBAD内に記述される。もし、プライマリーオーディオビデオクリップエレメントPRAVCP内に前記サブオーディオエレメントSUBADが存在する場合には、サブオーディオとしてプライマリーエンハンストビデオオブジェクトデータP-EVOBのセカンダリーオーディオパックAS_PCK内にサブオーディオストリームが存在する(再生可能である)事を示している。それ以外としてプライマリーオーディオビデオクリップエレメントPRAVCP内でサブオーディオエレメントSUBADが存在しない場合には、セカンダリーオーディオパックAS_PCK内でサブオーディオストリームが存在しない事を意味している。もし、セカンダリーオーディオビデオクリップエレメントSCAVCP内にサブオーディオエレメントSUBADが記述されている場合には、サブオーディオとしてセカンダリーエンハンストビデオオブジェクトデータS-EVOBのセカンダリーオーディオパックAS_PCK内にサブオーディオストリームが存在する(再生可能)事を意味している。それ以外としてセカンダリーオーディオビデオクリップエレメントSCAVCP内にサブオーディオエレメントSUBADの記述が無い場合にはセカンダリーオーディオパックAS_PCK内にサブオーディオストリームが存在しない事になる。またプライマリーエンハンストビデオオブジェクトデータP-EVOBとセカンダリーエンハンストビデオオブジェクトデータS-EVOB内の使用可能なサブオーディオトラックは、それぞれプライマリーオーディオビデオクリップエレメントPRAVCPとセカンダリーオーディオビデオクリップエレメントSCAVCP内のサブオーディオエレメントSUBADのリストとして記述される。図59(g)に示すトラック番号情報TRCKATはサブオーディオトラック番号を表し、本実施形態においては前記サブオーディオトラック番号として1から8までの正数が記載されなければならない。前記トラック番号情報TRCKATの値は、トラックナビゲーションインフォメーションTRNAVIのオーディオトラックエレメントADTRKタグ内におけるオーディオトラック番号ADTKNM(図62(d)参照)に対応している。すなわちトラックナンバーアサイメントインフォメーション(オブジェクトマッピングインフォメーションOBMAPI)におけるサブオーディオエレメントSUBADタグ内に記述したサブオーディオSUBADの属性情報やサブオーディオストリーム番号情報と、トラックナビゲーションインフォメーションTRNAVIにおけるオーディオトラックエレメントADTRKタグ内に記述したユーザ選択可否情報や言語コード情報との間の関係は、互いに一致した値を持つトラック番号情報TRCKATとオーディオトラック番号ADTKNMにより関連付けられる。図59(g)に示すように、上記トラック番号とサブオーディオパックのサブオーディオストリーム番号SASTRNは一対一対応している。すなわちプライマリーエンハンストビデオオブジェクトデータP-EVOBまたはセカンダリーエンハンストビデオオブジェクトデータS-EVOB内にマルチプレクスされているセカンダリーオーディオパックAS_PCK内に記録されたオーディオストリーム毎にそれぞれサブオーディオトラック番号が設定され、前記サブオーディオエレメントSUBAD内に記述されている。前記上記トラック番号に対応したサブオーディオパックのサブオーディオストリーム番号SASTRNの情報は、オーディオストリームIDの値に“1”を加えた情報として設定される。また、前記サブオーディオパックのサブオーディオストリーム番号SASTRNの値は1から8までの正数を設定しなければならない。本実施形態においてセカンダリーオーディオビデオSCDAV内にはサブオーディオSUBADのトラックは1個しか持つ事が出来ない。従って、前記サブオーディオエレメントSUBADがセカンダリーオーディオビデオクリップエレメントSCAVCP内に記述されている場合には、前記サブオーディオパックのサブオーディオストリーム番号SASTRNの記述を省くか、もしくは“1”の値が設定されなければならない。本実施形態において前記サブオーディオパックのオーディオストリーム番号SASTRNのデフォルト値は“1”が設定さる。図79(c)に示すようにオーディオアトリビュートアイテムエレメントAABITM内にはメディアインデックス番号情報INDEXが記述され、前記メディアインデックス番号INDEXを指定する事により対応するオーディオの圧縮コード情報ADCDCやサンプリング周波数ADSPRT、量子化ビット数SPDPTなどのオーディオ属性情報が対応する。図59(g)に示すメディア属性情報内の対応したメディア属性エレメントのインデックス番号 MDATNMの値として図79(c)に記述したメディアインデックス番号情報INDEXの値を設定する事で、サブオーディオエレメントSUBAD毎に前記のオーディオ属性情報を対応づける事が可能となる。図59(g)に示すサブオーディオエレメントに関する付加情報は人の馴染みの深いテキストフォーマットで記述され、前記サブオーディオエレメントSUBADタグ内で前記付加情報の記載を省く事が可能である。
<SubAudio Element>
Finally, the data structure in the sub audio element SUBAD tag shown in FIG. 59 (g) will be described. The sub audio element SUBAD indicates management information related to the sub audio stream in the secondary audio pack AS_PCK of the primary enhanced video object data P-EVOB. Sub audio track number setting information set for each sub audio stream is described in the sub audio element SUBAD. The sub audio element SUBAD may indicate management information related to the sub audio stream in the secondary audio pack AS_PCK of the secondary enhanced video object data S-EVOB. In this case, sub audio track number setting information set for each sub audio stream is described in the sub audio element SUBAD. If the sub audio element SUBAD exists in the primary audio video clip element PRAVCP, a sub audio stream exists in the secondary audio pack AS_PCK of the primary enhanced video object data P-EVOB as sub audio (can be played back). It is) Otherwise, if the sub audio element SUBAD does not exist in the primary audio video clip element PRAVCP, it means that no sub audio stream exists in the secondary audio pack AS_PCK. If the sub audio element SUBAD is described in the secondary audio video clip element SCAVCP, a sub audio stream exists as a sub audio in the secondary audio pack AS_PCK of the secondary enhanced video object data S-EVOB (playable) ) Means that. Otherwise, if there is no description of the sub audio element SUBAD in the secondary audio video clip element SCAVCP, the sub audio stream does not exist in the secondary audio pack AS_PCK. The usable sub audio tracks in the primary enhanced video object data P-EVOB and the secondary enhanced video object data S-EVOB are the lists of the sub audio elements SUBAD in the primary audio video clip element PRAVCP and the secondary audio video clip element SCAVCP, respectively. Is described as The track number information TRCKAT shown in FIG. 59 (g) represents a sub audio track number, and in this embodiment, a positive number from 1 to 8 must be described as the sub audio track number. The value of the track number information TRCKAT corresponds to the audio track number ADTKNM (see FIG. 62 (d)) in the audio track element ADTRK tag of the track navigation information TRNAVI. That is, the attribute information and sub audio stream number information of the sub audio SUBAD described in the sub audio element SUBAD tag in the track number assignment information (object mapping information OBMAPI), and the audio track element ADTRK tag in the track navigation information TRNAVI The relationship between the user selectability information and the language code information is associated with the track number information TRCKAT and the audio track number ADTKNM having mutually matching values. As shown in FIG. 59 (g), the track number and the sub audio stream number SASTRN of the sub audio pack have a one-to-one correspondence. That is, a sub audio track number is set for each audio stream recorded in the secondary audio pack AS_PCK multiplexed in the primary enhanced video object data P-EVOB or the secondary enhanced video object data S-EVOB. Described in element SUBAD. The information of the sub audio stream number SASTRN of the sub audio pack corresponding to the track number is set as information obtained by adding “1” to the value of the audio stream ID. The sub audio stream number SASTRN of the sub audio pack must be set to a positive number from 1 to 8. In this embodiment, the secondary audio video SCDAV can have only one sub audio SUBAD track. Therefore, when the sub audio element SUBAD is described in the secondary audio video clip element SCAVCP, the description of the sub audio stream number SASTRN of the sub audio pack must be omitted or a value of “1” must be set. I must. In this embodiment, “1” is set as the default value of the audio stream number SASTRN of the sub audio pack. As shown in FIG. 79 (c), media index number information INDEX is described in the audio attribute item element AABITM, and by specifying the media index number INDEX, the corresponding audio compression code information ADCDC, sampling frequency ADSPRT, quantum Audio attribute information such as the number of digitized bits SPDPT corresponds. By setting the value of the media index number information INDEX described in FIG. 79 (c) as the value of the index number MDATNM of the corresponding media attribute element in the media attribute information shown in FIG. 59 (g), each sub audio element SUBAD is set. It is possible to associate the audio attribute information with each other. The additional information related to the sub audio element shown in FIG. 59 (g) is described in a text format familiar to humans, and it is possible to omit the description of the additional information in the sub audio element SUBAD tag.
<トラックナンバーアサインエレメント及びトラック(Track Number Assignment Element and Track)>
全ての再生表示対象オブジェクトの再生期間はオブジェクトマッピングインフォメーションOBMAPIによりタイトルタイムラインTMLE上で設定されている。また各再生表示オブジェクトは“1”以上のエレメンタリーストリームから構成されている。例えば、図10に示すようにプライマリーオーディオビデオPRMAVの再生表示対象オブジェクトであるプライマリーエンハンストビデオオブジェクトP-EVOBはメインビデオMANVD、メインオーディオMANAD、サブビデオSUBVD、サブオーディオSUBAD、及び副映像SUBPTなどのエレメンタリーストリームから構成されている。また各再生表示オブジェクト内における各エレメンタリーストリームがどのタイミングで表示されて有効期間となるかを、図59(b)に示すプレイリストファイルPLLST内に記述されている。図60に示すように表示再生オブジェクト内におけるエレメンタリーストリーム毎に設定される論理的な識別単位をトラックと呼ぶ。例えば、図10に示すようにメインオーディオMANADはプライマリーオーディオビデオPRMAV、サブスティテュートオーディオSBTAD、或いはサブスティテュートオーディオビデオSBTAVの中に存在する事が可能である。各メインオーディオMANADの識別単位毎にそれぞれメインオーディオトラックMATRKと対応づける事が可能となる。特定のタイトル再生中においてAPIコマンドまたはユーザ指定により表示再生すべきトラックが選択され、ユーザに対し表示再生される。各トラックはタイトル内においてトラック番号によって他のトラックと識別する事が出来る。本実施形態では図60に示すようにメインビデオトラックMVTRK、メインオーディオトラックMATRK、サブタイトルトラックSBTTRK、サブビデオトラックSVTRK、サブオーディオトラックSATRKからなる5種類のタイプのトラックを定義する事が出来る。アドバンストコンテンツ再生部ADVPL内において前記トラック番号を指定する事により、特定のメインビデオMANVD、メインオーディオMANAD、サブビデオSUBVD、サブオーディオSUBAD及び副映像SUBPTを選択する事が可能となる。再生表示オブジェクトとそれに対応するエレメンタリーストリーム及び各トラック間の関係を図60に示す。前記関係は図10に示す一覧表の内容と対応している。図59(c)から(g)に示すように本実施形態では各エレメントタグ内にトラック番号情報TRCKATが記述可能な形になっている。従ってこれらのエレメントをトラック番号設定エレメント(トラックナンバーアサイメントエレメント)と呼ばれる。図59(c)から(g)に示すようにトラック毎にトラック番号がプレイリストファイルPLLST内に(トラック番号情報TRCKATとして)それぞれ設定されている。また前記トラック番号TRCKATは“1”以上の正数値で設定されなければならない。前記トラック番号TRCKATはAPIコマンドまたはユーザ指定によりトラック番号が選択され、ユーザへの表示再生するトラックの選択に利用される。前記トラック番号TRCKATは図62(d)に示す各種トラック番号に対応している。図62(d)に示すトラックナビゲーションインフォメーション内にはトラック選択に必要な情報が記述されている。従って、アドバンストコンテンツ再生部ADVPL内(図28に示すナビゲーションマネージャNVMNG内のプレイリストマネージャPLMNG)において、前記トラックナビゲーションインフォメーションの情報を利用してAPIコマンドまたはユーザ設定によりトラック選定が行われる。具体的にはビデオトラック番号VDTKNM(図62参照)を用いてメインビデオMANVD内のユーザに表示するビデオアングルの選定を行う事が出来る。またオーディオトラック番号ADTKNMを用いてメインオーディオMANAD内のトラック選択をする事が出来る。またサブタイトルトラック番号STTKNMの番号を指定する事により、副映像SUBPT或いはアドバンストサブタイトルADSBTの所定のトラック選択が行える。またサブビデオトラック番号とサブオーディオトラック番号によりサブビデオSUBVDとサブオーディオSUBADのトラック選択を行う事が可能となる。図59(d)内にはトラック番号情報TRCKATと前記トラック番号に対応したオーディオパックのオーディオストリーム番号ADSTRNとの対応情報が記述されており、図59(e)に示すようにトラック番号情報TRCKATと前記トラック番号に対応した副映像パックの副映像ストリーム番号SPSTRNの対応情報が記述されている。上記の例からわかるようにトラック番号設定情報(トラックナンバーアサイメントインフォメーション)内には各トラック番号TRCKATから表示再生オブジェクト内の各エレメンタリーストリームを対応させる情報が記述されている。再生表示オブジェクト内に記録されている各エレメンタリーストリームに対応したトラック番号設定情報(トラックナンバーアサイメント)が、前記再生表示オブジェクトを管理する表示再生クリップエレメント(プライマリーオーディオビデオクリップエレメントPRAVCPなど)内のチャイルドエレメント(例えばメインビデオエレメントMANVD)内にそれぞれ記述されている。すなわち図59(c)に示すようにメインビデオエレメントMANVD内のトラック番号情報TRCKAT(track属性情報)の値としてトラックナビゲーションインフォメーションTRNAVI内の対応したビデオトラックエレメントVDTRKのビデオトラック番号VDTKNMの値(図62(d)参照)が記述されている。また図59(d)に示すようにメインオーディオエレメントMANAD内のトラック番号情報TRCKAT(track属性情報)の値としてトラックナビゲーションインフォメーションTRNAVI内の対応したオーディオトラックエレメントADTRKのオーディオトラック番号ADTKNMの値(図62(d)参照)が記述されている。更に、図59(e)に示すようにサブタイトルエレメントSBTELE内のトラック番号情報TRCKAT(track属性情報)の値としてトラックナビゲーションインフォメーションTRNAVI内の対応したサブタイトルトラックエレメントSBTRELのサブタイトルトラック番号STTKNMの値(図62(d)参照)が記述されている。同様に図59(g)に示すようにサブオーディオエレメントSUBAD内のトラック番号情報TRCKAT(track属性情報)の値としてトラックナビゲーションインフォメーションTRNAVI内の対応したオーディオトラックエレメントADTRKのオーディオトラック番号ADTKNMの値(図62(d)参照)が記述されている。また、本実施形態においてはサブビデオトラック番号(図59(f)内のサブビデオトラックに対応したトラック番号情報TRCKAT)は“1”に設定されなければならない。また本実施形態においては、各再生表示クリップエレメント内における異なるエレメンタリーストリーム毎に異なる(それぞれ独自の)トラックナンバーが設定されなければならない。例えば複数の異なる再生表示クリップエレメント上で指定したタイトルタイムライン上の有効期間が互いに重なる場合には、前記有効期間が重なった時間帯において、異なる再生表示クリップエレメントに属するエレメンタリーストリーム間でトラックナンバー(トラック番号)が重複しないようなトラックナンバーの設定をする必要がある。本実施形態ではトラックタイプ(ビデオ/オーディオ/サブタイトルなどのエレメンタリーストリームの内容を示すタイプ)が異なるエレメンタリーストリーム間では同一のトラックナンバー(トラック番号)を設定しても良い。
<Track Number Assignment Element and Track>
The playback period of all playback display target objects is set on the title timeline TMLE by the object mapping information OBMAPI. Each reproduction display object is composed of elementary streams of “1” or more. For example, as shown in FIG. 10, the primary enhanced video object P-EVOB, which is the object to be reproduced and displayed for the primary audio video PRMAV, includes elements such as main video MANVD, main audio MANAD, sub video SUBVD, sub audio SUBAD, and sub video SUBPT. It consists of a mental stream. Also, the timing at which each elementary stream in each playback / display object is displayed and the effective period is described in the playlist file PLLST shown in FIG. 59 (b). As shown in FIG. 60, a logical identification unit set for each elementary stream in the display reproduction object is called a track. For example, as shown in FIG. 10, the main audio MANAD can exist in the primary audio video PRMAV, the substitute audio SBTAD, or the substitute audio video SBTAV. Each main audio MANAD can be associated with the main audio track MATRK for each identification unit. During playback of a specific title, a track to be displayed and played is selected by an API command or user designation, and is displayed and played back to the user. Each track can be distinguished from other tracks by the track number in the title. In this embodiment, as shown in FIG. 60, five types of tracks including a main video track MVTRK, a main audio track MATRK, a subtitle track SBTTRK, a sub video track SVTRK, and a sub audio track SATRK can be defined. By specifying the track number in the advanced content playback unit ADVPL, it is possible to select a specific main video MANVD, main audio MANAD, sub video SUBVD, sub audio SUBAD, and sub video SUBPT. FIG. 60 shows the relationship between the playback display object, the corresponding elementary stream, and each track. The relationship corresponds to the contents of the list shown in FIG. As shown in FIGS. 59 (c) to 59 (g), in this embodiment, track number information TRCKAT can be described in each element tag. Therefore, these elements are called track number setting elements (track number assignment elements). As shown in FIGS. 59 (c) to (g), a track number is set for each track in the playlist file PLLST (as track number information TRCKAT). The track number TRCKAT must be set to a positive value greater than “1”. The track number TRCKAT is selected by an API command or user designation, and is used for selecting a track to be displayed and reproduced for the user. The track number TRCKAT corresponds to the various track numbers shown in FIG. Information necessary for track selection is described in the track navigation information shown in FIG. Accordingly, in the advanced content playback unit ADVPL (the playlist manager PLMNG in the navigation manager NVMNG shown in FIG. 28), the track selection is performed by the API command or the user setting using the information of the track navigation information. Specifically, the video angle to be displayed to the user in the main video MANVD can be selected using the video track number VDTKNM (see FIG. 62). You can also select a track in the main audio MANAD using the audio track number ADTKNM. Also, by designating the number of the subtitle track number STTKNM, a predetermined track selection of the sub video SUBPT or the advanced subtitle ADSBT can be performed. Also, it is possible to select a track of the sub video SUBVD and the sub audio SUBAD based on the sub video track number and the sub audio track number. In FIG. 59 (d), correspondence information between the track number information TRCKAT and the audio stream number ADSTRN of the audio pack corresponding to the track number is described. As shown in FIG. 59 (e), the track number information TRCKAT and The correspondence information of the sub-picture stream number SPSTRN of the sub-picture pack corresponding to the track number is described. As can be seen from the above example, in the track number setting information (track number assignment information), information corresponding to each elementary stream in the display reproduction object is described from each track number TRCKAT. Track number setting information (track number assignment) corresponding to each elementary stream recorded in the playback display object is displayed in a display playback clip element (such as a primary audio video clip element PRAVCP) that manages the playback display object. Each is described in a child element (for example, main video element MANVD). That is, as shown in FIG. 59 (c), the value of the video track number VDTKNM of the corresponding video track element VDTRK in the track navigation information TRNAVI as the value of the track number information TRCKAT (track attribute information) in the main video element MANVD (FIG. 62). (D)) is described. Further, as shown in FIG. 59 (d), as the value of the track number information TRCKAT (track attribute information) in the main audio element MANAD, the value of the audio track number ADTKNM of the corresponding audio track element ADTRK in the track navigation information TRNAVI (FIG. 62). (D)) is described. Further, as shown in FIG. 59 (e), as the value of the track number information TRCKAT (track attribute information) in the subtitle element SBTELE, the value of the subtitle track number STTKNM of the corresponding subtitle track element SBTREL in the track navigation information TRNAVI (FIG. 62). (D)) is described. Similarly, as shown in FIG. 59 (g), as the value of the track number information TRCKAT (track attribute information) in the sub audio element SUBAD, the value of the audio track number ADTKNM of the corresponding audio track element ADTRK in the track navigation information TRNAVI (FIG. 62 (d)). In this embodiment, the sub video track number (track number information TRCKAT corresponding to the sub video track in FIG. 59 (f)) must be set to “1”. In the present embodiment, a different (unique) track number must be set for each different elementary stream in each playback / display clip element. For example, when the valid periods on the title timeline specified on a plurality of different playback / display clip elements overlap with each other, the track numbers between elementary streams belonging to different playback / display clip elements in the time zone in which the valid periods overlap each other It is necessary to set the track number so that (track number) does not overlap. In the present embodiment, the same track number (track number) may be set between elementary streams having different track types (types indicating the contents of elementary streams such as video / audio / subtitle).
トラックナンバーアサイメントインフォメーション記述例を図61に示す。前記図61の内容に記述された各エレメンタリーストリームにおいて設定されたトラック番号設定方法は、図60に示した関係に従っている。図61(c)の例において、プライマリーオーディオビデオPRMAVに関するタイムマップPTMAPの情報が情報記憶媒体DISC内にAVMAP001.MAPというファイル名で保存されている。本実施形態においては対応するプライマリーエンハンストビデオオブジェクトデータP-EVOBのファイル名および保存場所も前記タイムマップファイルPTMAPと一致させている(但しファイル名の拡張子のみが“MAP”と“EVO”と異なる)。すなわちプライマリーオーディオビデオPRMAVに対応したプライマリーエンハンストビデオオブジェクトデータP-EVOBが記録されているファイル名はAVMAP001.EVOというファイル名になっている。図61(c)に示すようにプライマリーオーディオビデオクリップエレメントPRAVCP内で「clipTimeBegin =“00:00:00:00”」となっているので、プレイリストPLLSTで再生される場合には前記プライマリーエンハンストビデオオブジェクトデータP-EVOBファイルの先頭から再生が開始されることになる。プレイリストPLLST上では、タイトルタイムラインTMLEの最初の位置から10分21秒経過した所まで再生する事になっている。前記プライマリーオーディオビデオPRMAV内に存在するメインビデオMANVDはマルチアングル化され、アングルナンバーが“1”の物をビデオトラック番号“1”と設定し、アングル番号“2”の物がビデオトラック番号“2”として設定される。前記プライマリーオーディオビデオPRMAVの中にはオーディオトラックが3本存在し、ストリーム番号“0”の物がオーディオトラック番号“1”、ストリーム番号“2”のエレメンタリーオーディオストリームがオーディオトラック番号“2”、オーディオストリームナンバー“3”の物がオーディオトラック番号“3”と設定されている。また同時にサブタイトルトラックを2本持っている構造となっている。図61(c)の実施形態ではプライマリーオーディオビデオPRMAVのメインオーディオMANADに代わってパーシステントストレージPRSTR内に保存されているサブスティテュートオーディオSBTADを再生表示する事が出来る。この場合のオーディオトラック番号を“4”として設定する事により、ユーザはオーディオトラック番号“1”からオーディオトラック番号“4”のうちのいずれかのメインオーディオMANADを選択的に再生表示する事が可能となっている。また図61(c)の実施形態では、プライマリーオーディオビデオPRMAVの表示時期と全く同じ時期にパーシステントストレージPRSTRに記録されたアドバンストサブタイトルADSBTを同時に表示する事が可能である。この場合のアドバンストサブタイトルADSBTのトラック番号を“3”と設定されており、事前にプライマリーオーディオビデオPRMAV内に設定され、副映像SUBPTと選択的に表示する事が可能となっている。すなわち、サブタイトルトラックは“1”から“3”まで存在し、プライマリーオーディオビデオPRMAVのメインビデオMANVDの特定アングルのメインビデオMANVDを表示しながら“1”から“3”までのいずれかのサブタイトルトラックを選択的に表示させる事が可能となっている。
FIG. 61 shows an example of track number assignment information description. The track number setting method set in each elementary stream described in the contents of FIG. 61 follows the relationship shown in FIG. In the example of FIG. 61 (c), the information of the time map PTMAP related to the primary audio video PRMAV is stored in the information storage medium DISC with the file name AVMAP001.MAP. In the present embodiment, the file name and storage location of the corresponding primary enhanced video object data P-EVOB are also matched with the time map file PTMAP (however, only the file name extension is different from “MAP” and “EVO”). ). That is, the file name in which the primary enhanced video object data P-EVOB corresponding to the primary audio video PRMAV is recorded is the file name AVMAP001.EVO. As shown in FIG. 61 (c), since “clipTimeBegin =“ 00: 00: 00: 00 ”” is set in the primary audio video clip element PRAVCP, the primary enhanced video is to be played back in the playlist PLLST. Playback starts from the beginning of the object data P-EVOB file. On the playlist PLLST, it is supposed to be played up to 10
図59(c)から(g)までに示したトラックナンバーアサイメントインフォメーション情報は対応するストリームのストリーム番号とトラック番号TRCKATとの対応、及び各トラック番号TRCKATに対応したメディア属性情報(メディア属性エレメントのインデックス番号MDATNM)との間の関係を示している。それに対して図62(d)から(e)に示すトラックナビゲーションインフォメーションTRNAVIの内容は、各トラック番号に対しユーザが選択するのに必要な情報がまとめて記述されている。前記トラックナンバーアサイメントインフォメーションと前記トラックナビゲーションインフォメーションTRNAVIとの間の情報のリンクはそれぞれのトラック番号TRCKATにより関係づけられる。すなわち図62(d)に示すビデオトラック番号VDTKNM、オーディオトラック番号ADTKNM、及びサブタイトルトラック番号は、図59(c)から(d)に示すトラック情報TRCKATと同じ値が設定され、その同じ値を利用して前記トラックナンバーアサイメントインフォメーションの情報と前記トラックナビゲーションインフォメーションTRNAVIの情報をリンクさせる事が出来る。以下に図62を用い、プレイリストPLLST内でのトラックナビゲーションインフォメーションTRNAVIの記載場所の説明を行う。図62に示すようにプレイリストPLLST内には構造情報CONFGI、メディア属性情報MDATRIとタイトル情報TTINFOが存在する。図62(b)に示すように前記タイトル情報TTINFO内にはファーストプレイタイトルエレメント情報FPTELEと各タイトル毎に関するタイトルエレメント情報TTELEM、及びプレイリストアプリケーションエレメント情報PLAELEが存在する。図62(c)に示すようにトラックナビゲーションインフォメーションTRNAVIはタイトル毎のタイトルエレメント情報TTELEM内に存在している。 The track number assignment information information shown in FIGS. 59C to 59G includes the correspondence between the stream number of the corresponding stream and the track number TRCKAT, and the media attribute information corresponding to each track number TRCKAT (in the media attribute element). Index number MDATNM). On the other hand, the contents of the track navigation information TRNAVI shown in FIGS. 62 (d) to 62 (e) collectively describe information necessary for the user to select each track number. The information link between the track number assignment information and the track navigation information TRNAVI is related to each track number TRCKAT. That is, the video track number VDTKNM, audio track number ADTKNM, and subtitle track number shown in FIG. 62 (d) are set to the same values as the track information TRCKAT shown in FIGS. 59 (c) to (d), and the same values are used. Thus, the track number assignment information information and the track navigation information TRNAVI information can be linked. Hereinafter, the description location of the track navigation information TRNAVI in the playlist PLLST will be described with reference to FIG. As shown in FIG. 62, structure information CONFGI, media attribute information MDATRI, and title information TTINFO exist in the playlist PLLST. As shown in FIG. 62 (b), the title information TTINFO contains first play title element information FPTELE, title element information TTELEM for each title, and playlist application element information PLAELE. As shown in FIG. 62 (c), the track navigation information TRNAVI exists in the title element information TTELEM for each title.
<トラックナビゲーションインフォメーションエレメント及び属性(Track Navigation Information Element and Aattribute of Track)>
前述したようにプレイリストファイルPLLST内のタイトルエレメント情報TTELEM内にトラックナビゲーションインフォメーションTRNAVIが存在する。前記トラックナビゲーションインフォメーションTRNAVIは図62(e)に示すようにトラックナビゲーションリストエレメントにより構成されている。前記トラックナビゲーションインフォメーションTRNAVI内にはユーザが選択可能なメインビデオトラックMVTRK、メインオーディオトラックMATRK、及びサブオーディオトラックSATRKとサブタイトルトラックSBTTRKに関するリストが記述されている。図62(d)に示すようにトラックナビゲーションインフォメーションTRNAVI内にはユーザが選択可能なメインビデオトラックMVTRKに関する属性情報がビデオトラックエレメントVDTRK内に記述されている。また同様にユーザが選択可能なメインオーディオトラックMATRK、及びサブオーディオトラックSATRKに関する属性情報がオーディオトラックエレメントADTRK内に記録され、ユーザが選択可能なサブタイトルトラックSBTTRKに関する属性情報がサブタイトルトラックエレメントSBTREL内に記述されている。図62(d)に示すようにビデオトラックエレメントVDTRK、オーディオトラックエレメントADTRK及びサブタイトルトラックエレメントSBTRELいずれのトラックエレメントにおいてもユーザ選択可を示すフラグUSIFLG(selectable属性情報)が存在している。前記ユーザ選択可を示すフラグUSIFLG(selectable属性情報)に示された値により対応するトラックがユーザ選択可能であるか否かを示す。すなわち“selectable=”の後に入れる値が“true”の場合には、対応するトラックがユーザ選択可能である事を示し、“selectable=”の後に記載する値が“false”の場合には、対応するトラックがユーザによる選択不可能である事を意味している。このように、selectable属性情報の値が“true”と設定されたメインビデオトラックMVTRK、メインオーディオトラックMATRK、サブオーディオトラックSATRK、及びサブタイトルトラックSBTTRKをユーザ選択可能なトラック(ユーザセレクタブルトラック)と呼ばれる。図44に示すようにアドバンストアプリケーションマネージャADAMNG内にデフォルトイベントハンドラースクリプトDEVHSPの保存場所が存在する。前記デフォルトイベントハンドラースクリプトDEVHSP内に保存されているデフォルトインプットハンドラー内容を図45に示す。図45に示すようにデフォルトインプットハンドラー名changeSubtitleHandler(バーチャルキーコードVK_SUBTITLE)はサブタイトルトラック変更のユーザ入力イベントを意味する。また、デフォルトインプットハンドラー名changeAudioHandler(バーチャルキーコードがVK_AUDIO)はオーディオトラックの切替えに関するユーザ入力イベントを意味している。前記デフォルトイベントハンドラーにより定義されたユーザオペレーションにより前記ユーザ選択可能なトラック(ユーザセレクタブルトラック)の選択が行われる。また図62(e)に示すように“selectable=”の値が“false”に設定されたトラックは、ユーザ選択不可能なトラック(ノンユーザセレクタブルトラック)と呼ばれている。更にメインオーディオトラックMATRK、及びサブオーディオトラックSATRKに関してはオーディオトラックエレメントADTRK内に記述されるオーディオ言語コードとオーディオ言語コード拡張記述子ADLCEX(langcode属性情報)によりるオーディオ言語コードと言語コード拡張記述子の情報が設定される。また、サブタイトルトラックSBTTRKに関してもサブタイトルトラックエレメントSBTREL内のサブタイトル言語コードとサブタイトル言語コード拡張記述子STLCEX(langcode属性情報)により言語コードと言語コード拡張記述子の情報が設定される。前記言語コードと言語コード拡張記述子はトラックを選択するAPIコマンドにより利用される。またサブタイトルトラックエレメントSBTREL内に記述される強制出画を示すフラグFRCFLG(forced属性情報)の属性の値が“true”と設定された場合には、対応するサブタイトルトラックSBTTRK(副映像SUBPT)をユーザの意思に関係なく、強制的に画面に出力しなければならない。逆に前記強制出画を示すフラグFRCFLG(forced属性情報)の値が“false”と設定された場合には、対応するサブタイトル(副映像SUBPT)は必ずしも強制出画する必要は無く、ユーザ選択により表示可否が設定出来る。例えばユーザ選択により字幕表示を行わない設定にとしていた場合でもコンテンツプロバイダの意図により特定の領域だけ強制的に字幕を画面に表示する事で、ユーザへの表現力を向上させる事がある。このような場合に前記強制出画を示すフラグFRCFLG(forced属性情報)の値を“true”にする事でコンテンツプロバイダのユーザへの表現力を向上させる事が出来る。またトラックエレメント毎にテキストフォーマットで記述された付加情報を記述する事が可能となり、各トラック毎の識別に利用する事も可能となる。
<Track Navigation Information Element and Aattribute of Track>
As described above, the track navigation information TRNAVI exists in the title element information TTELEM in the playlist file PLLST. The track navigation information TRNAVI is composed of track navigation list elements as shown in FIG. 62 (e). In the track navigation information TRNAVI, a list relating to a main video track MVTRK, a main audio track MATRK, a sub audio track SATRK and a sub title track SBTTRK that can be selected by the user is described. As shown in FIG. 62 (d), in the track navigation information TRNAVI, attribute information on the main video track MVTRK that can be selected by the user is described in the video track element VDTRK. Similarly, attribute information about the main audio track MATRK and sub audio track SATRK that can be selected by the user is recorded in the audio track element ADTRK, and attribute information about the sub title track SBTTRK that can be selected by the user is described in the sub title track element SBTREL. Has been. As shown in FIG. 62 (d), a flag USIFLG (selectable attribute information) indicating that the user can be selected exists in any of the track elements of the video track element VDTRK, the audio track element ADTRK, and the subtitle track element SBTREL. The value indicated by the flag USIFLG (selectable attribute information) indicating that the user can be selected indicates whether or not the corresponding track can be selected by the user. That is, if the value after “selectable =” is “true”, it indicates that the corresponding track is selectable by the user. If the value described after “selectable =” is “false”, it corresponds. This means that the track to be selected cannot be selected by the user. As described above, the main video track MVTRK, the main audio track MATRK, the sub audio track SATRK, and the subtitle track SBTTRK in which the value of the selectable attribute information is set to “true” is called a user selectable track (user selectable track). As shown in FIG. 44, a storage location of the default event handler script DEVHSP exists in the advanced application manager ADAMNG. FIG. 45 shows the default input handler contents stored in the default event handler script DEVHSP. As shown in FIG. 45, the default input handler name changeSubtitleHandler (virtual key code VK_SUBTITLE) means a user input event for changing a subtitle track. The default input handler name changeAudioHandler (virtual key code is VK_AUDIO) means a user input event related to audio track switching. The user selectable track (user selectable track) is selected by a user operation defined by the default event handler. Also, as shown in FIG. 62 (e), a track in which the value of “selectable =” is set to “false” is called a track that cannot be selected by the user (non-user selectable track). Furthermore, for the main audio track MATRK and the sub audio track SATRK, the audio language code and language code extension descriptor of the audio language code and audio language code extension descriptor ADLCEX (langcode attribute information) described in the audio track element ADTRK Information is set. For the subtitle track SBTTRK, information on the language code and the language code extension descriptor is set by the subtitle language code in the subtitle track element SBTREL and the subtitle language code extension descriptor STLCEX (langcode attribute information). The language code and the language code extension descriptor are used by an API command for selecting a track. If the attribute value of the flag FRCFLG (forced attribute information) indicating forced output described in the subtitle track element SBTREL is set to “true”, the corresponding subtitle track SBTTRK (sub video SUBPT) is set to the user. Regardless of your intention, you must force output to the screen. Conversely, when the value of the flag FRCFLG (forced attribute information) indicating forced image output is set to “false”, the corresponding subtitle (sub-video SUBPT) does not necessarily have to be imaged compulsorily. Displayability can be set. For example, even if it is set to not display captions by user selection, the ability to express to the user may be improved by forcibly displaying captions on a screen only in a specific area according to the intention of the content provider. In such a case, by setting the value of the flag FRCFLG (forced attribute information) indicating forced image output to “true”, it is possible to improve the expressiveness to the content provider user. Further, additional information described in a text format can be described for each track element, and can be used for identification for each track.
<トラックナビゲーションリストエレメント(TrackNavigationList Element)>
前記トラックナビゲーションリストエレメントはタイトル内におけるトラック情報の説明を行っている。前記トラックナビゲーションリストの中身はビデオトラックエレメントVDTRK、オーディオトラックエレメントADTRK、及びサブタイトルトラックエレメントSBTRELのリストから構成され、これらのエレメントはトラックナビゲーションインフォメーションエレメントTRNAVIと呼ばれる。またタイトル内での前記トラック情報は前述したビデオトラックエレメントVDTRK、オーディオトラックエレメントADTRKおよびサブタイトルトラックエレメントSBTREL内に記述されている。さらにビデオトラックエレメントVDTRK、オーディオトラックエレメントADTRKおよびサブタイトルトラックエレメントSBTRELは対応するトラックに対する属性情報をも示している。
<Track Navigation List Element>
The track navigation list element explains the track information in the title. The contents of the track navigation list are composed of a list of a video track element VDTRK, an audio track element ADTRK, and a subtitle track element SBTREL, and these elements are called a track navigation information element TRNAVI. The track information in the title is described in the video track element VDTRK, the audio track element ADTRK, and the subtitle track element SBTREL described above. Furthermore, the video track element VDTRK, the audio track element ADTRK, and the subtitle track element SBTREL also indicate attribute information for the corresponding track.
<ビデオトラックエレメント(VideoTrack Element)>
以下に図62(d)及び(e)に示すビデオトラックエレメントVDTRKの説明を行う。前記ビデオトラックエレメントVDTRKはメインビデオトラックMVTRKの属性情報リストを示している。ビデオトラックエレメントVDTRK内のビデオトラック番号VDTKNM(track属性情報)は各ビデオトラックを識別するためのビデオトラック番号VDTKNMを示している。本実施形態においては前記ビデオトラック番号VDTKNMの値として1から9までの正数を設定しなければならない。すなわち本実施形態においては9個までのメインビデオトラックMVTRKを設定する事が出来、どれか1つをユーザが選択出来る。9個までユーザが選択できるメインビデオトラックMVTRKを設定する事により、コンテンツプロバイダのユーザに対する表現力が大幅に増す事が出来る。またユーザ選択可を示すフラグUSIFLG(selectable属性情報)は、対応するメインビデオトラックMVTRKがユーザオペレーションによる選択が出来るか否かを表している。ユーザ選択可を示すフラグUSIFLGの値が“true”の場合には、対応するメインビデオトラックMVTRKがユーザオペレーションにより選択可能である事を示し、“false”の場合には、ユーザオペレーションによる選択が不可能である事を意味している。ビデオトラックエレメントVDTRK内で前記ユーザ選択可を示すフラグUSIFLGの記述を省く事が出来る。また、この場合にはデフォルト値である“true”が自動的に設定される。ビデオトラックに関する属性情報は人に馴染みの深いテキストフォーマットで記述されるが前記付加情報はビデオトラックエレメントVDTRK内で記述を省く事が可能となる。
<VideoTrack Element>
The video track element VDTRK shown in FIGS. 62 (d) and 62 (e) will be described below. The video track element VDTRK represents an attribute information list of the main video track MVTRK. A video track number VDTKNM (track attribute information) in the video track element VDTRK indicates a video track number VDTKNM for identifying each video track. In this embodiment, a positive number from 1 to 9 must be set as the value of the video track number VDTKNM. That is, in the present embodiment, up to nine main video tracks MVTRK can be set, and the user can select one of them. By setting the main video track MVTRK that can be selected by the user up to nine, the expressive power of the content provider to the user can be greatly increased. A flag USIFLG (selectable attribute information) indicating that the user can be selected represents whether or not the corresponding main video track MVTRK can be selected by a user operation. If the value of the flag USIFLG indicating that the user can be selected is “true”, it indicates that the corresponding main video track MVTRK can be selected by the user operation. If “false”, the selection by the user operation is not possible. It means that it is possible. It is possible to omit the description of the flag USIFLG indicating that the user can be selected in the video track element VDTRK. In this case, the default value “true” is automatically set. The attribute information about the video track is described in a text format familiar to people, but the additional information can be omitted in the video track element VDTRK.
<オーディオトラックエレメント(AudioTrack Element)>
次に図62(d)及び(e)に示すオーディオトラックエレメントADTRKの説明を行う。オーディオトラックエレメントADTRKはメインオーディオトラックMATRK及びサブオーディオトラックSATRKの属性リストを示している。オーディオトラックエレメントADTRK内のオーディオトラック番号ADTKNM(track属性情報)は各オーディオトラック間の識別に利用されるオーディオトラック番号ADTKNMが設定される。ユーザ選択可を示すフラグUSIFLG(selectable属性情報)は対応したメインオーディオトラックMATRK又はサブオーディオトラックSATRKがユーザオペレーションにより選択可能であるか否かを示している。もし前記ユーザ選択可を示すフラグUSIFLGの値が“true”の場合には、対応するオーディオトラックがユーザオペレーションにより選択可能である事を示し、“false”の場合には、ユーザオペレーションにより選択が不可能である事を示している。前記オーディオトラックエレメントADTRK内で前記ユーザ選択可を示すフラグUSIFLGの記述を省く事が出来る。この場合にはデフォルト値である“true”が自動的に設定される。本実施形態においてはオーディオトラック番号ADTKNMの値は、1から8までの正数値を入れなければならない。このようにオーディオトラックを8トラックまで選択可能にする事により、コンテンツプロバイダのユーザへの表現力を大幅に向上する事が可能となる。またオーディオ言語コードとオーディオ言語コード拡張記述子ADLCEX(langcode属性情報)は、対応するオーディオトラック番号ADTKNMに対する特定のコード及び特定のコード拡張記述子を記述している。ここで図62(e)に示すように日本語を表す場合には値として“ja”を示し、また英語を表す場合には“en”を表している。また、同一日本語もしくは同一英語でもオーディオトラックの内容が異なる場合を想定し、オーディオ言語コードとオーディオ言語コード拡張記述子ADLCEX(langcode属性情報)の値として言語コード番号の後にコロンを配置し、その後に数字(例として“ja:01”)を設定する事が出来る。またオーディオトラックに関する付加情報は人に馴染みの深いテキストフォーマットで記述されるが前記付加情報はオーディオトラックエレメントADTRK内の記述を省く事が出来る。
<AudioTrack Element>
Next, the audio track element ADTRK shown in FIGS. 62 (d) and 62 (e) will be described. The audio track element ADTRK indicates an attribute list of the main audio track MATRK and the sub audio track SATRK. The audio track number ADTKNM (track attribute information) in the audio track element ADTRK is set to the audio track number ADTKNM used for identification between the audio tracks. A flag USIFLG (selectable attribute information) indicating that user selection is possible indicates whether the corresponding main audio track MATRK or sub audio track SATRK can be selected by a user operation. If the value of the flag USIFLG indicating that the user can be selected is “true”, it indicates that the corresponding audio track can be selected by the user operation. If it is “false”, the selection is not possible by the user operation. It shows that it is possible. It is possible to omit the description of the flag USIFLG indicating that the user can be selected in the audio track element ADTRK. In this case, the default value “true” is automatically set. In the present embodiment, the audio track number ADTKNM must be a positive value from 1 to 8. Thus, by making it possible to select up to eight audio tracks, it is possible to greatly improve the expressive power of the content provider to the user. The audio language code and the audio language code extension descriptor ADLCEX (langcode attribute information) describe a specific code and a specific code extension descriptor for the corresponding audio track number ADTKNM. Here, as shown in FIG. 62 (e), “ja” is shown as a value when representing Japanese, and “en” is shown when representing English. Also, assuming that the content of the audio track is different for the same Japanese or the same English, place a colon after the language code number as the value of the audio language code and the audio language code extension descriptor ADLCEX (langcode attribute information), and then Can be set to a number (eg “ja: 01”). The additional information about the audio track is described in a text format familiar to humans, but the additional information can omit the description in the audio track element ADTRK.
<サブタイトルトラックエレメント(SubtitleTrack Element)>
以下にサブタイトルトラックエレメントSBTRELの説明を行う。前記サブタイトルトラックエレメントSBTRELはサブタイトルトラックSBTTRKの属性リストを示している。サブタイトルトラック番号STTKNM(track属性情報)は各サブタイトルトラックSBTTRK間の識別に利用され、サブタイトルトラック番号STTKNMの値は1から32までの正数を記載しなくてはならない。本実施形態においてサブタイトルトラックSBTTRKを32トラックに設定する事によりユーザに対する大幅な表現力アップを図る事が出来る。またユーザ選択可を示すフラグUSIFLG(selectable属性情報)はユーザオペレーションによるサブタイトルトラックSBTTRKの選択が可能であるかを示している。前記値が“true”の場合には、サブタイトルトラックSBTTRKはユーザオペレーションによる選択が可能である事を示し、“false”の場合には、ユーザオペレーションの選択が不可能である事を示す。前記ユーザ選択可を示すフラグUSIFLGは前記サブタイトルトラックエレメントSBTREL内での記述を省く事が出来るが、その場合はデフォルト値である“true”が自動的に設定される。サブタイトル言語コードとサブタイトル言語コード拡張記述子STLCEXは該当するサブタイトルトラックSBTTRKに関する特定のコードと特定のコード拡張記述子を示す。また強制出画を示すフラグFRCFLG(forced属性情報)は対応するサブタイトルトラックSBTTRKが強制的に出画されるかどうかを示す。もし前記の値が“true”の場合には、対応するサブタイトルトラックSBTTRKは強制的に出画されなければならず、“false”の場合には、必ずしも強制的に出画する必要は無い。前記値は(前記強制出画を示すフラグFRCFLGは)対応するサブタイトルトラックエレメントSBTREL内での記述を省く事が出来る。この場合にはデフォルト値である“false”が自動的に設定される。またサブタイトルトラックSBTTRKに関する付加情報は人に馴染みの深いテキストフォーマットで記述されるが、前記付加情報はサブタイトルトラックエレメントSBTREL内で記載を省く事が可能である。
<Subtitle Track Element>
The subtitle track element SBTREL will be described below. The subtitle track element SBTREL indicates an attribute list of the subtitle track SBTTRK. The subtitle track number STTKNM (track attribute information) is used for identification between each subtitle track SBTTRK, and the value of the subtitle track number STTKNM must describe a positive number from 1 to 32. In this embodiment, by setting the subtitle track SBTTRK to 32 tracks, it is possible to greatly improve the expressive power for the user. A flag USIFLG (selectable attribute information) indicating that the user can be selected indicates whether the subtitle track SBTTRK can be selected by the user operation. When the value is “true”, the subtitle track SBTTRK indicates that the user operation can be selected. When the value is “false”, the user operation cannot be selected. The flag USIFLG indicating that the user can be selected can be omitted from the subtitle track element SBTREL. In this case, the default value “true” is automatically set. The subtitle language code and the subtitle language code extension descriptor STLCEX indicate a specific code and a specific code extension descriptor for the corresponding subtitle track SBTTRK. A flag FRCFLG (forced attribute information) indicating forced output indicates whether or not the corresponding subtitle track SBTTRK is forcibly output. If the value is “true”, the corresponding subtitle track SBTTRK must be forcibly output. If it is “false”, it is not always necessary to forcibly output. The value can be omitted from the corresponding subtitle track element SBTREL (the flag FRCFLG indicating the forced image output). In this case, the default value “false” is automatically set. Further, the additional information regarding the subtitle track SBTTRK is described in a text format familiar to humans, but the additional information can be omitted in the subtitle track element SBTREL.
図62(e)に示したトラックナビゲーションリストの具体例について説明を行う。図62(e)においてはビデオトラックは3トラック存在する。そのうちトラック番号“1”と“2”に対してユーザが選定可能であり、トラック番号“3”のメインビデオトラックMVTRKに関してはユーザ選択不可能になっている。またオーディオトラックに関しては4トラック設定されている。図62(e)に示した実施形態ではメインオーディオトラックMATRKとサブオーディオトラックSATRKは、それぞれオーディオトラック番号ADTKNMが重複しない形でトラック番号が設定されており、メインオーディオトラックMATRKとサブオーディオトラックSATRKはそれぞれ異なるオーディオトラック番号ADTKNMが設定されている。それにより、再生すべきオーディオトラックとしてメインオーディオトラックMATRKとサブオーディオトラックSATRKを選択的に選定できる。オーディオトラック番号ADTKNMが“1”のオーディオトラックは英語(en)により表示されており、オーディオトラック番号ADTKNMが“2”と“3”のものは日本語(ja)により表示されている。オーディオトラック番号ADTKNMの“1”から“3”まではユーザが選択可能であるが、オーディオトラック番号ADTKNM“4”のオーディオトラックはユーザ選択が不可能な形となる。オーディオトラック番号ADTKNM“2”と“3”は同様に日本語で表示されているが音声内容が異なる為、オーディオ言語コードとオーディオ言語コード拡張記述子ADLCEXの値が“ja:01”と“ja:02”に識別される。また“1”から“4”までのサブタイトルトラック番号STTKNMで設定された4個のサブタイトルトラックSBTTRKが設定されている。サブタイトルトラック番号STTKNMが“1”のサブタイトルトラックSBTTRKは英語(en)で表示され、ユーザ選択可能であるが、前記サブタイトルトラックSBTTRKは強制出画を示すフラグFRCFLGが“true”と設定されている。従って、英語で表示される前記サブタイトルトラック番号STTKNMが“1”のサブタイトルトラックSBTTRKは強制的に出画しなければならない。またサブタイトルトラック番号STTKNMが“2”のサブタイトルトラックSBTTRKは日本語(ja)で表示され、サブタイトルトラック番号STTKNMが“3”のサブタイトルトラックSBTTRKは中国語(ch)により表示される。サブタイトルトラック番号STTKNMが“2”及び“3”のサブタイトルトラックSBTTRKは、いずれもユーザ選択が可能となっている。それに対してサブタイトルトラック番号STTKNMが“4”と設定されたサブタイトルトラックSBTTRKはユーザによる選択が不可能となっている。 A specific example of the track navigation list shown in FIG. 62 (e) will be described. In FIG. 62 (e), there are three video tracks. Of these, the user can select the track numbers “1” and “2”, and the user cannot select the main video track MVTRK of the track number “3”. In addition, four audio tracks are set. In the embodiment shown in FIG. 62 (e), the main audio track MATRK and the sub audio track SATRK are set with track numbers such that the audio track number ADTKNM does not overlap with each other, and the main audio track MATRK and the sub audio track SATRK are Different audio track numbers ADTKNM are set. Thereby, the main audio track MATRK and the sub audio track SATRK can be selectively selected as audio tracks to be reproduced. Audio tracks whose audio track number ADTKNM is “1” are displayed in English (en), and those whose audio track numbers ADTKNM are “2” and “3” are displayed in Japanese (ja). The audio track number ADTKNM “1” to “3” can be selected by the user, but the audio track number ADTKNM “4” cannot be selected by the user. The audio track numbers ADTKNM “2” and “3” are displayed in Japanese in the same way, but the audio content is different. : 02 ”. Also, four subtitle tracks SBTTRK set by subtitle track numbers STTKNM from “1” to “4” are set. The subtitle track SBTTRK with the subtitle track number STTKNM “1” is displayed in English (en) and can be selected by the user. However, the flag FRCFLG indicating forced image output is set to “true” in the subtitle track SBTTRK. Accordingly, the subtitle track SBTTRK whose subtitle track number STTKNM displayed in English is “1” must be forcibly output. The subtitle track SBTTRK with the subtitle track number STTKNM “2” is displayed in Japanese (ja), and the subtitle track SBTTRK with the subtitle track number STTKNM “3” is displayed in Chinese (ch). Any of the subtitle tracks SBTTRK having the subtitle track numbers STTKNM “2” and “3” can be selected by the user. On the other hand, the subtitle track SBTTRK in which the subtitle track number STTKNM is set to “4” cannot be selected by the user.
今まで説明してきたようなオーディオトラックエレメントADTRKの設定(記述)方法に従えば、図84(a)の具体例に示すようにメインオーディオトラックMATRKに対応したオーディオトラックエレメントADTRK内で設定されるオーディオトラック番号ADTKNMとサブオーディオトラックSATRKに対応したオーディオトラックエレメントADTRK内で設定されるオーディオトラック番号ADTKNMとの間では重複して同じ番号が設定されないよう配慮する必要がある。その結果、メインオーディオトラックMATRKに対応したオーディオトラックエレメントADTRK内とサブオーディオトラックSATRKに対応したオーディオトラックエレメントADTRK内で異なるオーディオトラック番号ADTKNMが設定される。それによりトラックナビゲーションインフォメーションTRNAVIを用いてユーザが特定のオーディオトラック番号ADTKNMを選択する事により、ユーザに表示・出力する音声情報としてメインオーディオトラックMATRKとサブオーディオトラックSATRKのいずれかが選択できる。上記実施形態では図62(d)に示すようにトラックナビゲーションリストエレメント(トラックナビゲーションインフォメーションTRNAVI)内にメインオーディオトラックMATRKに対応したオーディオトラックエレメントADTRKとサブオーディオトラックSATRKに対応したオーディオトラックエレメントADTRKの両方を配置(記述)している。本実施形態は上記に限らず、下記に示す他の応用例を採用することができる。すなわち他の応用例としてメインオーディオトラックMATRKに対応したオーディオトラックエレメントADTRKのみを設定し、サブオーディオトラックSATRKに対応したオーディオトラックエレメントADTRKを設定しない方法である。この場合には図62(d)に示すオーディオトラックエレメントADTRKに対応したトラック欄にはメインオーディオトラックMATRKのみが記述され、サブオーディオトラックSATRKは削除される。この応用例ではメインオーディオトラックMATRKに対応したオーディオトラックエレメントADTRKのみがトラックナビゲーションリストエレメント(トラックナビゲーションインフォメーションTRNAVI)内に配置(記述)され、表示・出力する音声情報としてユーザはメインオーディオトラックMATRKのみを選択する事になる。上記応用例ではサブオーディオトラックSATRKはメインオーディオトラックMATRKに連動して自動選択される事になる。例えば前記トラックナビゲーションインフォメーションTRNAVIを利用してユーザが“トラック番号3”のメインオーディオトラックMATRKを選択した場合には、ユーザに表示・出力されるサブオーディオトラックSATRKとしては“トラック番号3”のサブオーディオトラックSATRKが自動選択される。
According to the setting (description) method of the audio track element ADTRK as described above, the audio set in the audio track element ADTRK corresponding to the main audio track MATRK as shown in the specific example of FIG. It is necessary to consider that the same number does not overlap between the track number ADTKNM and the audio track number ADTKNM set in the audio track element ADTRK corresponding to the sub audio track SATRK. As a result, different audio track numbers ADTKNM are set in the audio track element ADTRK corresponding to the main audio track MATRK and in the audio track element ADTRK corresponding to the sub audio track SATRK. Accordingly, when the user selects a specific audio track number ADTKNM using the track navigation information TRNAVI, either the main audio track MATRK or the sub audio track SATRK can be selected as audio information to be displayed / output to the user. In the above embodiment, as shown in FIG. 62 (d), both the audio track element ADTRK corresponding to the main audio track MATRK and the audio track element ADTRK corresponding to the sub audio track SATRK in the track navigation list element (track navigation information TRNAVI). Is placed (description). The present embodiment is not limited to the above, and other application examples shown below can be adopted. That is, as another application example, only the audio track element ADTRK corresponding to the main audio track MATRK is set, and the audio track element ADTRK corresponding to the sub audio track SATRK is not set. In this case, only the main audio track MATRK is described in the track column corresponding to the audio track element ADTRK shown in FIG. 62 (d), and the sub audio track SATRK is deleted. In this application example, only the audio track element ADTRK corresponding to the main audio track MATRK is placed (description) in the track navigation list element (track navigation information TRNAVI), and the user selects only the main audio track MATRK as the audio information to be displayed / output. You will choose. In the above application example, the sub audio track SATRK is automatically selected in conjunction with the main audio track MATRK. For example, when the user selects the main audio track MATRK of “
プレイリストPLLSTの中に含まれるオブジェクトマッピングインフォメーションOBMAPI内のネットワークソースエレメントNTSELEのデータ構造を図63(c)に示す。また、同様にオブジェクトマッピングインフォメーションOBMAPI内のアプリケーションリソースエレメントAPRELEのデータ構造を図63(d)に示す。アドバンストコンテンツ再生部ADVPLが事前にデータキャッシュDTCCH内に一時保存しておくリソースがネットワークサーバNTSRV内に存在する時に、オブジェクトマッピングインフォメーションOBMAPI内にネットワークソースエレメントNTSELEを記述することができる。図18に示すように元々記録されている場所がネットワークサーバNTSRV内に存在しうる再生表示対象となるオブジェクト名はサブスティテュートオーディオビデオSBTAV、セカンダリーオーディオビデオSCDAV、サブスティテュートオーディオSBTAD、及びアドバンストサブタイトルADSBTとアドバンストアプリケーションADAPLが存在する。従って元々記録されている場所としてネットワークサーバNTSRVを設定出来るオブジェクトに対応したクリップエレメントはサブスティテュートオーディオビデオクリップSBAVCP、セカンダリーオーディオビデオクリップSCAVCPとサブスティテュートオーディオクリップSBADCP、及びアドバンストサブタイトルセグメントADSTSGとアプリケーションセグメントAPPLSGとなる。それに対応して、図63に示すようにサブスティテュートオーディオビデオクリップエレメントSBAVCP、サブスティテュートオーディオクリップエレメントSBADCPとセカンダリーオーディオビデオクリップエレメントSCAVCP内にネットワークソースエレメントNTSELEを記述する事が出来る。図63(b)内においては各クリップエレメント毎に1個ずつのネットワークソースエレメントNTSELEが記述されているが、実際には同一のクリップエレメント内に複数のネットワークソースエレメントNTSELEを記述する事ができる。図67に示すように同一クリップエレメント内に1個以上のネットワークソースエレメントNTSELEを記述する事により、情報記録再生装置1のネットワーク環境に最適なリソースを設定する事が可能となる。
FIG. 63 (c) shows the data structure of the network source element NTSELE in the object mapping information OBMAPI included in the playlist PLLST. Similarly, FIG. 63 (d) shows the data structure of the application resource element APRELE in the object mapping information OBMAPI. When there are resources in the network server NTSRV that the advanced content playback unit ADVPL temporarily stores in the data cache DTCCH in advance, the network source element NTSELE can be described in the object mapping information OBMAPI. As shown in FIG. 18, the names of objects to be reproduced and displayed where the originally recorded location can exist in the network server NTSRV are the substitute audio video SBTAV, the secondary audio video SCDAV, the substitute audio SBTAD, and the advanced subtitle ADSBT. Advanced application ADAPL exists. Therefore, the clip elements corresponding to the objects that can set the network server NTSRV as the originally recorded location are the substitute audio video clip SBAVCP, the secondary audio video clip SCAVCP, the substitute audio clip SBADCP, the advanced subtitle segment ADSTSG, and the application segment APPLSG. Become. Correspondingly, the network source element NTSELE can be described in the substitute audio video clip element SBAVCP, the substitute audio clip element SBADCP and the secondary audio video clip element SCAVCP as shown in FIG. In FIG. 63 (b), one network source element NTSELE is described for each clip element, but actually, a plurality of network source elements NTSELE can be described in the same clip element. As shown in FIG. 67, by describing one or more network source elements NTSELE in the same clip element, it is possible to set an optimum resource for the network environment of the information recording / reproducing
<ネットワークソース(NetworkSource)>
図63(c)に示すネットワークソースエレメントNTSELEは、データキャッシュDTCCHに一時保存するネットワークコンテンツの候補を示している。また前記ネットワークソースエレメントNTSELE内には、その候補に対応したリソースをファイルキャッシュFLCCH内にダウンロードする時に保証するネットワークスループット条件に関する情報も記載されている。また、アプリケーションリソースエレメントAPRELEまたはタイトルリソースエレメント内のSRC属性情報に記述される値が“http”または“https”で記述されている場合には、前記アプリケーションリソースエレメントAPRELEまたはタイトルソースエレメント内に前記ネットワークソースエレメントNTSELEを記述する事が出来る。図63(c)に記載したネットワークスループットの許容最小値情報NTTRPTは対応するSRC属性情報SRCNTSで指定した保存場所からのネットワークソース(データまたはファイル)をダウンロードする場合のネットワークスループット(データ転送レート)に関し、ネットワークシステムとして許容される最小値を表している。また、前記ネットワークスループットの許容最小値情報NTTRPTの値としては1000bpsを単位として記述される。前記ネットワークスループットの許容最小値情報NTTRPTに記録される値は“0”もしくは自然数の値を記録しなければならない。図63(c)に記述するネットワークソースエレメントNTSELE内のsrc属性情報には前述したネットワークスループットの許容最小値に対応したネットワークソースの保存場所SRCNTSの値が記入され、URI(ユニフォーム・リソース・インフォメーション)の表示形式に基づいて記述される。このネットワークソースエレメントNTSELEがセカンダリーオーディオビデオクリップエレメントSCAVCP内またはサブスティテュートオーディオビデオクリップエレメントSBAVCP、サブスティテュートオーディオクリップエレメントSBADCP内で設定されている場合には、セカンダリーエンハンストビデオオブジェクトデータS-EVOBのタイムマップファイルSTMAPの保存場所を指定する。また前記ネットワークソースエレメントNTSELEがアプリケーションリソースエレメントAPRELE内またはタイトルリソースエレメント内で設定されている場合には、src属性情報はファイルキャッシュFLCCHへローディングするファイルの保存場所を示している。前記ファイルキャッシュFLCCHへローディグする具体的なファイル内容としては、図11に示すアドバンストアプリケーションディレクトリADAPLの中に含まれるファイルであるマニュフェストファイルMNFST、マークアップファイルMRKUP、スクリプトファイルSCRPT、静止画ファイルIMAGE、イフェクトオーディオファイルEFTAD、フォントファイルFONT、及びアドバンストサブタイトルディレクトリADSBT内に存在するアドバンストサブタイトルのマニュフェストファイルMNFSTS、アドバンストサブタイトルのマークアップファイルMRKUPS、及びアドバンストサブタイトルのフォントファイルFONTSなどが上げられる。図10もしくは図25に示すようにアドバンストアプリケーションADAPLとアドバンストサブタイトルADSBTは情報記憶媒体DISC、パーシステントストレージPRSTR、ネットワークサーバNTSRVいずれに保存されていたとしても事前にファイルキャッシュFLCCH内に一時保存され、前記ファイルキャッシュFLCCHから再生表示される必要が有る。このようにアドバンストサブタイトルADSBTから参照(使用)されるリソースの保存場所(パス)とファイル名やデータサイズの情報が図63(d)に示すアプリケーションリソースエレメントAPRELE内に記述される。また前記アプリケーションリソースエレメントAPRELEはアドバンストサブタイトルセグメントエレメントADSTSG内、またはアプリケーションセグメントエレメントAPPLSG内に記述できる。また本実施形態においてコンテンツ毎に参照(利用)されるリソース毎に別々のアプリケーションリソースエレメントAPRELEとして記述されなければならない。例えば図12もしくは図11に示すようにアドバンストサブタイトルADSBTを構成するコンテンツとしてアドバンストサブタイトルのマニュフェストMNFSTS、アドバンストサブタイトルのマークアップMRKUPS、アドバンストサブタイトルのフォントFONTSが存在する場合には、図63(b)内のアドバンストサブタイトルセグメントエレメントADSTSG内に前記アドバンストサブタイトルのマニュフェストMNFSTSに対応した1個のアプリケーションリソースエレメントAPRELEが記述されると共に、アドバンストサブタイトルのマークアップMRKUPSに対応したアプリケーションリソースエレメントAPRELE、前記アドバンストサブタイトルのフォントFONTSに対応したアプリケーションリソースエレメントAPRELEが記述される。図63(b)ではアドバンストサブタイトルセグメントエレメントADSTSG内に1個のみのアプリケーションリソースエレメントAPRELEが記述され、アプリケーションセグメントエレメントAPPLSG内に1個のアプリケーションリソースエレメントAPRELEが記述されているが、実際にはアドバンストサブタイトルADSBTを構成する各コンテンツ毎にアプリケーションリソースエレメントAPRELEが記述されると共にアドバンストアプリケーションADAPLから参照(使用)されるリソース毎に複数のアプリケーションリソースエレメントAPRELEが記述される。更に図63(d)に示すようにアプリケーションリソースエレメントAPRELEで管理されるリソースがネットワークサーバNTSRV内に保存されている場合には、前記アプリケーションリソースエレメントAPRELE内にネットワークソースエレメントNTSELEが記述できる仕組みになっている。図67の例に示すように同一内容のコンテンツ(同一内容を示すファイル)を示す(互いにデータサイズが異なる)複数のリソースがネットワークサーバNTSRV内に保存されている場合には、同一のアプリケーションリソースエレメントAPRELE内に1個以上のネットワークソースエレメントNTSELEが記述でき、情報記録再生装置1のネットワーク環境に応じた最適なリソースを選択してダウンロードできる形になっている。
<Network Source>
A network source element NTSELE shown in FIG. 63 (c) indicates network content candidates to be temporarily stored in the data cache DTCCH. In the network source element NTSELE, information on network throughput conditions guaranteed when a resource corresponding to the candidate is downloaded into the file cache FLCCH is also described. When the value described in the SRC attribute information in the application resource element APRELE or the title resource element is described as “http” or “https”, the network is included in the application resource element APRELE or the title source element. Source element NTSELE can be described. The network throughput allowable minimum value information NTTRPT described in FIG. 63 (c) relates to the network throughput (data transfer rate) when downloading the network source (data or file) from the storage location specified by the corresponding SRC attribute information SRCNTS. Represents the minimum value allowed for the network system. The value of the network throughput allowable minimum value information NTTRPT is described in units of 1000 bps. The value recorded in the network throughput allowable minimum value information NTTRPT must be “0” or a natural number. In the src attribute information in the network source element NTSELE described in FIG. 63 (c), the value of the network source storage location SRCNTS corresponding to the above-described minimum allowable network throughput is entered, and URI (Uniform Resource Information) It is described based on the display format. If this network source element NTSELE is set in the secondary audio video clip element SCAVCP or in the substitute audio video clip element SBAVCP or the substitute audio clip element SBADCP, the time map file of the secondary enhanced video object data S-EVOB Specify the STMAP storage location. When the network source element NTSELE is set in the application resource element APRELE or the title resource element, the src attribute information indicates the storage location of the file loaded into the file cache FLCCH. Specific file contents to be loaded into the file cache FLCCH include a manifest file MNFST, a markup file MRKUP, a script file SCRPT, a still image file IMAGE, and an effect included in the advanced application directory ADAPL shown in FIG. An audio file EFTAD, a font file FONT, an advanced subtitle manifest file MNFSTS present in the advanced subtitle directory ADSBT, an advanced subtitle markup file MRKUPS, an advanced subtitle font file FONTS, and the like. As shown in FIG. 10 or FIG. 25, even if the advanced application ADAPL and the advanced subtitle ADSBT are stored in any of the information storage medium DISC, persistent storage PRSTR, and network server NTSRV, they are temporarily stored in the file cache FLCCH in advance. It is necessary to reproduce and display from the file cache FLCCH. As described above, the information on the storage location (path) of the resource referenced (used) from the advanced subtitle ADSBT, the file name, and the data size is described in the application resource element APRELE shown in FIG. The application resource element APRELE can be described in the advanced subtitle segment element ADSTSG or the application segment element APPLSG. In the present embodiment, each resource that is referenced (used) for each content must be described as a separate application resource element APRELE. For example, as shown in FIG. 12 or 11, when the advanced subtitle manifest MNFSTS, the advanced subtitle markup MRKUPS, and the advanced subtitle font FONTS exist as the contents constituting the advanced subtitle ADSBT, In the advanced subtitle segment element ADSTSG, one application resource element APRELE corresponding to the manifest MNFSTS of the advanced subtitle is described, and the application resource element APRELE corresponding to the markup MRKUPS of the advanced subtitle, the font FONTS of the advanced subtitle A corresponding application resource element APRELE is described. In FIG. 63 (b), only one application resource element APRELE is described in the advanced subtitle segment element ADSTSG, and one application resource element APRELE is described in the application segment element APPLSG. An application resource element APRELE is described for each content constituting the ADSBT, and a plurality of application resource elements APRELE are described for each resource referenced (used) from the advanced application ADAPL. Further, as shown in FIG. 63 (d), when the resource managed by the application resource element APRELE is stored in the network server NTSRV, the network source element NTSELE can be described in the application resource element APRELE. ing. As shown in the example of FIG. 67, when a plurality of resources indicating the same content (files indicating the same content) (data sizes different from each other) are stored in the network server NTSRV, the same application resource element One or more network source elements NTSELE can be described in APRELE, and an optimum resource corresponding to the network environment of the information recording / reproducing
<アプリケーションリソースエレメント(ApplicationResourced Element)>
例えばアドバンストサブタイトルADSBTやアドバンストアプリケーションADAPLなどのアプリケーションで参照(使用)されるリソースに関するリソースインフォメーションRESRCIが図63(d)に示すアプリケーションリソースエレメントAPRELEに記述される。また前記アプリケーションリソースエレメントAPRELEは、ファイルキャッシュFLCCHに保存(ロード)すべきリソースの保存場所(パス)とファイル名(データ名)を示す。前記リソースの保存場所(パス)とファイル名(データ名)がsrc属性情報内に記述される。アドバンストコンテンツ再生部ADVPLはアドバンストサブタイトルADSBTやアドバンストアプリケーションADAPLなどのアプリケーションが実行開始される前にアプリケーションリソースエレメントAPRELEで指定されたリソースファイルをファイルキャッシュFLCCH内に保存しなければならない。またアプリケーションセグメントエレメントAPPLSG内の有効期間(図56(d)のtitleTimeBegin/TTSTTMからtitleTimeEnd/TTEDTMまでの期間)の中に前記アプリケーションリソースエレメントAPRELEの有効期間が含まれる必要が有る。前記アプリケーションリソースエレメントAPRELEで定義されたリソースのタイトルタイムラインTMLE上での有効期間内の開始時間は、それぞれ対応するアプリケーションセグメントエレメントAPPLSGの有効期間の開始時期を示すタイトルタイムライン上の開始時間TTSTTM(titleTimeBegin)と一致し、また前記リソースのタイトルタイムライン上での有効期間の終了時間は対応するアプリケーションセグメントエレメントAPPLSG内に記載された有効期間の終了時間を表すタイトルタイムライン上の終了時間TTEDTM(titleTimeEnd)と一致する。図73(d)にプライマリーエンハンストビデオオブジェクトデータP-EVOB内にアドバンストパックADV_PCKがマルチプレックスされた状態が示されている。このように図63(d)に示したアプリケーションリソースエレメントAPRELEで示すリソースがプライマリービデオセットPRMVS内にマルチプレックスされて記録されても良い。この場合の対象リソースの取込み(ローディング)を開始するタイトルタイムライン上の時間PRLOAD(loadingBegin)は、対応するリソースを含むプライマリーエンハンストビデオオブジェクトデータP-EVOBのアドバンストパックADV_PCKのローディング期間の開始時間を表している。また前記リソースの保存場所としてパーシステントストレージPRSTR内を指定できる。この場合の対象リソースの取込み(ローディング)を開始するタイトルタイムライン上の時間PRLOAD(loadingBegin)は前記パーシステントストレージPRSTRからリソースをダウンロードするローディング期間の開始時間を意味している。また前記リソースの保存場所としてネットワークサーバNTSRVを指定しても良い。この場合のsrc属性情報は“http”若しくは“https”から始まるURI(ユニフォーム・リソース・アイデンティファイヤー)で記述される。この場合の対象リソースの取込み(ローディング)を開始するタイトルタイムライン上の時間PRLOAD(loadingBegin)は、対応するリソースをダウンロードするローディング期間の開始時間を表す。図63(d)に示すアプリケーションリソースエレメントAPRELE内のsrc属性情報の値が“http”若しくは“https”で始まるURI(ユニフォーム・リソース・アイデンティファイヤー)で記述された場合には、データキャッシュDTCCH内にダウンロードされるデータまたはファイルの保存場所SRCDTCがネットワークサーバNTSRV内に存在する事を示す。またその場合には前記アプリケーションリソースエレメントAPRELE内にネットワークソースエレメントNTSELEが記述される事が有る。前記ネットワークソースエレメントNTSELEは図67に示すようにネットワークスループットの設定に応じ、選択されるべきリソース情報を示している。以下に図63(d)に示すアプリケーションリソースエレメントAPRELEタグ内の各属性情報について説明を行う。データキャッシュにロードする前記データ又はファイルのサイズ情報DTFLSZはバイトを単位とした正数値で表現し、前記アプリケーションリソースエレメントAPRELEタグ内での記述を省いても良い。対応リソース削除に対する優先順位情報PRIORT(priority属性情報)はタイトル又は実行中のアドバンストアプリケーションから参照されなくなった対応リソースをデータキャッシュから削除する場合の優先順位を示している。すなわちアドバンストアプリケーションが参照(使用)しなくなったアプリケーションリソースエレメントAPRELEは、優先順位の高いものから順に削除される。また前記の値は1から“2の31乗−1”までの範囲の正数値を記述する事が出来る。priority属性情報で設定される値が高いリソースから先に削除する。前記アプリケーションリソースが2048バイト毎に分割され、各2048バイト毎のデータがアドバンストパックADV_PCKの中にパッケージングされ、図73(d)に示すようにプライマリーエンハンストビデオオブジェクトデータP-EVOB内にマルチプレックスされて情報記憶媒体DISC内に記録される事がある。前記アプリケーションリソースが前記マルチプレックスされた形で記録されているか否かを示す情報がマルチプレックスト属性情報MLTPLX(multiplexed属性情報)と呼ぶ。もし、前記マルチプレックスト属性情報MLTPLXが“true”の場合はタイトルタイムライン上のローディング時間LOADPE中に保存データをプライマリーエンハンストビデオオブジェクトP-EVOB内のアドバンストパックADV_PCKの中からローディングする事を示し、また前記マルチプレックスド属性情報MLTPLX(multiplexed属性情報)が“false”の場合は、元々保存されている場所SRCDTCからファイルとしてプリロードされなければならない事を意味している。前記アプリケーションリソースエレメントAPRELE内での前記マルチプレックスド属性情報MLTPLXの記載を削除しても良い。対象リソースの取込み(ローディング)を開始するタイトルタイムライン上の時間PRLOAD(loadingBegin属性情報)は“HH:MM:SS:FF”で記述される。もし、前記アプリケーションリソースエレメントAPRELE内に前記対象対象リソースの取込み(ローディング)を開始するタイトルタイムライン上の時間PRLOADを記述されない場合にはローディング期間の開始時間は対応した対応したアドバンストアプリケーションADAPLの有効期間の開始時間(図56(d)のタイトルタイムライン上の開始時間TTSTTM)と一致しなければならない。このようにアドバンストアプリケーションADAPLの開始時間にアプリケーションリソースのローディングを開始させる事により、ドバンストアプリケーションADAPLの有効期間内で最も早い時間で前記アプリケーションリソースをローディング完了させる事が出来、アドバンストアプリケーションADAPL内での必要な時での前記アプリケーションリソースの活用時間を早く出来るという効果がある。前記対象対象リソースの取込み(ローディング)を開始するタイトルタイムライン上の時間PRLOADは、それが記述されているアプリケーションリソースエレメントAPRELEのペアレントエレメント(アプリケーションセグメントエレメントAPPLSGまたはアドバンストサブタイトルセグメントエレメントADSTSG)内で記述されているタイトルタイムライン上の開始時間TTSTTM以前の時間を示す必要が有る。またマルチプレックスト属性情報MLTPLXが“true”の場合は図65(a)に示す方法でリソースをファイルキャッシュFLCCH内にダウンロードするので、対象リソースの取込み(ローディング)を開始するタイトルタイムライン上の時間PRLOAD(loadingBegin属性情報)の記述を省いてはならない。
<Application Resource element>
For example, resource information RESRCI related to a resource referred to (used) by an application such as the advanced subtitle ADSBT or the advanced application ADAPL is described in an application resource element APRELE shown in FIG. The application resource element APRELE indicates a storage location (path) and a file name (data name) of a resource to be stored (loaded) in the file cache FLCCH. The storage location (path) and file name (data name) of the resource are described in the src attribute information. The advanced content playback unit ADVPL must store the resource file specified by the application resource element APRELE in the file cache FLCCH before an application such as the advanced subtitle ADSBT or the advanced application ADAPL is started. Also, the valid period of the application resource element APRELE needs to be included in the valid period (the period from titleTimeBegin / TTSTTM to titleTimeEnd / TTEDTM in FIG. 56 (d)) in the application segment element APPLSG. The start time within the effective period on the title timeline TMLE of the resource defined by the application resource element APRELE is the start time TTSTTM (on the title timeline indicating the start time of the effective period of the corresponding application segment element APPLSG ( titleTimeBegin), and the end time of the validity period on the title timeline of the resource is the end time TTEDTM (titleTimeEnd on the title timeline indicating the end time of the validity period described in the corresponding application segment element APPLSG ). FIG. 73 (d) shows a state in which the advanced pack ADV_PCK is multiplexed in the primary enhanced video object data P-EVOB. In this way, the resource indicated by the application resource element APRELE shown in FIG. 63 (d) may be multiplexed and recorded in the primary video set PRMVS. In this case, the time PRLOAD (loadingBegin) on the title timeline for starting loading (loading) of the target resource represents the start time of the loading period of the advanced pack ADV_PCK of the primary enhanced video object data P-EVOB including the corresponding resource. ing. Further, the persistent storage PRSTR can be designated as the storage location of the resource. In this case, the time PRLOAD (loadingBegin) on the title timeline for starting the loading of the target resource means the start time of the loading period for downloading the resource from the persistent storage PRSTR. Further, the network server NTSRV may be designated as the resource storage location. The src attribute information in this case is described by a URI (Uniform Resource Identifier) starting from “http” or “https”. In this case, the time PRLOAD (loadingBegin) on the title timeline at which the loading (loading) of the target resource is started represents the start time of the loading period for downloading the corresponding resource. If the value of the src attribute information in the application resource element APRELE shown in FIG. 63 (d) is described by a URI (Uniform Resource Identifier) starting with “http” or “https”, the data cache DTCCH Indicates that the storage location SRCDTC of the data or file to be downloaded exists in the network server NTSRV. In this case, the network source element NTSELE may be described in the application resource element APRELE. The network source element NTSELE indicates resource information to be selected according to the network throughput setting as shown in FIG. The following describes each attribute information in the application resource element APRELE tag shown in FIG. 63 (d). The size information DTFLSZ of the data or file to be loaded into the data cache may be expressed by a positive value in units of bytes, and the description in the application resource element APRELE tag may be omitted. The priority information PRIORT (priority attribute information) for deleting the corresponding resource indicates the priority when the corresponding resource that is no longer referred to by the title or the advanced application being executed is deleted from the data cache. That is, the application resource elements APRELE that are no longer referenced (used) by the advanced application are deleted in descending order of priority. The above value can describe a positive value in a range from 1 to "2 to the 31st power-1". Delete resources with higher values set in priority attribute information first. The application resource is divided into 2048 bytes, and data for each 2048 bytes is packaged in the advanced pack ADV_PCK and multiplexed in the primary enhanced video object data P-EVOB as shown in FIG. 73 (d). May be recorded in the information storage medium DISC. Information indicating whether or not the application resource is recorded in the multiplexed form is referred to as multiplexed attribute information MLTPLX (multiplexed attribute information). If the multiplexed attribute information MLTPLX is “true”, it indicates that the stored data is loaded from the advanced pack ADV_PCK in the primary enhanced video object P-EVOB during the loading time LOADPE on the title timeline, Further, when the multiplexed attribute information MLTPLX (multiplexed attribute information) is “false”, it means that it must be preloaded as a file from the originally stored location SRCDTC. The description of the multiplexed attribute information MLTPLX in the application resource element APRELE may be deleted. The time PRLOAD (loadingBegin attribute information) on the title timeline at which the loading (loading) of the target resource is started is described as “HH: MM: SS: FF”. If the time PRLOAD on the title timeline for starting the loading (loading) of the target target resource is not described in the application resource element APRELE, the starting time of the loading period is the valid period of the corresponding advanced application ADAPL. Must coincide with the start time (start time TTSTTM on the title timeline in FIG. 56 (d)). In this way, by loading the application resource at the start time of the advanced application ADAPL, the loading of the application resource can be completed in the earliest time within the effective period of the advanced application ADAPL. There is an effect that the application resource can be used quickly when necessary. The time PRLOAD on the title timeline for starting the loading (loading) of the target target resource is described in the parent element (application segment element APPLSG or advanced subtitle segment element ADSTSG) of the application resource element APRELE in which it is described. It is necessary to indicate the time before the start time TTSTTM on the title timeline. When the multiplexed attribute information MLTPLX is “true”, the resource is downloaded into the file cache FLCCH by the method shown in FIG. 65 (a). The description of PRLOAD (loadingBegin attribute information) must not be omitted.
またノーキャッシュ属性情報NOCACH(noCache属性情報)が“true”の場合は、HTTPのGETリクエスト内にCach-ControlヘッダーとPragmaヘッダーが含まれる事を示し、“false”の場合はHTTPのGETリクエスト内に前記Cach-ControlヘッダーとPragmaヘッダーが含まれない事を意味している。前記ノーキャッシュ属性情報NOCACHの記載を省く事が出来、その場合にはデフォルト値として“false”が設定される。更に、アプリケーションエレメントに関する付加情報を表すdescription属性情報は人に馴染みの深いテキストフォーマットで記述され、前記属性情報の記載を省く事も可能である。 If the no-cache attribute information NOCACH (noCache attribute information) is “true”, it indicates that the HTTP GET request includes the Caché-Control header and the Pragma header. If it is “false”, the HTTP GET request Does not include the Cach-Control header and the Pragma header. The description of the no-cache attribute information NOCACH can be omitted. In this case, “false” is set as a default value. Further, description attribute information representing additional information related to the application element is described in a text format familiar to people, and the attribute information can be omitted.
本実施形態における各種再生・表示オブジェクトをタイトルタイムラインTMLEの進行に合わせて予定通り表示/実行するための技術的ポイントを以下に示す。本実施形態における技術的ポイントは、“タイトルタイムラインTMLEの進行に合わせて表示又は実行の開始を保証できるしくみ”と“データキャッシュDTCCH内の事前のローディングが間に合わなかった場合の対応のしくみ”に二分できる。以下に本実施形態における技術的ポイントを箇条書きする。 The technical points for displaying / executing various playback / display objects in this embodiment as scheduled in accordance with the progress of the title timeline TMLE are shown below. The technical points in this embodiment are “a mechanism that can guarantee the start of display or execution in accordance with the progress of the title timeline TMLE” and “a mechanism that copes with when the preloading in the data cache DTCCH is not in time”. I can do it in half. The technical points in this embodiment are listed below.
1.タイトルタイムラインTMLEの進行に合わせ、表示又は実行開始を保証できるしくみ
*1 アドバンストアプリケーションADAPL、アドバンストサブタイトルADSBTと一部のセカンダリービデオセットSCDVSを事前にデータキャッシュDTCCH内に一時保存し、データキャッシュDTCCH内に一時保存したデータを使ってユーザへの表示又は実行処理を行う(図25参照)
*2 データキャッシュDTCCH内に事前に一時保存すべきデータ名又はファイル名及びそれらの元々の保存場所情報がプレイリストPLLST内(各種クリップエレメント、ネットワークソースエレメントNTSELE、アプリケーションリソースエレメントAPRELE、タイトルリソースエレメント、プレイリストアプリケーションリソースエレメントPLRELE内)のsrc属性情報(ソース属性情報)内に記述されている(図83参照)
…データキャッシュDTCCH内に事前に一時保存すべきデータ又はファイルとそのためのアクセス先が判る
*3 データキャッシュDTCCH内に事前にローディングを開始するタイミングがプレイリスPLLST内(クリップエレメント、アプリケーションリソースエレメントAPRELE、タイトルリソースエレメント内)の“対象リソースの取込み(ローディング)を開始するタイトルタイムライン上の時間PRLOAD(loadingBegin属性又はpreload属性)”により指定される(図65、図54、図55、図63、図66参照)
*4 情報記録再生装置1のネットワーク環境に合わせてローディングに最適なデータ又はファイルを選択できる情報がプレイリストPLLST内(ネットワークソースエレメントNTSELE)に記述されている(図67、図68参照)
2.データキャッシュDTCCH内の事前のローディングが間に合わなかった場合の対処のしくみ
*5 プレイリストPLLST内(クリップエレメント内、セグメントエレメント内)の“再生表示オブジェクトの同期属性情報SYNAT(sync属性情報)”内に再生表示オブジェクトに合わせた対処方法が指定される(図54、図55、図56参照)
・ sync = “ hard ”(ハード同期属性)の場合は、ローディングが完了するまでタイトルタイムラインTMLEの進行を止め、動画像を一時的に静止させる
・ sync = “ soft ”(ソフト同期属性)の場合は、タイトルタイムラインTMLE上の進行はそのまま継続させ、ローディングが完了してから(タイトルタイムラインTMLE上で指定された表示開始時間TTSTTM/titleTimeBeginよりも遅れて)再生開始させる
前述した技術的なポイントを実行した場合には、ファイルキャッシュFLCCH内でのリソース保存時間として図64に示す5つの状態が存在する。
1. A system that guarantees display or execution start in accordance with the progress of the title timeline TMLE * 1 Advanced application ADAPL, advanced subtitle ADSBT and some secondary video sets SCDVS are temporarily stored in the data cache DTCCH beforehand, and in the data cache DTCCH Display or execution processing to the user is performed using the data temporarily stored in (see FIG. 25)
* 2 Data names or file names that should be temporarily stored in the data cache DTCCH and their original storage location information are stored in the playlist PLLST (various clip elements, network source element NTSELE, application resource element APRELE, title resource element, It is described in the src attribute information (source attribute information) of the playlist application resource element (PLRELE) (see FIG. 83).
… The data or file to be temporarily stored in the data cache DTCCH and the access destination for that are known. * 3 The timing for starting the loading in the data cache DTCCH in advance in the playlist PLLST (clip element, application resource element APRELE, title) (Within the resource element) “specified on the time PRLOAD (loadingBegin attribute or preload attribute) on the title timeline at which the loading (loading) of the target resource is started” (FIGS. 65, 54, 55, 63, and 66) reference)
* 4 Information that can select the optimal data or file for loading according to the network environment of the information recording / reproducing
2. How to cope when the pre-loading in the data cache DTCCH is not in time * 5 In “Playback display object synchronization attribute information SYNAT (sync attribute information)” in the playlist PLLST (in the clip element and segment element) A coping method according to the reproduction display object is designated (see FIGS. 54, 55, and 56).
-If sync = "hard" (hard sync attribute), the title timeline TMLE stops moving until the loading is completed, and the video is temporarily frozen.
-When sync = "soft" (soft sync attribute), the progress on the title timeline TMLE is continued as it is, and after loading is completed (from the display start time TTSTTM / titleTimeBegin specified on the title timeline TMLE) When the above-described technical point is executed, there are five states shown in FIG. 64 as resource storage time in the file cache FLCCH.
<リソースステートマシン(Resource State Machine)>
前記5つの状態としてはローディング時間LOADPE、実行・使用時間USEDTM、準備時間READY、ファイルキャッシュからのデータ削除後時間N-EXST、ファイルキャッシュ内へのアドバンストアプリケーションデータ保存時間AVLBLEが存在し、タイトルタイムラインTMLE上での時間進行に合わせて各状態間の遷移が発生する。以下に図64における状態遷移についての説明を行う。
<Resource State Machine>
The five states include loading time LOADPE, execution / use time USEDTM, preparation time READY, time N-EXST after deleting data from the file cache, advanced application data storage time AVLBLE in the file cache, title timeline Transitions between states occur as time progresses on the TMLE. The state transition in FIG. 64 will be described below.
(A)ファイルキャッシュFLCCH内にリソースが保存されていない時には、対応するリソースはファイルキャッシュからのデータ削除後時間N-EXSTになる。プレイリストアプリケーションリソースPLAPRS以外の全てのリソースは、タイトルの再生開始前にはファイルキャッシュからのデータ削除後時間N-EXSTとなっている。また既にファイルキャッシュFLCCH内にリソースが一時保存されていたとしても、図28に示すナビゲーションマネージャNVMNG内のファイルキャッシュマネージャFLCMNGが前記リソースの削除処理を行った後には、ファイルキャッシュからのデータ削除後時間N-EXSTとなる。 (A) When no resource is stored in the file cache FLCCH, the corresponding resource becomes the time N-EXST after data is deleted from the file cache. All resources other than the playlist application resource PLAPRS have a time N-EXST after the data is deleted from the file cache before the reproduction of the title is started. Even if the resource is already temporarily stored in the file cache FLCCH, the time after the data is deleted from the file cache after the file cache manager FLCMNG in the navigation manager NVMNG shown in FIG. N-EXST.
(B)リソースのローディングが開始されるとファイルキャッシュFLCCH内データ保存状態はローディング時間LOADPEの状態に遷移する。図28に示すようにナビゲーションマネージャNVMNG内のファイルキャッシュマネージャFLCMNGがファイルキャッシュFLCCH内に保存されるデータの管理を行っている。前記リソースのローディング開始に先立ってファイルキャッシュFLCCH内における保存すべきリソースに対して充分空きのあるメモリブロックを準備しておく必要があり、保存すべきリソースに対応したメモリブロックの空き領域設定の保証を前記ファイルマネージャFLCMNが行う。本実施形態においては図66(c)、(d)に示すようにプレイリストファイルPLLST内のリソースインフォメーションRESRCIの内容はタイトルリソースエレメントのリストを意味している。それに限らず本実施形態における他の応用例としてリソースインフォメーションRESRCIの概念を拡張し、リソースインフォメーションRESRCIに含まれる情報として図66(d)に示すタイトルリソースエレメントのみならず図70及び図71に示すアプリケーションリソースエレメントAPRELEとプレイリストアプリケーションリソースエレメントPLRELEの3種類のリソースエレメントを総合してリソースインフォメーションRESRCIと呼ぶ事も出来る。前記応用例に従った場合のリソースインフォメーションRESRC内において、図66(d)に示すタイトルリソースエレメントと図63(d)に示すアプリケーションリソースエレメントAPRELE内に対象リソースの取込み(ローディング)を開始するタイトルタイムライン上の時間PRLOAD(LoadingBegin属性情報)が存在する場合には、前記対象リソースの取込(ローディング)を開始するタイトルタイムライン上の時間PRLOADの時間(LoadingBegin属性情報)から前記ローディング時間LOADPEが開始される。前記タイトルリソースエレメント内もしくは前記アプリケーションリソースエレメントAPRELE内に前記対象リソースの取込み(ローディング)を開始するタイトルタイムライン上の時間PRLOAD(LoadingBegin属性情報)の記述が省かれていた場合には、対応したリソースのタイトルタイムライン上の開始時間TTSTTM(titleTimeBegin属性情報)から前記ローディング時間LOADPEが開始される(図65(b)参照)。図56(d)に示すようにアプリケーションセグメントエレメントAPPLSG内にオートラン属性情報ATRNATの情報が存在する。前記オートラン属性情報ATRNATの値が“false”の場合には、対応するアプリケーションを自動的に実行状態に入らずAPIコマンドにより初めてアクティブ(実行)状態になる。このようにオートラン属性情報ATRNATの値が“false”の場合には対応するアドバンストアプリケーションADAPLで参照(使用)されるリソースのローディングは開始されない。図56(b)に示すようにアドバンストアプリケーションADAPLから参照(使用)されるリソースに関する情報がアプリケーションリソースエレメントAPRELEのリストとして記述され、前記アプリケーションリソースエレメントAPRELEのリストがアプリケーションセグメントエレメントAPPLSG内に配置されている。従ってオートラン属性情報ATRNATの値が“false”の場合には、対応したアプリケーションリソースエレメントAPRELEで管理されたリソースのローディング開始は行われない。指定されたアドバンストアプリケーションADAPLが参照(使用)するリソースのローディング期間中に前記オートラン属性情報ATRNATが“false”に変更された場合には、ローディング途中のリソースのローディングがキャンセルされ、既にファイルキャッシュFLCCH内にローディングされたリソースが削除される。また図57で説明したように使用する言語情報に応じて実行(アクティブ)状態になるアドバンストアプリケーションADAPLが選択される。更に図58に示すようにアプリケーションセグメントエレメントAPPLSG内のアプリケーションアクティベーションインフォメーションの設定値の組み合わせにより、図58の判定に従ってアドバンストアプリケーションADAPLが有効であるか無効であるかが判定される。このように図57もしくは図58に示す手順によりアドバンストアプリケーションADAPLが無効と見なされた場合にも、対応アプリケーションセグメントエレメントAPPLSG内で指定されたリソースのローディング開始は行われない。このように確実に使用される事が決まっているアドバンストアプリケーションADAPLが参照(使用)するリソースのみをファイルキャッシュFLCCH内へローディングする事でファイルキャッシュFLCCH内に不要なリソースのローディングを排除し、ファイルキャッシュFLCCH内のリソースの有効活用を図る事が出来る。 (B) When resource loading is started, the data storage state in the file cache FLCCH transitions to the state of the loading time LOADPE. As shown in FIG. 28, the file cache manager FLCMNG in the navigation manager NVMNG manages the data stored in the file cache FLCCH. Prior to the start of loading of the resource, it is necessary to prepare a memory block that is sufficiently free for the resource to be stored in the file cache FLCCH, and guarantee the free area setting of the memory block corresponding to the resource to be stored. Is performed by the file manager FLCMN. In this embodiment, as shown in FIGS. 66 (c) and 66 (d), the content of the resource information RESRCI in the playlist file PLLST means a list of title resource elements. In addition to this, the concept of resource information RESRCI is expanded as another application example in the present embodiment, and not only the title resource element shown in FIG. 66 (d) but also the application shown in FIGS. 70 and 71 as information included in the resource information RESRCI. The three types of resource elements, resource element APRELE and playlist application resource element PLRELE, can be collectively called resource information RESRCI. In the resource information RESRC according to the application example, the title time at which the loading of the target resource is started in the title resource element shown in FIG. 66 (d) and the application resource element APRELE shown in FIG. 63 (d). If the time PRLOAD (LoadingBegin attribute information) on the line exists, the loading time LOADPE starts from the time PRLOAD time (LoadingBegin attribute information) on the title timeline that starts loading (loading) the target resource. Is done. If the description of the time PRLOAD (LoadingBegin attribute information) on the title timeline at which the loading of the target resource is started in the title resource element or the application resource element APRELE is omitted, the corresponding resource The loading time LOADPE is started from the start time TTSTTM (titleTimeBegin attribute information) on the title timeline (see FIG. 65 (b)). As shown in FIG. 56 (d), the autorun attribute information ATRNAT exists in the application segment element APPLSG. When the value of the autorun attribute information ATRNAT is “false”, the corresponding application is not automatically entered into an execution state, but is activated (executed) for the first time by an API command. As described above, when the value of the autorun attribute information ATRNAT is “false”, loading of the resource referenced (used) by the corresponding advanced application ADAPL is not started. As shown in FIG. 56 (b), information about resources referred to (used) from the advanced application ADAPL is described as a list of application resource elements APRELE, and the list of application resource elements APRELE is arranged in the application segment element APPLSG. Yes. Therefore, when the value of the autorun attribute information ATRNAT is “false”, loading of the resource managed by the corresponding application resource element APRELE is not started. If the autorun attribute information ATRNAT is changed to “false” during the loading period of the resource referenced (used) by the specified advanced application ADAPL, the loading of the resource in the middle of loading is canceled and already in the file cache FLCCH. The resource loaded in is deleted. Further, as described with reference to FIG. 57, the advanced application ADAPL that is in an execution (active) state is selected according to the language information to be used. Further, as shown in FIG. 58, whether the advanced application ADAPL is valid or invalid is determined according to the determination of FIG. 58 based on the combination of the set values of the application activation information in the application segment element APPLSG. As described above, even when the advanced application ADAPL is regarded as invalid by the procedure shown in FIG. 57 or 58, loading of the resource specified in the corresponding application segment element APPLSG is not started. By loading only the resources that the advanced application ADAPL that is surely used in this way references (uses) into the file cache FLCCH, the loading of unnecessary resources in the file cache FLCCH is eliminated, and the file cache Effective utilization of resources in FLCCH can be achieved.
(C)指定されたリソースのファイルキャッシュFLCCH内のローディングを完了させると、ファイルキャッシュ内におけるデータ保存状態は準備時間READYに遷移される。前記準備時間READYとはリソースを参照(使用)するアプリケーションがタイトルタイムライン上で有効期間VALPRD/APVAPEに到達する以前の状態(実行・使用時間USEDTMの前の状態)を意味する。 (C) When loading of the specified resource in the file cache FLCCH is completed, the data storage state in the file cache is shifted to the preparation time READY. The preparation time READY means a state before the application that references (uses) the resource reaches the valid period VALPRD / APVAPE on the title timeline (a state before the execution / use time USEDTM).
(D)リソースのローディングが完了し、アプリケーションが実行・使用状態になった時にファイルキャッシュFLCCH内データ保存状態は実行・使用時間USEDTMに遷移する。前記リソースが1以上の実行中の各(アクティブな)アプリケーションにより使われている場合には前記リソースは実行・使用状態になっている。 (D) When the resource loading is completed and the application enters the execution / use state, the data storage state in the file cache FLCCH transitions to the execution / use time USEDTM. If the resource is used by one or more running (active) applications, the resource is in a running / used state.
(E)プレイリストアソシエーティドアドバンストアプリケーションPLAPLから参照(使用)されるリソースのローディングが完了すると、ファーストプレイタイトルFRPLTT以外の任意のタイトル再生中で前記リソースは実行・使用時間USEDTMとなる。プレイリストアソシエーティドアドバンストアプリケーションPLAPLが存在する場合には、任意のタイトル内で(アドバンストアプリケーションADAPLやタイトルアソシエーティドアドバンストアプリケーションTTAPLにより)前記リソースを使用する事が前提となるからである。 (E) When the loading of the resource referenced (used) from the playlist associated advanced application PLAPL is completed, the resource becomes the execution / usage time USEDTM during playback of any title other than the first play title FRPLTT. This is because when the playlist associated advanced application PLAPL exists, it is assumed that the resource is used in an arbitrary title (by the advanced application ADAPL or the title associated advanced application TTAPL).
(F)使用中のアプリケーションが例えばAPIコマンド等により実行中止になった場合には、前記アプリケーションは非実行状態となる。もしタイトルタイムラインTMLE上の位置(時間)がアプリケーションセグメントエレメントAPPLSG内又はアドバンストサブタイトルセグメントエレメントADSTSG内で指定されたタイトルタイムライン上の終了時間TTEDTM(titleTimeEnd属性情報)(図56参照)に到達していない場合には、ファイルキャッシュFLCCH内データ保存状態は準備時間READYに遷移する。 (F) When an application being used is canceled due to, for example, an API command, the application is in a non-executed state. If the position (time) on the title timeline TMLE has reached the end time TTEDTM (titleTimeEnd attribute information) on the title timeline specified in the application segment element APPLSG or the advanced subtitle segment element ADSTSG (see FIG. 56) If not, the data storage state in the file cache FLCCH transits to the preparation time READY.
(G)ファイルキャッシュFLCCH内のリソースが現状で準備時間READYであり、それを参照(使用)するアプリケーションが実行・使用状態になった時、前記リソースは実行・使用時間USEDTMへ遷移される。 (G) When a resource in the file cache FLCCH is currently in the preparation time READY and an application that references (uses) the resource is in the execution / use state, the resource is transitioned to the execution / use time USEDTM.
(H)ファイルキャッシュFLCCH内のリソースを参照する(複数の)アプリケーションがいずれも有効で無い時には、前記リソースはファイルキャッシュ内へのアドバンストアプリケーションデータ保存時間AVLBLE内となる。 (H) When none of the application (s) that refers to the resource in the file cache FLCCH is valid, the resource is within the advanced application data storage time AVLBLE in the file cache.
(I)リソースがファイルキャッシュ内へのアドバンストアプリケーションデータ保存時間AVLBLEになっていた場合、前記リソースを参照(使用)するアプリケーションが実行・使用状態に変わると前記リソースは実行・使用時間USEDTMに遷移する。 (I) If the resource has the advanced application data storage time AVLBLE in the file cache, when the application that references (uses) the resource changes to the execution / use state, the resource transitions to the execution / use time USEDTM .
(J)リソースがファイルキャッシュ内へのアドバンストアプリケーションデータ保存時間AVLBLEになっていた場合、前記リソースを参照(使用)するアプリケーションが有効な状態に変わった時点で前記リソースは準備時間READYへ遷移する。 (J) If the resource has the advanced application data storage time AVLBLE in the file cache, the resource transitions to the preparation time READY when the application that refers to (uses) the resource changes to a valid state.
図64にファイルキャッシュFLCCH内のリソースの保存状態(時間)遷移の説明を行った。前記図64の図面に対応し、各ファイルキャッシュFLCCH内のデータ保存状態とアドバンストアプリケーションの実行時間APACPEと有効時間APVAPEとの関係、及びリソースインフォメーションRESRCIに基づくアドバンストアプリケーションADAPLのローディング・実行処理方法を図65に示す。図65(a)(b)(c)のいずれにおいても共通した遷移順として、ファイルキャッシュからのデータ削除後時間N-EXSTから始まり、次にローディング時間LOADPE、実行・使用時間USEDTMに遷移した後ファイルキャッシュ内へのアドバンストアプリケーションデータ保存時間AVLBLEの後、ファイルキャッシュからのデータ削除後時間N-EXSTの順に遷移する。また前記遷移順の途中に準備時間READYが挿入される。 FIG. 64 describes the transition of the storage state (time) of the resource in the file cache FLCCH. Corresponding to the drawing of FIG. 64, the data storage state in each file cache FLCCH, the relationship between the advanced application execution time APACPE and the valid time APVAPE, and the advanced application ADAPL loading / execution processing method based on the resource information RESRCI are illustrated. 65. As a common transition order in any of FIGS. 65 (a), (b), and (c), it starts from the time N-EXST after the data is deleted from the file cache, and then transitions to the loading time LOADPE and the execution / use time USEDTM. After the advanced application data storage time AVLBLE in the file cache, transition is made in order of the time N-EXST after the data is deleted from the file cache. A preparation time READY is inserted in the transition order.
<LoadingBeginを含むリソースインフォメーションのステートマシンのイメージ(Image of State Machine of Resource Information including LoadingBegin)>
図63(d)に示すアプリケーションリソースエレメントAPRELE内もしくは図66(d)に示すリソースインフォメーションRESRCIであるタイトルリソースエレメント内に、対象リソースの取込み(ローディング)を開始するタイトルタイムライン上の時間PRLOAD(LoadingBegin属性情報)の情報が存在する。図66(c)に示すように、リソースインフォメーションRESRCIとは狭義的にはタイトルリソースエレメントのリストを意味する。しかし本実施形態ではそれに限らず前記タイトルリソースエレメントと図63(d)に示すアプリケーションリソースエレメントAPRELE、図69(d)に示すプレイリストアプリケーションリソースエレメントPLRELEを総称して広義のリソースインフォメーションRESRCIと呼ぶ。前記リソースインフォメーションRESRCI(タイトルリソースエレメント及びアプリケーションリソースエレメントAPRELE)内に「対象リソースの取込み(ローディング)を開始するタイトルタイムライン上の時間PRLOAD(LoadingBegin属性情報)」が記述されていた場合の、「ファイルキャッシュ内におけるリソースデータ保存状態の遷移”及び“アドバンストアプリケーションの有効時間APVAPEとアドバンストアプリケーションの実行時間APACPEとの関係」を図65(a)に示す。一般的には「対応したリソースのタイトルタイムライン上の開始時間TTSTTM(titleTimeBegin属性情報)」よりもタイトルタイムラインTMLE上の先行した時間に「対象リソースの取込み(ローディング)を開始するタイトルタイムライン上の時間PRLOAD(LoadingBegin属性情報)」が設定される。それにより前記「対応したリソースのタイトルタイムライン上の開始時間TTSTTM(titleTimeBegin属性情報)」で設定された時間までにリソースのローディングが完了でき、予定した「対応したリソースのタイトルタイムライン上の開始時間TTSTTM(titleTimeBegin属性情報)」から例えばタイトルアソシエーティドアドバンストアプリケーションPLAPLの再生・表示・実行を開始できる。
<Image of State Machine of Resource Information including LoadingBegin>
The time PRLOAD (LoadingBegin) on the title timeline at which the loading of the target resource is started in the application resource element APRELE shown in FIG. 63 (d) or the title resource element which is the resource information RESRCI shown in FIG. 66 (d). Attribute information) exists. As shown in FIG. 66 (c), the resource information RESRCI narrowly means a list of title resource elements. However, in the present embodiment, the title resource element, the application resource element APRELE shown in FIG. 63 (d), and the playlist application resource element PLRELE shown in FIG. 69 (d) are generically called resource information RESRCI in a broad sense. In the resource information RESRCI (title resource element and application resource element APRELE), “time PRLOAD (LoadingBegin attribute information) on the title timeline to start loading (loading) the target resource” is described. FIG. 65 (a) shows the transition of the resource data storage state in the cache and the “relationship between the advanced application valid time APVAPE and the advanced application execution time APACPE”. In general, on the title timeline that starts loading (loading) the target resource at a time preceding the title timeline TMLE before the “start time TTSTTM (titleTimeBegin attribute information) on the title timeline of the corresponding resource” Time PRLOAD (LoadingBegin attribute information) "is set. As a result, the resource loading can be completed by the time set in the “start time TTSTTM (titleTimeBegin attribute information) on the title timeline of the corresponding resource”, and the “start time on the title timeline of the corresponding resource” For example, playback, display, and execution of the title associated advanced application PLAPL can be started from “TTSTTM (titleTimeBegin attribute information)”.
この場合には、図65(a)におけるローディング時間LOADPEがアドバンストアプリケーションの有効時間APVAPEよりも先行した場所に設定されているので、アドバンストアプリケーションの有効時間APVAPEとアドバンストアプリケーションの実行時間APACPEが一致する。アドバンストアプリケーションの有効時間APVAPE中は、ファイルキャッシュFLCCH内のリソースは実行・使用時間USEDTMとなる。図65(a)の示した実施形態では、図63(d)に示すアプリケーションリソースエレメントAPRELEが含まれるアプリケーションセグメントエレメントAPPLSG内においてオートラン属性情報ATRNATが“true”に設定されている(図56(d)参照)。そのためタイトルタイムラインTMLE上の時間が「タイトルタイムライン上の開始時間TTSTTM」を超えると、対応したアドバンストアプリケーションADAPLが自動的に起動して有効状態となる。図65(a)の実施形態では前記ファイルキャッシュFLCCHに保存されるリソースファイルAPMUFLはアドバンストパックADV_PCKの形で分割され、プライマリーエンハンストビデオオブジェクトデータP-EVOBの中にマルチプレックス(多重化)された形で保存されている。この場合には図63(d)内に示すアプリケーションリソースエレメントAPRELE内のマルチプレクスト属性情報MLTPLX(multiplexed属性情報)の値が“true”の状態になっている。図65(a)の実施形態では情報記憶媒体DISC内のアドバンストパックADV_PCKがマルチプレクストされている領域(図73(e)参照)をローディング時間LOADPEの間に再生し、ファイルキャッシュFLCCH内へ転送する。図65(a)に示した実施形態の場合には対応するリソースのローディング処理が終了した後、実行・使用時間USEDTMまでの間、準備時間READYが存在する格好となる。本実施形態では前記内容に限らず、例えばネットワークサーバNTSRV内にマルチプレクス(多重化)されて無い状態で保存されているリソースファイルをローディングしても良い。この場合、「対象リソースの取込み(ローディング)を開始するタイトルタイムライン上の時間PRLOAD」からローディングを開始し、ローディング時間LOADPEの間にファイルキャッシュFLCCH内へのローディングを終了させる。 In this case, since the loading time LOADPE in FIG. 65 (a) is set at a location preceding the advanced application valid time APVAPE, the advanced application valid time APVAPE matches the advanced application execution time APACPE. During the effective time APVAPE of the advanced application, the resource in the file cache FLCCH becomes the execution / use time USEDTM. In the embodiment shown in FIG. 65 (a), the autorun attribute information ATRNAT is set to “true” in the application segment element APPLSG including the application resource element APRELE shown in FIG. 63 (d) (FIG. 56 (d) )reference). For this reason, when the time on the title timeline TMLE exceeds the “start time TTSTTM on the title timeline”, the corresponding advanced application ADAPL is automatically activated and becomes valid. In the embodiment of FIG. 65 (a), the resource file APMUFL stored in the file cache FLCCH is divided in the form of an advanced pack ADV_PCK, and is multiplexed in the primary enhanced video object data P-EVOB. Saved in. In this case, the value of the multiplexed attribute information MLTPLX (multiplexed attribute information) in the application resource element APRELE shown in FIG. 63 (d) is “true”. In the embodiment of FIG. 65 (a), an area (see FIG. 73 (e)) in which the advanced pack ADV_PCK in the information storage medium DISC is multiplexed is reproduced during the loading time LOADPE and transferred into the file cache FLCCH. . In the case of the embodiment shown in FIG. 65 (a), the preparation time READY exists until the execution / use time USEDTM after the loading processing of the corresponding resource is completed. In the present embodiment, not limited to the above contents, for example, a resource file stored in a state of not being multiplexed (multiplexed) in the network server NTSRV may be loaded. In this case, the loading is started from “time PRLOAD on the title timeline at which the loading (loading) of the target resource is started”, and the loading into the file cache FLCCH is completed during the loading time LOADPE.
タイトルタイムラインTMLE上でアドバンストアプリケーションの実行時間APACPEに入ると、ファイルキャッシュFLCCH内のリソースは実行・使用時間USEDTMに遷移する。その後、タイトルタイムラインTMLE上の時間がタイトルタイムライン上の終了時間TTEDTMに到達すると、ファイルキャッシュ内へのアドバンストアプリケーションデータ保存時間AVLBLEに遷移する。その後ファイルキャッシュマネージャFLCMNG(図28参照)により削除処理が行われると、ファイルキャッシュからのデータ削除後時間N-EXSTに遷移する。 When the advanced application execution time APACPE is entered on the title timeline TMLE, the resources in the file cache FLCCH transition to the execution / use time USEDTM. After that, when the time on the title timeline TMLE reaches the end time TTEDTM on the title timeline, a transition is made to the advanced application data storage time AVLBLE in the file cache. Thereafter, when a deletion process is performed by the file cache manager FLCMNG (see FIG. 28), a transition is made to a time N-EXST after the data is deleted from the file cache.
<LoadingBegin の無いリソースのステートマシンのイメージ(Image of State Machine of Resource without LoadingBegin)>
タイトルリソースエレメントもしくはアプリケーションリソースエレメントAPRELE内に「対象リソースの取込み(ローディング)を開始するタイトルタイムライン上の時間PRLOAD(LoadingBegin属性情報)」の記述がない場合の、リソースインフォメーションRESRCIとファイルキャッシュ内データ保存状態との関係を図65(b)に示す。この場合にはタイトルタイムラインTMLE上の時間がアドバンストアプリケーションADAPLのタイトルタイムライン上の開始時間TTSTTM(titleTimeBegin)に到達した段階で、リソースのローディングを開始する。その結果、ローディング時間LOADPEがアドバンストアプリケーションの有効期間APVAPEと一部重なる。図65(b)に示す実施形態ではローディング時間LOADPEの期間が完了した後(ローディングが終了した後)、初めて対応したアドバンストアプリケーションADAPLの実行・使用・処理に入る(アドバンストアプリケーションの実行時間APACPEになる)。従ってアドバンストアプリケーションの有効期間APPVAPE途中から実行時間APACPEに入る。そのため、ファイルキャッシュFLCCH内でのリソースの実行・使用時間USEDTMとアドバンストアプリケーションの実行時間ADACPEが一致する。図65(a)に示した例ではローディング時間LOADPEと実行・使用時間USEDTMとの間に準備時間READYが存在するが、図65(b)に示した例ではローディング時間LOADPEから直接実行・使用時間USEDTMへ遷移する。その後アドバンストアプリケーションの実行時間APACPEが終了すると、ファイルキャッシュFLCCH内のリソースは準備時間READYに遷移する。タイトルタイムライン上の終了時間TTEDTM(titleTimeEnd)を超えると、ファイルキャッシュ内へのアドバンストアプリケーションデータ保存時間AVLBLEに遷移する。ファイルキャッシュマネージャFLCMNGによるリソースのファイルキャッシュからのデータ削除FLCREM処理が行われると、ファイルキャッシュからのデータ削除後時間N-EXSTに遷移する。
<Image of State Machine of Resource without LoadingBegin>
Resource information RESRCI and file cache data storage when there is no description of "Time PRLOAD (LoadingBegin attribute information) on the title timeline to start loading (loading) the target resource" in the title resource element or application resource element APRELE The relationship with the state is shown in FIG. In this case, resource loading is started when the time on the title timeline TMLE reaches the start time TTSTTM (titleTimeBegin) on the title timeline of the advanced application ADAPL. As a result, the loading time LOADPE partially overlaps the advanced application validity period APVAPE. In the embodiment shown in FIG. 65 (b), after the period of the loading time LOADPE is completed (after loading is completed), the corresponding advanced application ADAPL is executed, used and processed for the first time (the advanced application execution time APACPE is reached). ). Therefore, the execution time APACPE enters the middle of the effective period APPVAPE of the advanced application. Therefore, the resource execution / use time USEDTM in the file cache FLCCH matches the advanced application execution time ADACPE. In the example shown in FIG. 65A, there is a preparation time READY between the loading time LOADPE and the execution / use time USEDTM. In the example shown in FIG. Transition to USEDTM. Thereafter, when the execution time APACPE of the advanced application ends, the resources in the file cache FLCCH transition to the preparation time READY. When the end time TTEDTM (titleTimeEnd) on the title timeline is exceeded, a transition is made to the advanced application data storage time AVLBLE in the file cache. When the data deletion FLCREM processing of the resource from the file cache by the file cache manager FLCMNG is performed, a transition is made to the time N-EXST after the data deletion from the file cache.
同一のリソースが複数のアプリケーションから参照(使用)される場合にはファイルキャッシュ内のデータ保存状態は下記のように定義され、前記複数のアプリケーションの各状態の組み合わせに依存する。 When the same resource is referenced (used) from a plurality of applications, the data storage state in the file cache is defined as follows and depends on the combination of the states of the plurality of applications.
1.少なくとも1個のアプリケーションが実行状態になっていた場合には、前記アプリケーションから参照(使用)されるリソースは実行・使用時間USEDTMになっていると定義される。 1. When at least one application is in an execution state, a resource referenced (used) from the application is defined as having an execution / use time USEDTM.
2.少なくとも1個のアプリケーションから見たときにリソースが準備時間READYとして扱われ、前記リソースを参照(使用)する全てのアプリケーションが実行状態(アクティブ)でない場合には、前記リソースは準備時間READYになっていると定義される。 2. When viewed from at least one application, the resource is treated as a preparation time READY, and if all applications that reference (use) the resource are not in the execution state (active), the resource is in the preparation time READY. Is defined as
3.ファイルキャッシュFLCCH内にリソースが保存され、かつ、そのリソースを参照(使用)する有効なアプリケーションもしくは実行中のアプリケーションが存在しない場合には、前記リソースはファイルキャッシュ内へのアドバンストアプリケーションデータ保存時間AVLBLEと定義される。 3. If a resource is stored in the file cache FLCCH and there is no valid application that references (uses) the resource or an application that is being executed, the resource is stored in the file cache with the advanced application data storage time AVLBLE. Defined.
<オーバーラップトリソースインフォメーションのステートマシンのイメージ(Image of State Machine of Overlapped Resource Information)>
リソースを参照する複数のアドバンストアプリケーションの有効時間APVAPEが互いにタイトルタイムラインTMLE上で重なる場合(または同一のリソースを意味する複数のリソースインフォメーションRESRCIが互いに異なるペアレントエレメント内に存在し、かつ各リソースインフォメーションRESRCI内で指定される有効時間APVAPEの範囲が一部重複している場合)における、リソースインフォメーションRESRCIとファイルキャッシュFLCCH内データ保存状態の関係を図6.2.3.20-4(c)に示す。図6.2.3.20-4(c)は2つの異なるアドバンストアプリケーションADAPLが同一のリソースを参照(使用)する場合を示している。同一のリソースを参照(使用)するアドバンストアプリケーションADAPL #1 が終了した後でも別のアドバンストアプリケーションADAPL #2 が実行時間中となっている。前記リソースをアドバンストアプリケーションADAPL #1のみでを参照(使用)する場合には、アドバンストアプリケーションADAPL #1が終了すると前記リソースはファイルキャッシュ内へのアドバンストアプリケーションデータ保存時間AVLBLEとなる。しかし別のアドバンストアプリケーションADAPL #2から見ると、前記リソースは準備時間READYまたは実行・使用時間USEDTMとなる。互いにオーバーラップしたアドバンストアプリケーションADAPL #1 と #2 によりファイルキャッシュFLCCH内のリソースが異なる状態になる場合には、ファイルキャッシュ内の前記リソースの保存状態は“最も影響の強い状態”として表現(適用)される。ファイルキャッシュ内のリソースの各状態に関する“影響の強い状態”の順番は、以下の順に優先順位が設定される。
<Image of State Machine of Overlapped Resource Information>
When the effective times APVAPE of multiple advanced applications that reference resources overlap on the title timeline TMLE (or multiple resource information RESRCIs that mean the same resource exist in different parent elements, and each resource information RESRCI Figure 6.2.3.20-4 (c) shows the relationship between the resource information RESRCI and the data storage status in the file cache FLCCH when the valid time APVAPE range specified in the URL overlaps partially). Fig. 6.2.3.20-4 (c) shows a case where two different advanced applications ADAPL refer to (use) the same resource. Even after the advanced
USEDTM > READY > AVLBLE > LOADPE > N-EXST
上記の優先順位(影響の強い状態を示す順位)を示す式において、USEDTMは実行・使用時間を表し、READYは準備時間を表す。また、AVLBLEはファイルキャッシュ内へのアドバンストアプリケーションデータ保存時間を表し、LOADPEはローディング時間、N-EXSTはファイルキャッシュからのデータ削除後時間を表す。図65(c)に示すようにアドバンストアプリケーションADAPL #1 と #2 の有効時間APVAPEがタイトルタイムラインTMLE上でオーバーラップ(重なる)している場合には、前記リソースは既にローディングが完了しているかローディング期間中のいずれかを示す(ファイルキャッシュマネージャFLCMNGが再度ローディングを繰り返す事はあり得ない)。従ってローディング時間LOADPEはファイルキャッシュからのデータ削除後時間N-EXSTとのみオーバーラップする可能性が有る。ローディング時間LOADPEとファイルキャッシュからのデータ削除後時間N-EXSTが重複した場合には、ローディング時間LOADPEの方がファイルキャッシュからのデータ削除後時間N-EXSTよりも影響が強い(優先順位が高い)ので“ローディング時間LOADPE”と見なされる。また、図71に示すプレイリストアプリケーションリソースPLAPRS、タイトルリソースTTRSRC及びアプリケーションリソースAPRSRCのリソースインフォメーションRESRCIで規定されたいずれのリソースも実行・使用中のタイトルから別のタイトルを再生した場合には、移動先の新しいタイトルで前記リソースが使用されない限り“ファイルキャッシュ内へのアドバンストアプリケーションデータ保存時間AVLBLE”中となる。このようにアドバンストコンテンツ再生部ADVPLが別のタイトルを再生した場合には、前記リソースのファイルキャッシュFLCCH内保存状態は、新たなタイトル上で定義された状態に優先的に設定される。
USEDTM>READY>AVLBLE>LOADPE> N-EXST
In the above-described formula indicating the priority order (order indicating the strong influence state), USEDTM represents execution / use time, and READY represents preparation time. Further, AVLBLE represents the advanced application data storage time in the file cache, LOADPE represents the loading time, and N-EXST represents the time after data deletion from the file cache. If the effective times APVAPE of the advanced
<リソースローディング(Resource Loading)>
プレイリストPLLST内のオブジェクトマッピングインフォメーションOBMAPI内に記述されたリソースインフォメーションRESRCIに基づき、ファイルキャッシュマネージャFLCMNGは対応したリソースのファイルキャッシュFLCCHへのローディング制御を行う。図56(d)に示すようにアプリケーションセグメントエレメントAPPLSG内にアプリケーションアクティベーションインフォメーション(言語属性情報LANGAT、アプリケーションブロックの属性(インデックス番号)情報APPLAT、アドバンストアプリケーショングループの属性(インデックス番号)情報APGRAT及びオートラン属性情報ATRNAT)の記述が無い場合には、前記アプリケーションセグメントエレメントAPPLSGで指定したリソースのローディング処理を行う。一般的にリソースのローディング処理はファイルキャッシュマネージャFLCMNGが制御する。またアプリケーションセグメントエレメントAPPLSG内に前記アプリケーションアクティベーションインフォメーションが存在し、対応するアドバンストアプリケーションADAPLが使用可能と認識・選択され、かつオートラン属性情報ATRNATの値が“true”である場合(アドバンストアプリケーションADAPLが自動的に起動する場合)、あるいはアプリケーションセグメントエレメントAPPLSGで記述された対応するアドバンストアプリケーションADAPLが実行状態になるよう予定されている場合には、前記実行予定のアドバンストアプリケーションADAPLで参照(使用)されるリソースに対してのみファイルキャッシュマネージャFLCMNGによるローディング制御が行われる。このようにアプリケーションアクティベーションインフォメーションやオートラン属性情報ATRNATなどの情報を利用し、実行状態になる予定がわかっているアドバンストアプリケーションADAPLが参照(使用)するリソースのみをファイルキャッシュFLCCH内にローディング処理する事により、無駄なリソースのファイルキャッシュFLCCH内への保存を省きファイルキャッシュFLCCH内の有効活用をすることが出来る。また実行・使用時間USEDTM内にあるリソース、ローディング時間LOADPE内にあるリソース及びファイルキャッシュFLCCH内へのアプリケーション保存時間AVLBLE内にあるリソースの合計リソースサイズが64メガバイト以下になるようにコンテンツプロバイダ(アドバンストアプリケーションADAPLの編集者)は使用するリソースのトータールサイズを考慮しなければならない。前記制限を加える事でファイルキャッシュFLCCH内のリソース保存に使用できるデータサイズを64メガバイト以下に設定でき、アドバンストコンテンツ再生部ADVPLの低価格化を図る(内蔵に必要なメモリ量を小さくできる)事が可能となる。
<Resource Loading>
Based on the resource information RESRCI described in the object mapping information OBMAPI in the playlist PLLST, the file cache manager FLCMNG performs loading control of the corresponding resource to the file cache FLCCH. As shown in FIG. 56 (d), application activation information (language attribute information LANGAT, application block attribute (index number) information APPLAT, advanced application group attribute (index number) information APGRAT, and autorun attribute are included in the application segment element APPLSG. When there is no description of information ATRNAT), the resource loading process specified by the application segment element APPLSG is performed. In general, the resource loading process is controlled by the file cache manager FLCMNG. Also, when the application activation information exists in the application segment element APPLSG, the corresponding advanced application ADAPL is recognized and selected as usable, and the value of the autorun attribute information ATRNAT is “true” (the advanced application ADAPL is automatically Resource), or when the corresponding advanced application ADAPL described in the application segment element APPLSG is scheduled to be in the execution state, the resource referenced (used) in the advanced application ADAPL scheduled to execute Only the file cache manager FLCMNG performs loading control. By using information such as application activation information and autorun attribute information ATRNAT in this way, only the resources that are referenced (used) by the advanced application ADAPL that is scheduled to enter the execution state are loaded into the file cache FLCCH. This saves unnecessary resources from being stored in the file cache FLCCH and makes effective use of the file cache FLCCH. Content provider (advanced application) so that the total resource size of resources in execution / use time USEDTM, resources in loading time LOADPE and resources in application cache storage time AVLBLE in file cache FLCCH is 64MB or less ADAPL editors) must consider the total size of the resources used. By adding the above restrictions, the data size that can be used to save resources in the file cache FLCCH can be set to 64 megabytes or less, and the price of the advanced content playback unit ADVPL can be reduced (the amount of memory required for incorporation can be reduced). It becomes possible.
<タイトルタイムライン上におけるリソースマッピング(Resource Mapping on Title Timeline)>
図65(d)にタイトルタイムラインTMLE上におけるリソースマッピング例を示す。前記リソースを参照するアプリケーションは実行状態もしくは実行状態の予定されているものと仮定する。もし、タイトルタイムラインTMLE上の時間が“T0”からにずれた時にはファイルキャッシュマネージャFLCMNGはリソースAとリソースC及びリソースEを読み取り、“T1”から再生を開始するように制御しなければならない。時間“T1”はリソースAに対してはローディング時間LOADPE中であり、対象リソースの取込み(ローディング)を開始するタイトルタイムライン上の時間PRLOAD(LoadingBegin)とタイトルタイムライン上の開始時間TTSTTM(titleTimeBegin)の間に存在する。従って、リソースAは通常のノーマル再生時においてローディング時間LOADPEの状態にする事が出来る。時間“T1”はリソースAから見ると有効時間BALPRDよりも先行した時間になっており、準備時間READYにも対応する。従って、リソースAはファイルキャッシュマネージャFLCMNGによりファイルキャッシュFLCCH内へ転送される。またそれとは別にタイトルタイムラインTMLE上の時間が“T0”から“T2”に移動した場合には、ファイルキャッシュマネージャFLCMNGはリソースAとリソースB及びリソースCとリソースEのデータを読み取らなければならない。そして、リソースA、リソースB及びリソースCとリソースEのデータ(ファイル)は参照するアプリケーション上で使用される。またタイトルタイムラインTMLEが“T0”から“T3”に移動した場合にはファイルキャッシュマネージャFLCMNGはリソースAとリソースD及びリソースEのデータを読み取り参照するアプリケーションに利用される。
<Resource Mapping on Title Timeline>
FIG. 65 (d) shows an example of resource mapping on the title timeline TMLE. It is assumed that an application that refers to the resource is in an execution state or scheduled for execution. If the time on the title timeline TMLE deviates from “T0”, the file cache manager FLCMNG must read the resource A, the resource C, and the resource E, and control to start reproduction from “T1”. The time “T1” is in the loading time LOADPE for the resource A, the time PRLOAD (LoadingBegin) on the title timeline at which the loading of the target resource is started, and the start time TTSTTM (titleTimeBegin) on the title timeline Exists between. Therefore, the resource A can be in the loading time LOADPE during normal normal reproduction. The time “T1” is a time that precedes the valid time BALPRD when viewed from the resource A, and corresponds to the preparation time READY. Therefore, resource A is transferred into the file cache FLCCH by the file cache manager FLCMNG. In addition, when the time on the title timeline TMLE moves from “T0” to “T2”, the file cache manager FLCMNG must read the data of the resource A, the resource B, the resource C, and the resource E. The data (files) of resource A, resource B, resource C, and resource E are used on the application to be referenced. When the title timeline TMLE moves from “T0” to “T3”, the file cache manager FLCMNG is used for an application that reads and references data of the resource A, resource D, and resource E.
図66(a)に示すようにプレイリストPLLST内には構造情報CONFGI、メディア属性情報MDATRI及びタイトル情報TTINFOが存在する。図66(b)に示すようにタイトル情報TTINFOはファーストプレイタイトルエレメント情報FPTELEと1個以上のタイトルエレメント情報TTELEM及びプレイリストアプリケーションエレメント情報PLAELEが記述される。更に、図66(c)に示すように1個のタイトルエレメント情報TTELEM内はオブジェクトマッピングインフォメーションOBMAPI、リソースインフォメーションRESRCI、プレイバックシーケンスインフォメーションPLSQI、トラックナビゲーションインフォメーションTRNAVI及びスケジュールドコントロールインフォメーションSCHECIが配置されている。前記リソースインフォメーションRESRCIの中身は図66(d)に示すように1個以上のタイトルリソースエレメントのリストが記述されている。以下に図66(d)に示すタイトルリソースエレメント内に記述されるデータ構造について説明を行う。 As shown in FIG. 66 (a), structure information CONFGI, media attribute information MDATRI, and title information TTINFO exist in the playlist PLLST. As shown in FIG. 66 (b), the title information TTINFO describes first play title element information FPTELE, one or more title element information TTELEM, and playlist application element information PLAELE. Further, as shown in FIG. 66 (c), in one title element information TTELEM, object mapping information OBMAPI, resource information RESRCI, playback sequence information PLSQI, track navigation information TRNAVI, and scheduled control information SCHECI are arranged. . The contents of the resource information RESRCI describe a list of one or more title resource elements as shown in FIG. 66 (d). The data structure described in the title resource element shown in FIG. 66 (d) will be described below.
<タイトルリソースエレメント(TitleResource Element)>
タイトルリソースエレメントはタイトルに対応したリソースインフォメーションRESRCIの情報を記述している。前述したタイトルに対応したリソースインフォメーションRESRCIで指定するリソースはアドバンストアプリケーションADAPL(タイトルアソシエーティドアドバンストアプリケーションTTAPLを含む)又はアドバンストサブタイトルADSBT内で使用されるパッケージ化されたアーカイブファイル又はデータを意味している。図71に示すように本実施形態におけるファイルキャッシュFLCCHに一時保存するリソースはプレイリストアソシエーションリソースPLATRSとタイトルリソースTTRSRC、アプリケーションリソースAPRSRCに分類する事が出来る。
<Title Resource Element>
The title resource element describes resource information RESRCI information corresponding to the title. The resource specified in the resource information RESRCI corresponding to the title mentioned above means a packaged archive file or data used in the advanced application ADAPL (including the title associated advanced application TTAPL) or the advanced subtitle ADSBT. . As shown in FIG. 71, resources temporarily stored in the file cache FLCCH in this embodiment can be classified into playlist association resource PLATRS, title resource TTRSRC, and application resource APRSRC.
図66(d)に示すタイトルリソースエレメントで管理されるリソースは前記のうち同一タイトル内で複数のアドバンストアプリケーションADAPLにより共通に使用されるタイトルリソースTTRSRCを示す。前記タイトルリソースエレメントはファイルキャッシュFLCCHにロードすべきアーカイビングデータ又はアーカイビングファイルがどこに保存されているかを指定している。src属性情報(リソース属性情報)は前記アーカイビングデータ又はアーカイビングファイルの保存場所SRCDTCを示してしている。本実施形態におけるアドバンストコンテンツ再生部ADVPLは対応するアプリケーションライフサイクルが開始する時期(対応するアプリケーションの実行時間APACPE)の前までに前記リソースファイルをファイルキャッシュFLCCH内にロード終了させなければならい。前記リソースはプライマリービデオセットPRMVS内にマルチプレクストされた形で保存する事が出来る。図73(b)に示すようなアプリケーションリソースAPRSRC(図73ではプレイリストアプリケーションリソースPLAPRSを示しているが、それに限らずタイトルリソースTTRSRCやタイトル内で使用されるアプリケーションリソースAPRSRCについても同じ内容を適用する事が出来る)はそれぞれ2048バイト毎のデータに分割され、図73(c)に示すように2048バイト単位でアドバンストパックADV_PCKにパッキングされ、図73(d)に示すようにプライマリーエンハンストビデオオブジェクトデータP-EVOB内に他のパックに混ざって前記アドバンストパックADV_PCKが分散配置される。このような状況をマルチプレクス(多重化)されていると呼んでいる。このような場合には図65(a)に示すように対象リソースの取込み(ローディング)を開始するタイトルタイムライン上の時間PRLOAD(LoadingBegin属性情報)によりローディング時間LOADPEの開始時間が指定される。それにより対応したリソースをパーシステントストレージPRSTRからファイルキャッシュFLCCHへダウンロードする事が出来る。本実施形態においてはそれに限らず、情報記憶媒体DISC又はネットワークサーバNTSRVからリソースを前記ファイルキャッシュFLCCHへダウンロードする事も可能である。前記のようにネットワークサーバNTSRVからリソースをダウンロードする場合には、図66(d)に示すデータキャッシュ内にダウンロードされるデータ又はファイルの保存場所SRCDTC(src属性情報)として“http”または“https”から始まるURI(ユニバーサル・リソース・アイデンティファイヤー)情報が記述される。この場合には対象リソースの取込み(ローディング)を開始するタイトルタイムライン上の時間PRLOAD(LoadingBegin属性情報)の値はネットワークサーバNTSRVから対応したリソースをダウンロードするローディング時間LOADPEの開始時間を表している。対応するリソースをネットワークサーバNTSRVからダウンロードし、またデータキャッシュ内にダウンロードされるデータ又はファイルの保存場所SRCDTC(src属性情報)が“http”又は“https”から始まる場合には、対応するタイトルリソースエレメント内にネットワークソースエレメントNTSELEを記述する事が出来る。前記ネットワークソースエレメントNTSELEの情報により図67あるいは図68に示すように情報記録再生装置1内のネットワーク環境におけるネットワークスループットに応じてダウンロードすべき最適なリソースを選択する事が出来る。次にデータキャッシュにロードする前記リソースのデータ又はファイルのサイズ情報DTFLSZ(size属性情報)はバイト単位とした正数値で表現され、この情報はタイトルリソースエレメント内での記述を省く事が出来る。更に対応したリソースのタイトルタイムライン上の開始時間TTSTTM(titleTimeBegin属性情報)は、タイトルタイムラインTMLE上での対応したリソースの有効期間VALPRDの開始時間を示し、“HH:MM:SS:FF”により記述される。また対応したリソースのタイトルタイムライン上の終了時間TTEDTM(titleTimeEnd属性情報)は、タイトルタイムラインTMLE上における対応リソースの有効期間VALPRDの終了時間TTEDTMを表し、“HH:MM:SS:FF”により記述される。次に対応リソース削除に対する優先順位情報PRIORT(priority属性情報)はタイトル又は実行中のアドバンストアプリケーションADAPLから参照されなくなった対応リソースをデータキャッシュDTCCHから削除する場合の優先順位情報を表し、設定された値の高いリソースから先に削除するようになる。またここの値は0から“231−1”までの範囲の正数値を記述する事が出来る。本実施形態においてプレイリストアプリケーションリソースPLAPRSはファーストプレイタイトルFRPLTTの再生中にファイルキャッシュFLCCH内にダウンロードされ、アドバンストコンテンツ再生部ADVPLが使用されている間中、ファイルキャッシュFLCCH内に保存され続ける。それに対してタイトルリソースTTRSRCとアプリケーションリソースAPRSRCは使われなくなり、また今後使われる予定がなくなった時にはファイルキャッシュFLCCHから削除される事でファイルキャッシュFLCCH内の有効活用を図ると共に必要とされるファイルキャッシュFLCCHサイズを小さくして、アドバンストコンテンツ再生部ADVPLの低価格化を図る事が出来る。この時のタイトルリソースTTRSRC及びアプリケーションリソースAPRSRCのファイルキャッシュFLCCHから削除される順番が前記の対応リソース削除に対する優先順位情報PRIORT(priority属性情報)に指定される。図64(A)の説明のところで記述したようにファイルキャッシュ内へのアドバンストアプリケーションデータ保存時間AVLBLE内にあるタイトルリソースTTRSRCとアプリケーションリソースAPRSRCに関するプライオリティーレベルとして
Ptitle_available > Papp_available
の関係が設定されている。上記の式はファイルキャッシュFLCCH内にあるアプリケーションリソースAPRSRCをタイトルリソースTTRSRCよりも優先的に先にファイルキャッシュFLCCH内から削除するように指定している。それに応じて対応リソース削除に対する優先順位情報PRIORT(priority属性情報)に設定する値の最小値をタイトルリソースTTRSRCとアプリケーションリソースAPRSRCとの間で異なるように設定している。すなわちアプリケーションリソースAPRSRCを管理するアプリケーションリソースエレメントAPRELE(図63(d)参照)内においては対応リソース削除に対する優先順位情報PRIORT(priority属性情報)の設定最小値が“1”となっているのに対し、タイトルリソースTTRSRCを管理するタイトルリソースエレメント(図66(d)参照)においての対応リソース削除に対する優先順位情報PRIORT(priority属性情報)の最小値を“0”に設定している。その結果、タイトルリソースエレメント内の対応リソース削除に対する優先順位情報PRIORT(priority属性情報)とアプリケーションリソースエレメントAPRELE内における値をそれぞれ最小値に設定した場合でもアプリケーションリソースエレメントAPRELE内の対応リソース削除に対する優先順位情報PRIORT(priority属性情報)の値の方が高くなるため、アプリケーションリソースAPRSRCをファイルキャッシュFLCCH内から先に削除出来るようになっている。それによりファイルキャッシュFLCCH内のリソース管理を有効に行う事が出来る。またマルチプレクスト属性情報MLTPLXの値としては“true”または“false”のいずれかが設定される。“true”の場合は、図73(d)に示すようにリソースデータがプライマリーエンハンストビデオオブジェクトP-EVOB内のアドバンストパックADV_PCKの中に存在しており、指定されたローディング時間LOADPE中にファイルキャッシュFLCCHへ向けてダウンロード処理を完了させる必要がある。また“false”の場合は、上記もともとの保存場所SRCDTC(指定されたURI)からまとまったファイルの形でプリロードされなければならない。このマルチプレクスト属性情報MLAPLXの記述を省く事は可能であり、その場合にはデフォルト値である“true”の値が自動的に設定される。対象リソースの取込み(ローディング)を開始するタイトルタイムライン上の時間PRLOAD(LoadingBegin属性情報)は“HH:MM:SS:FF”により記述される。前記タイトルリソースエレメント内で前記対象リソースの取込み(ローディング)を開始するタイトルタイムライン上の時間PRLOAD(LoadingBegin属性情報)の記述を省く事が出来る。その場合には自動的に対象リソースの取込み(ローディング)を開始するタイトルタイムライン上の時間PRLOADは“00:00:00:00”と自動的に設定され、対応したタイトルの再生開始時間に対象リソースの取込み(ローディング)を開始するように自動設定される。更にノーキャッシュ属性情報NOCACHの値が“true”の場合は、HTTPのGETリクエストメッセージ内にCach-ControlヘッダーとPragmaヘッダーが含まれる必要がある。逆に“false”の場合は、HTTPのGETリクエストメッセージ内にCach-ControlヘッダーとPragmaヘッダーが含まれない。タイトルリソースエレメントに対する付加情報は人に馴染みの深いテキストフォーマットで記述されるが前記付加情報の記述は省く事が可能である。前述したように(図66(d)に示すように)タイトルソースエレメント内にネットワークソースエレメントNTSELEを記述する事が可能である。前記ネットワークソースエレメントNTSELE内のデータ構造は図66(e)に示すようにネットワークスループットの許容最小値情報NTTRPT(NetworkThroughput属性情報)と前記ネットワークスループットの許容最小値に対応したネットワークソースの保存場所SRCNTS(src属性情報)の組として構成される。前記ネットワークスループットの許容最小値情報NTTRPT(NetworkThroughput属性情報)は対応するsrc属性情報SRCNTSで指定した保存場所からネットワークソース(データ又はファイル)をダウンロードする場合のネットワークスループット(データ転送レート)に関し、ネットワークシステムとして許容される最小値で表し、1000bpsの単位で記述される。また、ネットワークスループットの許容最小値に対応するネットワークソースの保存場所SRCNTS(src属性情報)はURI(ユニフォーム・リソース・アイデンティファイヤー)により記述され、セカンダリーオーディオビデオクリップエレメントSCAVCP又はサブスティテュートオーディオビデオクリップエレメントSBAVCP、サブスティテュートオーディオクリップエレメントSBADCP内で設定されている場合には、セカンダリーエンハンストビデオオブジェクトデータS-EVOBのタイムマップファイルSTMAPの保存場所を指定する。また前記src属性情報がアプリケーションリソースエレメントAPRELE内又はタイトルリソースエレメント内で設定される場合にはファイルキャッシュFLCCHへローディングするマニフェストファイルMNFST、マークアップファイルMRKUP、スクリプトファイルSCRPT、静止画ファイルIMAGE、イフェクトオーディオファイルEFTAD、フォントファイルFONTなどの保存場所を指定している。
The resource managed by the title resource element shown in FIG. 66 (d) indicates the title resource TTRSRC that is commonly used by a plurality of advanced applications ADAPL within the same title. The title resource element specifies where the archiving data or archiving file to be loaded into the file cache FLCCH is stored. The src attribute information (resource attribute information) indicates the storage location SRCDTC of the archiving data or archiving file. The advanced content playback unit ADVPL in this embodiment must finish loading the resource file into the file cache FLCCH before the time when the corresponding application life cycle starts (the execution time APACPE of the corresponding application). The resource can be stored in a multiplexed form in the primary video set PRMVS. The application resource APRSRC as shown in FIG. 73 (b) (the playlist application resource PLAPRS is shown in FIG. 73, but the same applies to the title resource TTRSRC and the application resource APRSRC used in the title. Are divided into 2048-byte data, packed into 2048-byte advanced pack ADV_PCK as shown in FIG. 73 (c), and primary enhanced video object data P as shown in FIG. 73 (d). -The advanced pack ADV_PCK is distributed in a mixed manner with other packs in the EVOB. Such a situation is called multiplexed. In such a case, as shown in FIG. 65 (a), the start time of the loading time LOADPE is specified by the time PRLOAD (LoadingBegin attribute information) on the title timeline at which the loading (loading) of the target resource is started. As a result, the corresponding resource can be downloaded from the persistent storage PRSTR to the file cache FLCCH. In the present embodiment, the present invention is not limited to this, and it is also possible to download resources from the information storage medium DISC or the network server NTSRV to the file cache FLCCH. When the resource is downloaded from the network server NTSRV as described above, “http” or “https” is used as the storage location SRCDTC (src attribute information) of the data or file downloaded into the data cache shown in FIG. 66 (d). URI (Universal Resource Identifier) information starting from is described. In this case, the value PRLOAD (LoadingBegin attribute information) on the title timeline at which the loading (loading) of the target resource is started represents the starting time of the loading time LOADPE for downloading the corresponding resource from the network server NTSRV. If the corresponding resource is downloaded from the network server NTSRV and the storage location SRCDTC (src attribute information) of the data or file downloaded into the data cache starts with “http” or “https”, the corresponding title resource element The network source element NTSELE can be described inside. Based on the information of the network source element NTSELE, the optimum resource to be downloaded can be selected according to the network throughput in the network environment in the information recording / reproducing
Ptitle_available> Papp_available
The relationship is set. The above expression specifies that the application resource APRSRC in the file cache FLCCH is deleted from the file cache FLCCH prior to the title resource TTRSRC. Accordingly, the minimum value set in the priority information PRIORT (priority attribute information) for corresponding resource deletion is set to be different between the title resource TTRSRC and the application resource APRSRC. That is, in the application resource element APRELE (see FIG. 63 (d)) that manages the application resource APRSRC, the minimum setting value of the priority information PRIORT (priority attribute information) for deleting the corresponding resource is “1”. The minimum value of priority information PRIORT (priority attribute information) for deletion of the corresponding resource in the title resource element (see FIG. 66 (d)) managing the title resource TTRSRC is set to “0”. As a result, even when the priority information PRIORT (priority attribute information) for deleting the corresponding resource in the title resource element and the value in the application resource element APRELE are set to the minimum values, the priority for deleting the corresponding resource in the application resource element APRELE. Since the value of the information PRIORT (priority attribute information) is higher, the application resource APRSRC can be deleted first from the file cache FLCCH. Thereby, the resource management in the file cache FLCCH can be effectively performed. Also, “true” or “false” is set as the value of the multiplexed attribute information MLTPLX. If “true”, the resource data exists in the advanced pack ADV_PCK in the primary enhanced video object P-EVOB as shown in FIG. 73 (d), and the file cache FLCCH during the specified loading time LOADPE. The download process needs to be completed. If it is "false", it must be preloaded in the form of a set of files from the original storage location SRCDTC (specified URI). It is possible to omit the description of the multiplexed attribute information MLAPLX. In this case, a value of “true” which is a default value is automatically set. The time PRLOAD (LoadingBegin attribute information) on the title timeline at which the loading (loading) of the target resource is started is described by “HH: MM: SS: FF”. It is possible to omit the description of the time PRLOAD (LoadingBegin attribute information) on the title timeline for starting the loading (loading) of the target resource in the title resource element. In such a case, the time PRLOAD on the title timeline that automatically starts loading (loading) the target resource is automatically set to “00: 00: 00: 00”, and the target title is played at the start time of playback. Automatically set to start loading resources. Further, when the value of the no-cache attribute information NOCACH is “true”, it is necessary to include a Caché-Control header and a Pragma header in the HTTP GET request message. Conversely, when “false”, the Cach-Control header and the Pragma header are not included in the HTTP GET request message. The additional information for the title resource element is described in a text format familiar to humans, but the description of the additional information can be omitted. As described above, the network source element NTSELE can be described in the title source element (as shown in FIG. 66 (d)). As shown in FIG. 66 (e), the data structure in the network source element NTSELE includes the network throughput allowable minimum value information NTTRPT (NetworkThroughput attribute information) and the network source storage location SRCNTS (corresponding to the network throughput allowable minimum value). src attribute information). The network throughput allowable minimum value information NTTRPT (NetworkThroughput attribute information) relates to the network throughput (data transfer rate) when downloading a network source (data or file) from the storage location specified by the corresponding src attribute information SRCNTS. It is expressed by the minimum value allowed and is described in units of 1000 bps. In addition, the network source storage location SRCNTS (src attribute information) corresponding to the minimum allowable network throughput is described by URI (Uniform Resource Identifier), secondary audio video clip element SCAVCP or substitute audio video clip element When SBAVCP is set in the substitute audio clip element SBADCP, the storage location of the time map file STMAP of the secondary enhanced video object data S-EVOB is designated. If the src attribute information is set in the application resource element APRELE or the title resource element, the manifest file MNFST, markup file MRKUP, script file SCRPT, still image file IMAGE, and effect audio file to be loaded into the file cache FLCCH The storage location of EFTAD, font file FONT, etc. is specified.
図63(c)または図66(e)に示すネットワークソースエレメントNTSELEの機能と使用方法について以下に説明を行う。 The function and usage of the network source element NTSELE shown in FIG. 63 (c) or 66 (e) will be described below.
<ネットワークソースエレメント及びネットワークスループットセッティングによるコンテンツの選択(NetworkSource Element and Selection of Content according to Network Throughput Setting)>
図54(d)に示すセカンダリーオーディオビデオクリップエレメントSCAVCPで管理されたセカンダリーオーディオビデオSCDAV、図55(c)に示すサブスティテュートオーディオビデオクリップエレメントSBAVCPで管理されたサブスティテュートオーディオビデオSBTAV、及び図55(d)に示すサブスティテュートオーディオクリップエレメントSBADCPで管理されたサブスティテュートオーディオSBTADに関してはネットワークサーバNTSRV内に保存されている再生表示オブジェクトをデータキャッシュDTCCHへ保存して再生・表示に利用する事ができる。このように再生表示オブジェクトがネットワークサーバNTSRV内に保存されている場合には、リソースインフォメーションRESRCI(アプリケーションリソースエレメントAPRELE、タイトルリソースエレメント)内にネットワークソースエレメントNTSELEを配置(記述)できる。この場合にはアドバンストコンテンツ再生部ADVPLは前記ネットワークソースエレメントNTSELEのリストを利用し、情報記録再生装置1(図1参照)のネットワーク環境に最適な再生表示オブジェクトを選択する事が出来る。また図63(d)に示すように、アドバンストサブタイトルセグメントエレメントADSTSGまたはアプリケーションセグメントエレメントAPPLSG内に存在するアプリケーションリソースAPRSRCの「データキャッシュDTCCH内にダウンロードされるデータ又はファイルの保存場所SRCDTC(src属性情報)」の値、又は図66(d)に示すタイトルリソースエレメント内の「データキャッシュ内にダウンロードされるデータ又はファイルの保存場所SRCDTC(src属性情報)」の値が“http”又は“https”から始まる場合には、前記アプリケーションリソースエレメントAPRELE又はタイトルリソースエレメント内にネットワークソースエレメントNTSELEを配置する事が出来る。前記ネットワークソースエレメントNTSELE内にはそれぞれネットワークスループットの許容最小値情報NTTRPTの値が記述されており、前記のネットワークソースエレメントNTSELEを用い図1に示すアドバンストコンテンツ再生部ADVPLは情報記録再生装置1が存在するネットワーク環境内におけるネットワークスループットの値に合わせ、前記ネットワークソースエレメントNTSELEのリストの中から最適なリソースを選択する事が出来る。図1に示すアドバンストコンテンツ再生部ADVPLは情報記録再生装置1が置かれたネットワーク環境に基づくネットワークスループットの情報を次の手順により知ることが出来る。すなわち図68のステップS101に示すようにアドバンストコンテンツ再生部ADVPLの初期設定時において、ステップS102に示すようにユーザにネットワーク環境の情報を入力してもらう。具体的に一般ユーザはネットワーク環境におけるネットワークスループットの値は知らない。しかし、情報記録再生装置1が繋がっているネットワークがモデムによる電話回線なのか、または光ケーブルによる接続なのか、もしくはADSLに基づくネットワーク回線なのかの情報は知っている。従って前記のレベルでネットワーク環境情報の入力する事はできる。その後、前記ステップS102の結果に基づきアドバンストコンテンツ再生部ADVPL内では予想されるネットワークスループット値を算出し(予想し)、図46に示すプレーヤパラメータ内のネットワークスループット欄(networkThroughput)の内に予想されるネットワークスループット値を記録する(ステップS103)。その結果、アドバンストコンテンツ再生部ADVPL内に設定されたメモリ領域内にされた(図46に示す)プレーヤパラメータに属するネットワークスループット欄(networkThroughput)の値を参照する事により前記アドバンストコンテンツ再生部ADVPLは対応する情報記録再生装置1が置かれているネットワーク環境(に基づくネットワークスループットの許容最小値の値)を知る事が出来る。図67(b)に示す実施形態では高いネットワークスループットの値に対応し、高精細な映像を表示するセカンダリーエンハンストビデオオブジェクトデータS-EVOBが保存されるファイル名をS-EVOB_HD.EVOとし、それに使われるセカンダリービデオセットのタイムマップファイルSTMAPの名前をS-EVOB_HD.MAPとする。前記オブジェクトファイルであるS-EVOB_HD.EVOと対応したセカンダリービデオセットのタイムマップSTMAPであるS-EVOB_HD.MAPファイルはネットワークサーバNTSRV内の同一のフォルダ(ディレクトリ)内に配置されている。また低いネットワークスループットに対応し、解像度の低いセカンダリーエンハンストビデオオブジェクトデータS-EVOBが記録されているオブジェクトファイルをS-EVOB_LD.EVOと呼び、それに使われるセカンダリービデオセットのタイムマップSTMAPをS-EVOB_LD.MAPとする。前記オブジェクトファイルをS-EVOB_LD.EVOと対応したタイムマップファイルS-EVOB_LD.MAPもネットワークサーバNTSRV内の同一フォルダ(ディレクトリ)内に配置されている。本実施形態ではプレイリストファイルPLLST内の各種クリップエレメント内のsrc属性情報の値としてセカンダリーエンハンストビデオオブジェクトデータS-EVOBに対応したセカンダリービデオセットのタイムマップのファイル名と保存場所(パス)を記載する事になっている。本実施形態では前記セカンダリービデオセットのタイムマップファイルSTMAPとオブジェクトファイルをネットワークサーバNTSRV内の同一フォルダ(ディレクトリ)内に一緒に保存する事により、最終的なセカンダリーエンハンストビデオオブジェクトデータS-EVOBのオブジェクトファイルへのアクセスを容易としている。また本実施形態ではプレイリストファイルPLLSTからのアクセスをより一層容易にするため、図67(b)に示すように対応するオブジェクトファイル名とタイムマップファイル名のファイル名を一致させている(拡張子は“.EVOB”と“.MAP”と変えて識別可能にしている)。従って前記参照すべき再生表示オブジェクトのインデックスインフォメーションファイル保存場所SRCTMP(src属性情報)に記述された保存場所(パス)とファイル名によりデータキャッシュDTCCHに保存すべきセカンダリーエンハンストビデオオブジェクトデータS-EVOBの保存場所(パス)とファイル名がわかる。前記セカンダリーオーディオビデオクリップエレメントSCAVCPタグ又はサブスティテュートオーディオビデオクリップエレメントSBAVCPタグ、サブスティテュートオーディオクリップエレメントSBADCPタグ内に記述するsrc属性情報の値と前記各クリップエレメント内に配置した各ネットワークソースエレメントNTSELE内のsrc属性情報の値(参照すべき再生表示オブジェクトのインデックスインフォメーション保存場所SRCTMP)はそれぞれ異なる値(保存場所(パス)とファイル名)が設定されている。また同様に図63(d)に示すアプリケーションリソースエレメントAPRELE内に記述されている「データキャッシュ内にダウンロードされるデータ又はファイルの保存場所SRCDTC(src属性情報)」の値や図66(d)に示すタイトルリソースエレメント内に記述されている「データキャッシュ内にダウンロードされるデータ又はファイルの保存場所SRCDTC(src属性情報)」の値と、前記アプリケーションリソースエレメントAPRELE内または前記タイトルリソースエレメント内に配置された各ネットワークソースエレメントNTSELE内のsrc属性情報の値は互いに異なっている。すなわち前記アプリケーションリソースエレメントAPRELE内または前記タイトルリソースエレメント内で指定された「データキャッシュ内にダウンロードされるデータ又はファイルの保存場所SRCDTC(src属性情報)」とは別にネットワークスループットの許容最小値に対応したネットワークソースの保存場所SRCNTSが設定されている。前記各ネットワークソースエレメントNTSELE内にはネットワークソースの保存場所SRCNTSで規定したネットワークソースにアクセスしデータキャッシュDTCCH内へダウンロードする時に保証されるネットワークスループットの許容最小値情報NTTRPT(networkThroughput属性情報)が記述されている。ところで図54(d)に示すセカンダリーオーディオビデオクリップエレメントSCAVCP内、または図55(c)に示すサブスティテュートオーディオビデオクリップエレメントSBAVCP内、図55(d)示すサブスティテュートオーディオクリップエレメントSBADCP内に配置されたネットワークソースエレメントNTSELEではsrc属性値内にネットワークコンテンツに対応したセカンダリービデオセットのタイムマップファイルSTMAPのURI(ユニフォーム・リソース・アイデンティファイヤー)が記述されている。また図63(d) に示すアプリケーションリソースエレメントAPRELE内または図66(d)に示すタイトルリソースエレメント内に配置されたネットワークソースエレメントNTSELEにおいては、src属性情報値は「リソースファイルまたはネットワークコンテントに対応したファイルの保存場所」がURI(ユニフォーム・リソース・アイデンティファイヤー)の形式で記述されている。更に図54(d)に示すセカンダリーオーディオビデオクリップエレメントSCAVCP内または図55(c)に示すサブスティテュートオーディオビデオクリップエレメントSBAVCP内、図55(d)に示すサブスティテュートオーディオクリップエレメントSBADCP内に配置されたネットワークソースエレメントNTSELEでは、ネットワークスループットの許容最小値情報NTTRPT(networkThroughput属性情報)の値は各プレゼンテーションクリップエレメント内でユニークな(他とは異なる)値が設定される必要が有る。なぜなら異なるネットワークソースエレメントNTSELE内でネットワークスループットの許容最小値情報NTTRPT(networkSource属性情報)の値が互いに同じ値だった場合、アドバンストコンテンツ再生部ADVPLはどちらのセカンダリーエンハンストビデオオブジェクトデータS-EVOBへアクセスすべきか迷ってしまう。そのため前記の規定を設ける事によりアドバンストコンテンツ再生部ADVPL内でのアクセスすべきセカンダリーエンハンストビデオオブジェクトデータS-EVOB(タイムマップSTMAP)の選定が容易となる。また同様の理由から図63(d)に示すアプリケーションリソースエレメントAPRELE内または図66(d)に 示すタイトルリソース内に配置されたネットワークソースエレメントNTSELEにおいては、前記ネットワークスループットの許容最小値情報NTTRPT(networkThroughput属性情報値)は同一のリソースインフォメーションエレメント内ではユニークに(異なるネットワークソースエレメントNTSELE間では異なる値に)設定されなければならない。
<Network Source Element and Selection of Content according to Network Throughput Setting>
The secondary audio video SCDAV managed by the secondary audio video clip element SCAVCP shown in FIG. 54 (d), the substitute audio video SBTAV managed by the substitute audio video clip element SBAVCP shown in FIG. 55 (c), and FIG. Regarding the substitute audio SBTAD managed by the substitute audio clip element SBADCP shown in d), the reproduction display object stored in the network server NTSRV can be stored in the data cache DTCCH and used for reproduction and display. As described above, when the playback display object is stored in the network server NTSRV, the network source element NTSELE can be arranged (described) in the resource information RESRCI (application resource element APRELE, title resource element). In this case, the advanced content playback unit ADVPL can use the list of network source elements NTSELE to select a playback display object that is optimal for the network environment of the information recording / playback apparatus 1 (see FIG. 1). Also, as shown in FIG. 63 (d), the storage location SRCDTC (src attribute information) of the data or file downloaded in the data cache DTCCH of the application resource APRSRC existing in the advanced subtitle segment element ADSTSG or the application segment element APPLSG Or the value of “data or file storage location SRCDTC (src attribute information) downloaded in the data cache” in the title resource element shown in FIG. 66 (d) starts from “http” or “https”. In this case, the network source element NTSELE can be arranged in the application resource element APRELE or the title resource element. The network source element NTSELE describes the value of the network throughput allowable minimum value information NTTRPT, and the advanced content playback unit ADVPL shown in FIG. The optimal resource can be selected from the list of network source elements NTSELE according to the network throughput value in the network environment. The advanced content playback unit ADVPL shown in FIG. 1 can know network throughput information based on the network environment in which the information recording /
また前記ネットワークソースエレメントNTSELE内に記述されたネットワークスループットの許容最小値情報NTTRPT(networkThroughput属性情報値)の値が情報記録再生装置1に置かれたネットワーク環境におけるネットワークスループットの条件を満足しない場合(例えば情報記録再生装置1のネットワーク環境が電話回線を用いているためにネットワークのスループットが非常に低く、前記ネットワークソースNTSELE内で指定されたネットワークスループットの許容最小値情報NTTRPTの値よりも低い場合)の時には本実施形態では下記の対応を推奨している。
Also, when the value of the network throughput allowable minimum value information NTTRPT (networkThroughput attribute information value) described in the network source element NTSELE does not satisfy the network throughput condition in the network environment where the information recording / reproducing
1.各プレゼンテーションクリップエレメント(セカンダリーオーディオビデオクリップエレメントSCAVCPまたはサブスティテュートオーディオビデオクリップエレメントSBAVCP、サブスティテュートオーディオクリップエレメントSBADCP)内で規定されたsrc属性情報がデフォルト状態におけるソースとしてみなされ、データキャッシュDTCCHへのダウンロードに利用される。 1. The src attribute information specified in each presentation clip element (secondary audio video clip element SCAVCP or substitute audio video clip element SBAVCP, substitute audio clip element SBADCP) is regarded as a source in the default state and downloaded to the data cache DTCCH. Used for
2.ネットワークソースエレメントNTSELE内に記述されたsrc属性情報で規定された所へファイルキャッシュFLCCHへのダウンロードのためのアクセスを行わず、前記リソースインフォメーションエレメント(アプリケーションリソースエレメントAPRELEまたはタイトルリソースエレメント)内に記述されたsrc属性情報がデフォルトソースとして取り扱われ、ファイルキャッシュFLCCH内にダウンロードされるリソース対象として取り扱われる。 2. It is described in the resource information element (application resource element APRELE or title resource element) without accessing the location specified by the src attribute information described in the network source element NTSELE for downloading to the file cache FLCCH. The src attribute information is handled as a default source and is handled as a resource target downloaded into the file cache FLCCH.
上述したネットワークソースエレメントNTSELEの情報を利用した具体的な実施形態について図67を用いて説明を行う。図67(a)に示すように高精細なセカンダリーエンハンストビデオオブジェクトデータS-EVOBが保存されたオブジェクトファイルであるS-EVOB_HD.EVOを参照するタイムマップファイルS-EVOB_HD.MAPをsrc属性情報として設定したネットワークソースエレメントNTSELEのリストによると、前記S-EVOB_HD.EVOファイルをネットワーク経路50を経由してダウンロードするには最低でも100Mbpsのネットワークスループットが保証されなければならない。また解像度の低いセカンダリーエンハンストビデオオブジェクトデータS-EVOBが記録されたオブジェクトファイルS-EVOB_LD.EVOを参照するタイムマップファイルS-EVOB_LD.MAPをsrc属性情報で指定したネットワークソースエレメントNTSELEのリストによると、前記オブジェクトファイルS-EVOB_LD.EVOをネットワーク経路50を介してダウンロードするには56Kbpsのネットワークスループット以上あれば大丈夫である。前記図67(d)に示すようにナビゲーションマネージャNVMNG内のプレイリストマネージャPLMNGは前述した図46に示すプレーヤパラメータ内のネットワークスループット(networkThroughput)の欄の中に情報記録再生装置1のネットワーク環境に基づく平均的なネットワークスループットの情報を持っている。従って図67(a)に示したネットワークソースエレメントNTSELEのリストを解読し、プレイリストマネージャPLMNGはどちらのオブジェクトファイルにアクセスし、ダウンロードしたら良いかを判断する。その結果に基づきプレイリストマネージャPLMNGはデータアクセスマネージャDAMNG内のネットワークマネージャNTMNGとネットワークI/O部7-3を介し、ネットワークサーバNTSRVへアクセスする。その結果、設定されたネットワークサーバNTSRV内に保存されているオブジェクトファイルはネットワークI/O部7-3とデータアクセスマネージャDAMNG内のネットワークマネージャNTMNGを経由し、データキャッシュDTCCHへダウンロードされる。このようにダウンロードするデータ、又はファイルに関係したデータ、又はファイルの保存場所(又はアクセス先)情報とネットワークスループット最小値をネットワークソースエレメントNTSELEとして管理情報(プレイリストファイルPLLST)内に記録される。本実施形態ではネットワーク環境に合わせて、ダウンロードするデータ又はファイルを選択できるところに大きな特徴がある。それによりネットワーク環境に最適なネットワークソースのダウンロードが可能となる。
A specific embodiment using the information of the network source element NTSEL described above will be described with reference to FIG. As shown in FIG. 67 (a), a time map file S-EVOB_HD.MAP that refers to S-EVOB_HD.EVO, which is an object file storing high-definition secondary enhanced video object data S-EVOB, is set as src attribute information. According to the list of network source elements NTSELE, in order to download the S-EVOB_HD.EVO file via the
図67(a)に示すように、ネットワークソースエレメントNTSELEのリストが記述された場合に図67(d)に示すプレイリストマネージャPLMNGが選択する最適なリソース(オブジェクトファイル又はタイムマップファイルを含む)を選択する方法を図68に示す。 As shown in FIG. 67 (a), the optimum resource (including object file or time map file) selected by the playlist manager PLMNG shown in FIG. 67 (d) when the list of the network source element NTSELE is described. The selection method is shown in FIG.
<ネットワークリソースの選択>
アドバンストコンテンツADVCTの再生を開始する起動シーケンス時においてタイトルタイムラインTMLE内のマッピング初期設定を行う期間中にプレイリストマネージャPLMNGがファイルキャッシュFLCCH内にダウンロードするネットワークリソースを選択する。この時の基本となる考え方を以下に説明する。まず始めにアドバンストコンテンツ再生部ADVPLの初期設定を開始(ステップS101)すると、アドバンストコンテンツ再生部ADVPLはユーザに対し、情報記録再生装置1が置かれているネットワーク環境をユーザに入力してもらうようリクエストを出す。ネットワーク環境としてユーザは例えばモデムによる電話回線かADSL回線か、または光ケーブルによるネットワーク経路50なのかを選択する。その結果、ユーザによるネットワーク環境情報を入力する事になる(ステップS102)。前記の結果に基づきナビゲーションマネージャNVMNG内で情報記録再生装置1における予想されるネットワークスループット値を算出し、図46に示すプレーヤパレメーター内のネットワークスループット欄内に保存する(ステップS103)。前記図46に示すプレーヤパラメータはアドバンストコンテンツ再生部ADVPL内のメモリ領域内に保存される。その結果、アドバンストコンテンツ再生部ADVPLの初期設定が完了する(ステップS104)。次に、アドバンストコンテンツADVCTの再生を開始するとプレイリストマネージャPLMNGは前記プレーヤパラメータ内のネットワークスループット値を読み取る(ステップS105)。その後、プレイリストファイルPLLST情報を前記プレイリストマネージャPLMNGが読み込む(ステップS106)。次にステップS107及びS108においてプレイリストファイルPLLST内のネットワークソースエレメントNTSELE内を解読し、最適なネットワークソースエレメントNTSELEの抽出処理を行う。最適なネットワークソースエレメントNTSELEの抽出処理に関する具体的な内容としてはステップS107に示すように、ネットワークスループットの許容最小値情報NTTRPT(networkThroughput属性情報)の値が、前記プレーヤパラメータ内のネットワークスループット欄内に記述されたネットワークスループット値以上の値を取るネットワークソースエレメントNTSELEのみを抽出する。前記抽出したネットワークソースエレメントNTSELEにおいて情報記録再生装置1に対応したネットワークスループット条件を満足するネットワークソースエレメントNTSELEが1個だけ存在する場合には、前記のネットワークソースエレメントNTSELEを選択し前記ネットワークソースエレメントNTSELE内に記述されたsrc属性情報に対してアクセスし対応するリソースやオブジェクトファイル、タイムマップファイルSTMAPをデータキャッシュDTCCH内へダウンロードする。また前記とは異なり、前記抽出したネットワークソースエレメントNTSELEの中で情報記録再生装置1が置かれたネットワーク環境に基づくネットワークスループットの条件を満足するネットワークソースエレメントNTSELEが2以上(複数)存在する場合には、アクセスすべきリソースまたはオブジェクトファイルまたはタイムマップファイルに対して、最も大きなネットワークスループットの許容最小値情報NTTRPT(networkThroughput属性情報)の値を持つネットワークソースを選択し、その選択したネットワークソースエレメントNTSELE内に記述されたsrc属性情報に対してアクセスし、対応するネットワークソースまたはオブジェクトファイルまたはタイムマップファイルをデータキャッシュDTCCH内へダウンロードする(ステップS107〜ステップS109)。また上述した2条件とは異なり情報記録再生装置1に対応したネットワークスループットの条件を満足するネットワークソースエレメントNTSELEが抽出されなかった場合には、前記ネットワークソースエレメントNTSELEのペアレントエレメントであるプレゼンテーションクリップエレメントやアプリケーションソースエレメントAPRELE、またはタイトルソースエレメント内のsrc属性情報の値で記述された保存場所にアクセスし、対応するリソースまたはオブジェクトファイルまたはタイムマップファイルをデータキャッシュDTCCHへ保存する。また前記の方法で最適なネットワークソースエレメントNTSELEを抽出し、前記抽出されたネットワークソースエレメントNTSELE内のsrc属性情報内に記述された先にアクセスしても予定のリソースファイルが存在しなかった場合には、前記のネットワークソースエレメントNTSELEの情報を利用する代わりに前記ネットワークソースエレメントNTSELEのペアレントエレメントであるアプリケーションリソースエレメントAPRELEまたはタイトルリソースエレメント内のsrc属性情報に記述された場所へアクセスし、データキャッシュDTCCHへダウンロード処理を行う。前記リソースデータまたはリソースファイルのダウンロードが終了した後、データキャッシュDTCCH内に保存されたデータまたはファイルを用いてユーザへの再生・表示を行う(ステップS110)。前記アドバンストコンテンツADVCTの再生が終わると再生終了処理を行う(ステップS111)。
<Select network resources>
During the startup sequence for starting playback of the advanced content ADVCT, the playlist manager PLMNG selects a network resource to be downloaded into the file cache FLCCH during the period of the initial mapping setting in the title timeline TMLE. The basic idea at this time will be described below. First, when the initial setting of the advanced content playback unit ADVPL is started (step S101), the advanced content playback unit ADVPL requests the user to input the network environment where the information recording /
図69(a)に示すようにプレイリストPLLST内には構造情報CONFGI、メディア属性情報MDATRI、及びタイトル情報TTINFOが存在する。前記タイトル情報TTINFOの中は図69(b)に示すようにファーストプレイタイトルエレメント情報FPTELEと1個以上のタイトルエレメント情報TTELEMが存在し、前期タイトル情報TTINFOの最後にプレイリストアプリケーションエレメント情報PLAELEが配置されている。 As shown in FIG. 69 (a), structure information CONFGI, media attribute information MDATRI, and title information TTINFO exist in the playlist PLLST. In the title information TTINFO, as shown in FIG. 69 (b), first play title element information FPTELE and one or more title element information TTELEM exist, and playlist application element information PLAELE is arranged at the end of the previous period title information TTINFO. Has been.
<プレイリストアプリケーションエレメント及びプレイリストアソシエーティドアドバンストアプリケーション(PlaylistApplication Element and Playlist Associated Advanced Application)>
プレイリストアソシエーティドアドバンストアプリケーションPLAPLのオブジェクトマッピングインフォメーションOBMAPIについてはタイトルセットエレメント(タイトル情報TTINFO)内のプレイリストアプリケーションエレメント情報PLAELEにより記述される。図70及び図71に示すようにプレイリストアソシエーティドアドバンストアプリケーションPLAPLはアドバンストアプリケーションADAPLの一種であり、前記アドバンストアプリケーションADAPLの特殊なタイプとして分類される。プレイリストPLLST内で規定される全てのタイトル内における全タイトルタイムラインTMLE領域において前記プレイリストアソシエーティドアドバンストアプリケーションPLAPLのライフタイム(有効時間APVAPE)が設定される。すなわち、前記図70に示すようにプレイリストアソシエーティドアドバンストアプリケーションPLAPLの実行(表示)時間APACPEはファーストプレイタイトルFRPLTTを除くプレイリストPLLST内で定義される全てのタイトル内の全タイトルタイムラインTMLE上で有効となり、任意のタイトル内の任意の時間で前記プレイリストアソシエーティドアドバンストアプリケーションPLAPLを使用する事が可能である。それと比べ、図70に示すようにタイトルアソシエーティドアドバンストアプリケーションTTAPLは1個のタイトル内における全タイトルタイムラインTMLE上で有効となり、タイトルアソシエーティドアドバンストアプリケーションTTAPL(アドバンストアプリケーションADAPL#B)の有効時間APVAPEは対応するタイトル#2内の全タイトルタイムラインTMLE設定時間と一致する。また、前記タイトルアソシエーティドアドバンストアプリケーションTTAPLは異なるタイプ(例えばタイトル#1又はタイトル#3)内では必ずしも有効とはならず、例えばタイトル#1又はタイトル#3の再生時にはタイトルアソシエーティドアドバンストアプリケーションTTAPLで参照(使用)するタイトルリソースTTRSRCを削除する事がある。また前記プレイリストアソシエーティドアドバンストアプリケーションPLAPLの有効時間APVAPEと比らべ、一般的なアドバンストアプリケーションADAPLの有効時間APVAPEは特定のタイトル内の特定な時間間隔にのみ対応する。そして前記一般的なアドバンストアプリケーションADAPLが参照(使用)するアプリケーションリソースAPRSRCは前記アドバンストアプリケーションADAPLの有効時間APVAPE以外ではファイルキャッシュFLCCHからデータが削除される事がある。上記のようにプレイリストアソシエーティドアドバンストアプリケーションPLAPL以外でタイトルのタイトルタイムラインTMLE中に有効時間APVAPEを持つアドバンストアプリケーションADAPL#BをタイトルアソシエーティドアドバンストアプリケーションTTAPLと呼ばれる。前記プレイリストアソシエーティドアドバンストアプリケーションPLAPLで参照さえる(使用される)リソースであるプレイリストアプリケーションリソースPLAPRS(データソース)は情報記憶媒体DISC又はパーシステントストレージPRSTR内に保存されている。前記プレイリストアソシエーティドアドバンストアプリケーションPLAPLの同期属性情報SYNCATは常にハードシンク(ハード同期)形のアプリケーションになっている。すなわちプレイリストアソシエーティドアドバンストアプリケーションPLAPLが参照する(使用する)プレイリストアプリケーションリソースPLAPRSをファイルキャッシュFLCCH内にローディング完了するまではタイトルタイムラインTMLEの進行が一時停止され、前記プレイリストアプリケーションリソースPLAPRSのローディングが完了した後、初めてタイトルタイムラインTMLEの進行が許される形となっている。前記プレイリストアプリケーションリソースPLAPRSは後述するファーストプレイタイトルFRPLTTの再生中にファイルキャッシュFLCCH内にダウンロード完了する事が前提とされている。従って前記プレイリストアソシエーティドアドバンストアプリケーションPLAPLがハードシンク(ハード同期)アプリケーションであったとしても前記ファーストプレイタイトルFRPLTT以外のタイトル再生中にはタイトル再生中にタイトルタイムラインTMLEを停止させられる事は稀である。しかしファーストプレイタイトルFRPLTTが終了しても前記プレイリストアプリケーションリソースPLAPRSのファイルキャッシュFLCCH内へのローディングが完了しない場合には、ハードシンク(ハード同期)であるため、前記ローディングが完了するまでタイトルの再生は停止(タイトルタイムラインTMLEの時間進行が停止)される。本実施形態において前記ファーストプレイタイトルFRPLTTの選択属性(ユーザオペレーションの対応可否属性(selectable属性情報))は一時的に“false”に設定され、基本的には前記ファーストプレイタイトルFRPLTTの再生中にユーザによる他のタイトルへのジャンプやファーストプレイタイトルFRPLTTの早送りが出来ないようになっている。しかし、何らかの設定ミスにより前記ファーストプレイタイトルFRPLTT再生中で前記プレイリストアプリケーションリソースPLAPRSのローディング完了する前に別のタイトルにジャンプした場合には、前記プレイリストアソシエーティドアドバンストアプリケーションPLAPLがハードシンク(ハード同期)アプリケーションであるため、ジャンプ先のタイトルでのタイトルタイムラインTMLEが前記プレイリストアプリケーションリソースPLAPRSのファイルキャッシュFLCCH内へのローディングを完了するまで停止する状況となる。前記プレイリストアソシエーティドアドバンストアプリケーションPLAPL内で使用されるマークアップMRKUPはチッククロックを使用してはならない。プレイリストPLLST内に記述される全てのプレイリストアプリケーションエレメント情報PLAELEは同一のアプリケーションブロック内に属している。図69(c)に示すプレイリストアプリケーションエレメント情報PLAELE内の言語属性情報LANGAT(languate属性情報)は必ず記述されなければならず(記載の省略が出来ない)、前記言語属性情報LANGATの値は同一のプレイリストPLLST内で一意的に(共通して)設定されなければならない。例えば前記プレイリストアプリケーションエレメント情報PLAELE内で言語属性情報LANGAT(language属性情報)を日本語に設定した場合には同一プレイリストPLLST内では前記プレイリストアソシエーティドアドバンストアプリケーションPLAPLは同一のプレイリストPLLST内で全て日本語として使用されなければならない。図69(b)では1個のプレイリストアプリケーションエレメント情報PLAELEが記述されているが実際にはそれぞれ言語属性情報LANGAT(language属性情報)で異なる言語で設定された複数のプレイリストアプリケーションエレメント情報PLAELEが記述されている。アドバンストコンテンツ再生部ADVPL内のメモリ領域に図47に示すプロファイルパラメータの情報を記述する領域を持っている。図47に示すプロファイルパラメータの中でメニュー言語(menulanguage)の情報を記録する場所がある。このアドバンストコンテンツ再生部ADVPL内のメモリ領域内で設定されたメニュー言語(menulanguage)に対応して、表示・実行となるプレイリストアプリケーションエレメント情報PLAELEが選択される。すなわち図47の中で示されたメニュー言語(menulanguate)に記録された言語情報と図69(c)で記述された言語属性情報LANGAT(language属性情報)の値が一致したプレイリストアプリケーションエレメント情報PLAELEのみが有効として抽出され、表示・実行に利用される。
<Playlist Application Element and Playlist Associated Advanced Application>
The object mapping information OBMAPI of the playlist associated advanced application PLAPL is described by the playlist application element information PLAELE in the title set element (title information TTINFO). As shown in FIGS. 70 and 71, the playlist associated advanced application PLAPL is a kind of the advanced application ADAPL, and is classified as a special type of the advanced application ADAPL. The lifetime (valid time APVAPE) of the playlist associated advanced application PLAPL is set in all title timeline TMLE areas in all titles defined in the playlist PLLST. That is, as shown in FIG. 70, the execution (display) time APACPE of the playlist associated advanced application PLAPL is on all title timelines TMLE in all titles defined in the playlist PLLST except the first play title FRPLTT. It is possible to use the playlist associated advanced application PLAPL at any time in any title. In contrast, as shown in FIG. 70, the title-associated advanced application TTAPL is valid on all title timelines TMLE within one title, and the valid time of the title-associated advanced application TTAPL (advanced application ADAPL # B) APVAPE matches the set time of all title timelines TMLE in the
<PlaylistApplication Element>
前記プレイリストアソシエーティドアドバンストアプリケーションPLAPLは、ファーストプレイタイトルFRPLTTを除く全てのタイトル内のタイトルタイムラインTMLEで設定された全時間領域について有効であるようにスケジューリングされている。前記プレイリストアソシエーティドアドバンストアプリケーションPLAPLを管理するプレイリストアプリケーションエレメント情報PLAELE内で記述されるsrc属性情報(ソース属性情報)は、対応アプリケーションの初期設定情報を含んだマニュフェストファイル保存場所URIMNFとして指定される。すなわち、プレイリストアソシエーティドアドバンストアプリケーションPLAPLとしてプレイリストアプリケーションエレメント情報PLAELEから参照される情報はマニュフェストファイルMNFSTの保存場所が参照され、URI(ユニフォーム・リソース・アイデンティファイヤー)により記述される。前記マニュフェストファイルMNFSTは対応するアプリケーションの初期設定情報を含んでいる。図69(c)に示すようにプレイリストアプリケーションエレメント情報PLAELE内にはプレイリストアプリケーションリソースエレメントPLRELEのリストが含まれている。前記プレイリストアプリケーションリソースエレメントPLRELE情報は前記プレイリストアソシエーティドアドバンストアプリケーションPLAPLで使用されるリソースインフォメーションRESRCIの情報について記述されている。図69(c)に示すようにプレイリストアプリケーションエレメント情報PLAELE内にはプレイリストアプリケーションのID情報PLAPIDが含まれているが図82に示すように前記プレイリストアプリケーションエレメント情報PLAELE内に前記プレイリストアプリケーションのID情報PLAPIDを持つ事により、APIコマンドによる参照がしやすくなっている。次にZオーダー属性(Z-インデックス)情報ZORDERはグラフィックプレインGRPHPL内で重ねて配置されるアプリケーション又はアプリケーションエレメントが存在するレイヤー番号が指定され、値として“0”又は正数値が設定される。また前記レイヤー番号はチェッククロックの周波数に合わせて使用(設定変更)される。前記言語属性情報LANGAT(language属性情報)は前述したようにプロファイルパラメータ内のメニュー言語に対応して複数の中から特定のプレイリストアプリケーションエレメント情報PLAELEを選択する時に利用される。また前記情報は画面上(メニュー画面など)に表示される文字や音声などに使用される言語を指定している。その為、前記言語属性情報LANGAT(language属性情報)は前記プレイリストアプリケーションエレメント情報PLAELE内で記述を省略する事が出来ず必ず記述しなくてはならない。また最後に配置される事ができるプレイリストアプリケーションに関する付加情報は人に馴染みの深いテキストフォーマットで記述されるが前記付加情報の記載を省く事が出来る。
<PlaylistApplication Element>
The playlist associated advanced application PLAPL is scheduled to be valid for all time areas set in the title timeline TMLE in all titles except the first play title FRPLTT. The src attribute information (source attribute information) described in the playlist application element information PLAELE that manages the playlist associated advanced application PLAPL is specified as a manifest file storage location URIMNF including initial setting information of the corresponding application. The That is, the information referenced from the playlist application element information PLAELE as the playlist associated advanced application PLAPL is described by a URI (Uniform Resource Identifier) referring to the storage location of the manifest file MNFST. The manifest file MNFST includes initial setting information of the corresponding application. As shown in FIG. 69 (c), the playlist application element information PLAELE includes a list of playlist application resource elements PLRELE. The playlist application resource element PLRELE information describes resource information RESRCI information used in the playlist associated advanced application PLAPL. As shown in FIG. 69 (c), playlist application element information PLAELE includes playlist application ID information PLAPID. As shown in FIG. 82, the playlist application element information PLAELE includes the playlist application element information PLAELE. By having ID information PLAPID, it is easy to refer by API command. Next, in the Z order attribute (Z-index) information ZORDER, a layer number in which an application or application element arranged in the graphic plane GRPHPL exists is specified, and a value “0” or a positive value is set. The layer number is used (setting changed) according to the frequency of the check clock. The language attribute information LANGAT (language attribute information) is used when specific playlist application element information PLAELE is selected from a plurality of items corresponding to the menu language in the profile parameter as described above. The information designates a language used for characters and voices displayed on the screen (such as a menu screen). For this reason, the language attribute information LANGAT (language attribute information) cannot be omitted in the playlist application element information PLAELE and must be described. Further, the additional information related to the playlist application that can be arranged last is described in a text format familiar to people, but the description of the additional information can be omitted.
<プレイリストアプリケーションリソースエレメント(PlaylistApplicationResource Element)>
図69(d)に詳細構造を示すプレイリストアプリケーションリソースエレメントPLRELEはプレイリストアプリケーションリソースPLAPRSに関する管理情報が記述されている。前記プレイリストアプリケーションリソースPLAPRSとしてはプレイリストアソシエーティドアドバンストアプリケーションPLAPL内で使用されるパッケージ化されたアーカイブファイル又はアーカイブデータなどが対応する。前記プレイリストアプリケーションリソースエレメントPLRELEはファイルキャッシュFLCCH内にダウンロードされるべきアーカイビングデータ又はアーカイビングファイルを指定(規定)する。データキャッシュ内にダウンロードされるデータ又はファイルの保存場所SRCDTCを示すsrc属性情報はURI(ユニフォーム・リソース・アイデンティファイヤー)で記述され、情報記憶媒体DISC又はパーシステントストレージPRSTR内に保存されているアーカイビングデータ又はアーカイビングファイルを参照する事ができる。本実施形態において対応するデータキャッシュ内にダウンロードされるデータ又はファイル保存場所SRCDTC(src属性情報)としてはファイルキャッシュFLCCH内のAPI管理領域やネットワーク上を指定してはならない。このようにネットワーク上のネットワークサーバNTSRVに保存されているデータを指定しない事によりプレイリストアプリケーションリソースPLAPRSのダウンロード時間LOADPE内でのダウンロード完了する事を保証している。その結果、前記ファーストプレイタイトルFRPLTT再生中にプレイリストアプリケーションリソースPLAPRSのダウンロードが完了する。情報記録再生装置1を取り巻くネットワーク環境におけるネットワークスループットはユーザのネットワーク環境に大きく依存し、例えばネットワーク環境がモデム(電話回線)により転送される場合にはネットワークスループットが大幅に低い。そのようなネットワーク環境内でプレイリストアプリケーションリソースPLAPRSのダウンロードを試みるとファーストプレイタイトルFRPLTT再生中にダウンロードを完了する事が非常に難しくなる。本実施形態ではネットワークサーバNTSRVからのダウンロードを禁止し、そのような危険を排除している所に大きな特徴がある。またデータキャッシュにロードする前記データ又はファイルのサイズ情報DTFLSZ(size属性情報)はバイト単位で記述されるが、前記属性情報の記述を省く事が出来る。更にマルチプレクスト属性情報MLTPLXの値を“true”とした場合には、ローディング時間LOADPE内においてプライマリーエンハンストビデオオブジェクトデータP-EVOB内のアドバンストパックADV_PCKから対応するアーカイビングデータをローディングしなければならない(図73(d)参照)。またこの場合、(“true”の場合)、ファーストプレイタイトルFRPLTTを管理するファーストプレイタイトルエレメント情報FPTELEがプレイリストPLLST内に記述されなければならない。このようにファーストプレイタイトルエレメント情報FPTELEがプレイリストPLLST内に記述されている場合には、プレイリストアプリケーションリソースPLAPRSのローディング時間LOADPEはファーストプレイタイトルFRPLTTの再生時間に対応する。また前記マルチプレクスト属性情報MLTPLXの値が“false”の場合にはアドバンストコンテンツ再生部ADVPLはsrc属性情報で指定された場所から対応するリソースをプリロードしなければならない。また前記マルチプレクスト属性情報MLTPLXの記述を省く事は出来るが、その場合には自動的にマルチプレクスト属性情報MLTPLXの値が“true”と設定される。またプレイリストアプリケーションリソースPLAPRSに関する付加情報は人に馴染みの深いテキストフォーマットで記述されるが前記付加情報の記述を省く事が出来る。
<Playlist Application Resource Element>
The playlist application resource element PLRELE, whose detailed structure is shown in FIG. 69 (d), describes management information related to the playlist application resource PLAPRS. The playlist application resource PLAPRS corresponds to a packaged archive file or archive data used in the playlist associated advanced application PLAPL. The playlist application resource element PLRELE specifies (defines) archiving data or archiving files to be downloaded into the file cache FLCCH. The src attribute information indicating the storage location SRCDTC of the data or file downloaded in the data cache is described by a URI (Uniform Resource Identifier) and is stored in the information storage medium DISC or persistent storage PRSTR. Bing data or archiving files can be referenced. In the present embodiment, the data or file storage location SRCDTC (src attribute information) downloaded into the corresponding data cache must not specify the API management area in the file cache FLCCH or on the network. Thus, by not specifying the data stored in the network server NTSRV on the network, it is guaranteed that the download within the download time LOADPE of the playlist application resource PLAPRS is completed. As a result, the download of the playlist application resource PLAPRS is completed during playback of the first play title FRPLTT. The network throughput in the network environment surrounding the information recording / reproducing
図69(c)に示すデータ構造を有するプレイリストアプリケーションエレメント情報PLAELEはプレイリストアソシエーティドアドバンストアプリケーションPLAPLの管理を行っている。また、前記プレイリストアソシエーティドアドバンストアプリケーションPLAPLが参照する(使用する)リソースは図69(d)に示すデータ構造を有するプレイリストアプリケーションリソースエレメントPLRELEにより管理されている。また、図56(c)に示すデータ構造を有するアドバンストサブタイトルセグメントエレメントADSTSGはアドバンストサブタイトルADSBTの管理を行い、図56(d)に示すデータ構造を有するアプリケーションセグメントエレメントAPPLSGはアドバンストアプリケーションADAPLの管理を行っている。また前記アドバンストサブタイトルADSBTもしくはアドバンストアプリケーションADAPLが参照する(使用する)リソースは、アプリケーションリソースAPRSRCと呼ばれ、図63(d)に示すデータ構造を有するアプリケーションリソースエレメントAPRELEにより管理されている。更に、図66(d)に示すデータ構造を有するタイトルリソースエレメントはタイトルリソースTTRSRCの管理を行っている。前記タイトルリソースTTRSRCはタイトルアソシエーティドアドバンストアプリケーションTTAPLにより参照(使用)される。前記タイトルアソシエーティドアドバンストアプリケーションTTAPLを管理する情報は、前記アプリケーションセグメントエレメントAPPLSGが対応している。以上、説明したプレイリストアプリケーションリソースPLAPRSと前記タイトルリソースTTRSRC、前記アプリケーションリソースAPRSRCとの間の関係(違い)を図70及び図71により説明する。また同時に、図70及び図71に前記プレイリストアソシエーティドアドバンストアプリケーションPLAPLとタイトルアソシエーティドアドバンストアプリケーションTTAPL、アドバンストアプリケーションADAPLとの間の関係(違い)も説明する。図70に示す実施形態ではタイトル#1からの再生を説明しているが、実はタイトル#1に先行し、図17に示すファーストプレイタイトルFRPLTTが最初に設定されている場合が多い。本実施形態においてプレイリストアソシエーティドアドバンストアプリケーションPLAPLが使用され、そこで使用されるプレイリストアプリケーションリソースPLAPRSを前記タイトル#1の再生前にファイルキャッシュFLCCH内にローディング完了させる使用ケースにおいては、図17に示すようにプレイリストPLLSTの再生開始時に(最も最初に)ファーストプレイタイトルFRPLTTを再生する必要がある。従って図70に示した説明図はタイトル#1の再生に先立ち、前記ファーストプレイタイトルFRPLTTを再生する事を前提としており、前記ファーストプレイタイトルFRPLTTの再生期間を省いている。図70に示すように前記プレイリストアソシエーティドアドバンストアプリケーションPLAPLはファーストプレイタイトルFRPLTTを除く全タイトル内で実行(表示)できる。すなわち、前記プレイリストアソシエーティドアドバンストアプリケーションPLAPLの実行(表示)時間APACPEはファーストプレイタイトルFRPLTTを除く全タイトル再生期間に渡り跨って広がっている。それに比べ、図70に示すようにタイトルアソシエーティドアドバンストアプリケーションTTAPLは同一タイトル内にのみ有効になっている。従って前記タイトルアソシエーティドアドバンストアプリケーションTTAPLの実行(表示)時間APACBEは、同一タイトル(図70の実施形態ではタイトル#2を意味する)内のタイトルタイムラインTMLE上の時間“T3”から前記タイトルが終了するまでの期間に渡っている。それに比べ、図70に示すようにアドバンストアプリケーションADAPLの実行(表示)時間APACPEは同一タイトル内の限定された特定時間のみ設定される。本実施形態において前記プレイリストアソシエーティドアドバンストアプリケーションPLAPLとタイトルアソシエーティドアドバンストアプリケーションTTAPLは広義のアドバンストアプリケーションADAPLに属し、前記広義のアドバンストアプリケーションADAPL内の特殊ケースとしてプレイリストアソシエーティドアドバンストアプリケーションPLAPLとタイトルアソシエーティドアドバンストアプリケーションTTAPLが定義される。前述した各種アドバンストアプリケーションADAPLで参照(使用)される各種リソースの関係を図71に示す。プレイリストアプリケーションリソースPLAPRSはタイトルを跨り、任意のアドバンストアプリケーションADAPLにより共通に使用されるリソースを意味している。前記プレイリストアプリケーションリソースPLAPRSは前記プレイリストアソシエーティドアドバンストアプリケーションPLAPLのみならず、タイトルアソシエーティドアドバンストアプリケーションTTAPLやアドバンストアプリケーションADAPLから参照(使用)される事が出来る。前記プレイリストアプリケーションリソースPLAPRSは前述したようにファーストプレイタイトルFRPLTTの再生期間中にファイルキャッシュFLCCH内にローディングされ、アドバンストコンテンツADVCTが終了するまで複数のタイトル再生時に渡り、前記ファイルキャッシュFLCCHに保存され続けている。従って、前記プレイリストアプリケーションリソースPLAPRSはファイルキャッシュFLCCH内でファーストプレイタイトルFRPLTTを除く全タイトルの再生期間中とその再生期間の間(α位置とβ位置)に渡り、有効時間APVAPE内になっている。その結果、前記プレイリストアプリケーションリソースPLAPRSを参照(使用)するプレイリストアソシエーティドアドバンストアプリケーションPLAPLは異なるタイトル間で共通に使用(ユーザへの表示)する事ができる。前記プレイリストアプリケーションリソースPLAPRSを管理するプレイリストPLLST内のリソースエレメント名は図69(d)に示すデータ構造を有するプレイリストアプリケーションリソースエレメントPLRELEになる。本実施形態において前記プレイリストアプリケーションリソースPLAPRSを設定し、それを参照(使用)するプレイリストアソシエーティドアドバンストアプリケーションPLAPLを設定する事により異なるタイトル間の遷移中(図70内におけるα期間及およびβ期間)にも途切れること無く、前記プレイリストアソシエーティドアドバンストアプリケーションPLAPLのユーザへの表示が行う事が出来る。また前記プレイリストアプリケーションリソースPLAPRSはファーストプレイタイトルFRPLTT再生中以外には、ファイルキャッシュFLCCH内へのローディング時間が不要となる為、表示開始や表示切り替えを高速に行えるという効果がある。またタイトルリソースTTRSRCはタイトルアソシエーティドアドバンストアプリケーションTTAPLとタイトル内のアドバンストアプリケーションADAPLにより参照する(使用する)事が出来るばかりで無く、同一タイトル内で異なる複数のアドバンストアプリケーションADAPLにより共通に使用する事が出来る。前記タイトルリソースTTRSRCを管理するプレイリストPLLST内のリソースエレメント名は図66(d)にデータ構造を有するタイトルリソースエレメントである。前記タイトルリソースTTRSRCのファイルキャッシュFLCCH内の保存タイミングを以下に説明する。図66(d)に示すようにタイトルリソースエレメント内に対象リソースの取込み(ローディング)を開始するタイトルタイムライン上の時間PRLOAD(loadingBegin属性情報)を設定できる構造になっている。前記タイトルリソースエレメント内に前記対象リソースの取込み(ローディング)を開始するタイトルタイムライン上の時間PRLOAD(loadingBegin属性情報)が記述されている場合には、図65(a)のようなタイミングでローディングされる事になる。すなわち前記対象リソースの取込み(ローディング)を開始するタイトルタイムライン上の時間PRLOADの値は、対応したリソースのタイトルタイムライン上の開始時間TTSTTM(titleTimeBegin属性情報)の値よりも早い時間を示しており、前記タイトルリソースTTRSRCの実行開始時間よりも早い時間からローディングが開始される。それに比べ、図66(d)に示す対象リソースの取込み(ローディング)を開始するタイトルタイムライン上の時間PRLOAD(loadingBegin属性情報)の記述が省かれていた場合には、図65(b)に示すようにタイトルタイムライン上の開始時間TTSTTMのタイミングでローディングを開始され、ローディングが終了した直後から前記タイトルリソースTTRSRCを参照する(使用する)タイトルアソシエーティドアドバンストアプリケーションTTAPLの実行時間APACPEとなる。図70に示した実施形態は図65(b)の方法に準拠して記述してある。図70に示すように前記タイトルリソースTTRSRCはタイトル#2が終了した後、ファイルキャッシュからのデータ削除後時間N-EXSTとなる。すなわち、前記タイトルリソースTTRSRCは再生対象のタイトルが変わらない限りファイルキャッシュFLCCH内に保存され続けるが、再生対象のタイトルが変更されると(別のタイトルに移動すると)ファイルキャッシュFLCCHからは削除される。前記タイトルリソースTTRSRCを利用すると同一タイトル内での継続表示が可能になる。また、コンテンツが複数タイトルから構成されている場合、別のタイトルに移動した時にファイルキャッシュFLCCH内からは削除されるので前記ファイルキャッシュFLCCHの有効利用が可能となる。次にアプリケーションリソースAPRSRCはアドバンストアプリケーションADAPL毎に独自に使用されるリソースであり、タイトル内の特定のアドバンストアプリケーションADAPL内でのみ使用される。前記アプリケーションリソースAPRSRCを管理するプレイリストPLLST内のリソースエレメント名は図63(d)に示すようにアプリケーションリソースエレメントAPRELEが対応する。図63(d)に示すように前記アプリケーションリソースエレメントAPRELE内には対象リソースの取込み(ローディング)を開始するタイトルタイムライン上の時間PRLOAD(loadingBegin属性情報)が記述可能になっている。前記loadingBegin属性情報が記述されている場合にはファイルキャッシュFLCCH内のローディングタイミングは図65(a)に示すタイミングとなり、逆に前記loadingBegin属性情報が記述されていない場合には図65(b)に示すタイミングでファイルキャッシュFLCCH内にローディングされる。また記述されている場合には前記loadingBegin属性情報の値は前記アプリケーションリソースエレメントAPRELEが属するペアレントエレメント(アドバンストサブタイトルセグメントエレメントADSTSGまたはアプリケーションセグメントエレメントAPPLSG)内で設定されているタイトルタイムライン上の開始時間TTSTTM(titleTimeBegin属性情報)の値よりも早い時間に設定されている。図70に示すアプリケーションリソースAPRSRCのファイルキャッシュFLCCH内のローディングタイミングは図65(b)に準拠している。図70に示すように前記アプリケーションリソースAPRSRCを参照する(使用する)アドバンストアプリケーションADAPL#Cの実行(表示)時間APACPEが終了した後は、ファイルキャッシュからのデータ削除後時間N-EXSTとなる。すなわち前記アプリケーションリソースAPRSRCは各アドバンストアプリケーションADAPLの使用(実行)前にファイルキャッシュFLCCH内に保存され、そのアドバンストアプリケーションADAPLの使用(実行)後にファイルキャッシュFLCCH内から削除される。本実施形態において前記アプリケーションリソースAPRSRCを利用する事により特定のアドバンストアプリケーションADAPLの使用(実行)後に対応リソースが削除されるので、ファイルキャッシュFLCCHの有効利用が図れるという効果が生まれる。その結果、必要とするファイルキャッシュFLCCHのメモリサイズが小さく出来るので装置が安価になるというメリットがある。
The playlist application element information PLAELE having the data structure shown in FIG. 69 (c) manages the playlist associated advanced application PLAPL. Further, the resource referred to (used) by the playlist associated advanced application PLAPL is managed by a playlist application resource element PLRELE having a data structure shown in FIG. 69 (d). Also, the advanced subtitle segment element ADSTSG having the data structure shown in FIG. 56 (c) manages the advanced subtitle ADSBT, and the application segment element APPLSG having the data structure shown in FIG. 56 (d) manages the advanced application ADAPL. ing. A resource referred to (used) by the advanced subtitle ADSBT or the advanced application ADAPL is called an application resource APRSRC and is managed by an application resource element APRELE having a data structure shown in FIG. Further, the title resource element having the data structure shown in FIG. 66 (d) manages the title resource TTRSRC. The title resource TTRSRC is referenced (used) by the title associated advanced application TTAPL. The information for managing the title associated advanced application TTAPL corresponds to the application segment element APPLSG. The relationship (difference) between the playlist application resource PLAPRS described above, the title resource TTRSRC, and the application resource APRSRC will be described with reference to FIGS. At the same time, FIG. 70 and FIG. 71 also explain the relationship (difference) between the playlist associated advanced application PLAPL, the title associated advanced application TTAPL, and the advanced application ADAPL. In the embodiment shown in FIG. 70, playback from the
図70及び図71に示した内容に関する、より具体的な内容を図72に示す表示画面例を用いて説明をする。図70に示すようにタイトル#2再生時にはプライマリービデオセットPRMVSを表示するプライマリーエンハンストビデオオブジェクトデータP-EVOB#1が再生されていると共にプレイリストアソシエーティドアドバンストアプリケーションPLAPLが同時に表示されている。その時の表示画面例をγで表し図72(a)に表す。図72に示すようにタイトル1の本編31がプライマリーエンハンストビデオオブジェクトデータP-EVOB#1を表し、画面の下側に表示されたストップボタン34からFFボタン38に至る各種ボタンが配列された画面が、前記プレイリストアソシエーティドアドバンストアプリケーションPLAPLにより表示されている。図72(d)に示す画面は図72(b)に表示される表示画面δと、図72(c)に表示されるε共に共通に表示されている。すなわち図72(d)に示すプレイリストアソシエーティドアドバンストアプリケーションPLAPLにより表示される画面は異なるタイトル間で共通な画面となっており、そこで発揮する機能も共通になっている。前記の画面を構成する静止画IMAGEおよび機能を実現するスクリプトSCRPTがおよびマニフェストMNFST、マークアップMRKUPがプレイリストアプリケーションリソースPLAPRSになる。図72(d)に示すプレイリストアプリケーションリソースPLAPRSを管理し、図69(d)内に示すデータ構造を有するプレイリストアプリケーションリソースエレメントPLRELEにおいて、図72(d)に示した例ではマルチプレクスト属性情報MLTPLXの値が“true”となっている。この場合には、図73の説明からわかるように前記プレイリストアプリケーションリソースPLAPRSはファーストプレイタイトルFRPLTTを再生する時に使用されるプライマリーエンハンストビデオオブジェクトデータP-EVOB#0内にマルチプレクスされて保存されている。前記プレイリストアプリケーションリソースPLAPRSを参照(使用)するプレイリストアソシエーティドアドバンストアプリケーションPLAPLを管理するプレイリストアプリケーションエレメント情報PLAELE内には図69(c)に示すように、Zオーダー属性(Z-インデックス)情報ZORDERが存在し、図72(d)の例ではその値を“1”に設定している。前記プレイリストアプリケーションリソースPLAPRSは異なるリソース間で跨って共通に使用(表示)されるため、例えばタイトルアソシエーティドアドバンストアプリケーションTTAPLで表示される画面や、アドバンストアプリケーションADAPLで表示される画面と画面上で重なった場合、下側に隠れて表示出来るようにしておく事が望ましい。そのため図72(d)に示した実施形態では、前記Zオーダー属性(Z-インデックス)情報ZORDERの値を低い値に設定している。次に図70に示すタイトル#2の再生中において、タイトルタイムラインTMLEの時間が“T4”から“T2”の間では、プライマリービデオセットPRMVSを表示するプライマリーエンハンストビデオオブジェクトデータP-EVOB#2とプレイリストアソシエーティドアドバンストアプリケーションPLAPLとタイトルアソシエーティドアドバンストアプリケーションTTAPLの3つを同時に表示する。その時の画面を表示画面εで表し図72(c)に示す。すなわち、前記タイトルアソシエーティドアドバンストアプリケーションTTAPLで表示する画面が図72(f)に示すナビゲート用アニメーション55を意味している。最近のWindows(登録商標)Officeではヘルプ用アニメーションとしてイルカが現れ、使い方をサポートしている。それと同様に図72(f)に示すナビゲート用アニメーション55により画面操作のガイドができる。またそれに限らず前記ナビゲート用アニメーション55を用い、タイトル#2の本編31で表示された画面内容の説明をさせる事も可能である。前記ナビゲート用アニメーション55は同一タイトル(タイトル#2)内で共通に使われる画面や機能を表しており、タイトルリソースTTRSRCを使用している。前記タイトルリソースTTRSRCを管理するタイトルリソースエレメント内には図66(d)に示すようにマルチプレクスト属性情報MLTPLXが存在し、図72(f)に示す実施形態では前記の値が“false”に設定されている。すなわちこの場合にはタイトルリソースTTRSRCはアドバンストパックADV_PCKの形でマルチプレクスされておらず、特定のファイルの形で指定された場所に保存されている事を表している。図70及び図71で説明したように前記タイトルリソースTTRSRCが使用されているタイトル(タイトル#2)から別のタイトルへ再生場所が移動した時には、前記タイトルリソースTTRSRCはファイルキャッシュFLCCH内から削除する事が出来る。この時の削除の優先順位が図66(d)に示す対応リソース削除に対する優先順位情報PRIORT(priority属性情報)により指定されている。図66(d)に示すように、前記の値が高いリソースから優先的に削除する格好となっているので、図72(f)の実施形態における“8”の値は比較的先に削除して良い事を意味している。図70に示すタイトル#2再生中でのタイトルタイムラインTMLEの時間が“T3”から“T4”までの間ではプライマリービデオセットPRMVSを表示するプライマリーエンハンストビデオオブジェクトデータP-EVOB#2とプレイリストアソシエーティドアドバンストアプリケーションPLAPLとタイトルアソシエーティドアドバンストアプリケーションTTAPLとアドバンストアプリケーションADAPLの画面が組み合わされて表示されており、その時の表示画面δを図72(b)に示す。前記アドバンストアプリケーションADAPLで示す画面は図72(e)に示すように、言語選択メニュー54を示している。図72(e)に示す特定のアドバンストアプリケーション内にのみ有効となる画面や機能がアプリケーションリソースAPRSRCを利用して実現している。前記アプリケーションリソースAPRSRCを管理するアプリケーションリソースエレメントAPRELE内には、図63(d)に示すようにマルチプレクスト属性情報MLTPLXが記述可能になっている。図72(e)の実施形態では前記の値が“false”に設定されており、前記アプリケーションリソースAPRSRCがアドバンストパックADV_PCKの形でマルチプレクスされて保存されていたのではなく特定のファイルとして単独で存在していた事を意味している。また、前記アプリケーションリソースエレメントAPRELE内で指定される対応リソース削除に対する優先順位情報PRIORT(priority属性情報)の値は“2”の値として設定されている。図63(d)に示すように前記の値が高いリソースから先に削除するので“2”の値は、なるべく長期間ファイルキャッシュFLCCH内に保存しておく事を意味している。図72(f)ではpriority属性値が“8”に設定され、図72(e)では前記の値が“2”で指定されているので、前記のpriority属性値のみを単独で比較した時には図72(f)に示すナビゲート用アニメーション55のリソースを先に削除出来るようにあたかも見える。しかし、図64で説明したようにアプリケーションリソースAPRSRCのプライオリティーレベルの方が、タイトルリソースTTRSRCのプライオリティーレベルよりも低いので実際には図72(e)に示す言語選択メニュー54に対応したアプリケーションリソースAPRSRCの方を優先的にファイルキャッシュFLCCHから削除する事になる。前記アプリケーションリソースAPRSRCを管理するアプリケーションリソースエレメントAPRELEを含むペアレントエレメントであるアプリケーションセグメントエレメントAPPLSG内にはオートラン属性情報ATRNATが記載可能になっている。図72(e)での実施形態では前記の値が“true”となっており、図70で示すようにタイトル#2の再生開始と同時に前記アプリケーションリソースAPRSRCがローディング開始される形となっている。また、図70に示す実施形態では、アプリケーションリソースAPRSRCのローディング方法として図65(e)に示す方法を採用している。また図72(e)に示す実施形態では、図56(d)に含まれる再生表示オブジェクトの同期属性情報SYNCAT(sync属性情報)の値が“soft”に設定されている。従って、図70に示す実施形態においてタイトル#2の再生開始時から前記アプリケーションリソースAPRSRCのローディングが開始されるが、ローディング予定時間LOADPEが終了するタイトルタイムラインTMLE上の時間“T3”になっても前記アプリケーションリソースAPRSRCのローディングが完了しない場合には図72(e)の画面をユーザに表示する事無く、そのままタイトルタイムラインTMLEの時間進行を継続させ、ローディングが終了した段階で初めて言語選択メニュー54の表示を行う事になる。また図72(e)の実施形態では、図56(d)に示すZオーダー属性(Z-インデックス)情報ZORDERの値が“5”に設定されており、図72(d)に示した同じ属性情報の値“1”よりも大きな値になっている。従って万一、画面上で図72(d)に示す各種ボタン画面と図72(e)に示す言語選択メニュー54の画面の表示場所が一部重なる場合には、前記Zオーダー属性(Z-インデックス)情報ZORDERの値が大きな言語選択メニュー54の方が上側に表示される事になる。このようにZオーダー属性(Z-インデックス)情報ZORDERの値を設定する事により異なるアドバンストアプリケーションADAPL間で表示する画面が同一画面上で重なった場合、どちらの画面を上側に表示するかを自動設定する事が出来、コンテンツプロバイダのユーザに対する表現力を向上させる事が出来る。
More specific contents related to the contents shown in FIGS. 70 and 71 will be described using the display screen example shown in FIG. As shown in FIG. 70, when the
図73(a)に示すファーストプレイタイトルFRPLTTはユーザに対して最初に再生・表示するタイトルを表しており、プレイリストPLLST内では図74(c)に示すようにタイトル情報TTINFO内のファーストプレイタイトルエレメント情報FPTELEにより管理されている。またプレイリストアソシエーティドアドバンストアプリケーションPLAPLは図70に示すように複数のタイトル間に跨って実行(表示)時間APACPEが確保されたものであり、前記ファーストプレイタイトルFRPLTTを除く任意のタイトル内で表示・実行する事が可能になっている。また前記プレイリストアソシエーティドアドバンストアプリケーションPLAPLにより参照(使用)されるリソースをプレイリストアプリケーションリソースPLAPRSと呼ぶ。ファイルキャッシュFLCCH内への前記プレイリストアプリケーションリソースPLAPRSのローディングを前記ファーストプレイタイトルFRPLTT再生時に完了させるところに本実施形態の大きな特徴がある。それにより前記ファーストプレイタイトルFRPLTT以外の任意のタイトル再生開始時に前記プレイリストアソシエーティドアドバンストアプリケーションPLAPLの表示・実行を開始できる。図73(a)の実施形態では前記ファーストプレイタイトルFRPLTTの再生時にはプライマリーエンハンストビデオオブジェクトデータP-EVOB#1が再生される。その期間が前記プレイリストアプリケーションリソースPLAPRSのローディング時間LOADPEとなる。その結果、前記ファーストプレイタイトルFRPLTTの再生終了時間(タイトルタイムラインTMLE上での時間“T0”)においてファイルキャッシュFLCCH内に前記プレイリストアプリケーションリソースPLAPRSが保存完了された状態となる。その結果、タイトル#1の再生開始時間にはプライマリーエンハンストビデオオブジェクトデータP-EVOB#1と同時にプレイリストアソシエーティドアドバンストアプリケーションPLAPLの再生が可能となる。前記ファイルキャッシュFLCCH内に保存されるプレイリストアプリケーションリソースPLAPRS(図73(b))の獲得経路は図73に示すように経路A及び経路B、経路Cの複数存在する。本実施形態における経路AではファーストプレイタイトルFRPLTTの再生に利用されるプライマリーエンハンストビデオオブジェクトP-EVOB #0 の中に前記プレイリストアプリケーションリソースPLAPRSがマルチプレクスされた形となる。すなわち図73(b)に示すプレイリストアプリケーションリソースPLAPRSはそれぞれ2048バイトのデータ毎に分割され、各2048バイト毎にアドバンストパックADV_PCK内にパッキングされる。前記アドバンストパックADV_PCKは他のメインオーディオパックAM_PCKやメインビデオパックVM_PCK、サブピクチャー(副映像)パックSP_PCKなどと多重化(マルチプレクス化)されてプライマリーエンハンストビデオオブジェクトデータP-EVOBを構成する。前記プレイリストアプリケーションエレメント情報PLAELE内で使用するプレイリストアプリケーションリソースPLAPRSは、図69(d)に示すようにプレイリストアプリケーションリソースエレメントPLRELEにより管理されている。前記プレイリストアプリケーションリソースエレメントPLRELE内には図69(d)に示すようにマルチプレクスト属性情報MLTPLXが存在する。図73(b)に示すプレイリストアプリケーションリソースPLAPRSの獲得経路が前述した経路Aを通るのか、後述するそれ以外の経路Bまたは経路Cを通るのかの識別が前記マルチプレクスト属性情報MLTPLXの値により可能となる。すなわち前記マルチプレクスト属性情報MLTPLXの値が“true”の場合には、図73に示すように対応したプレイリストアプリケーションリソースPLAPRSの獲得に経路Aを通る。前記マルチプレクスト属性情報MLTPLXの値が“true”の場合にはデータキャッシュ内にダウンロードされるデータ又はファイルの保存場所SRCDTCが図73(a)に示すファーストプレイタイトルFRPLTTを表示するプライマリーエンハンストビデオオブジェクトP-EVOB #0 の保存場所を示す事となる。この場合、ファーストプレイタイトルFRPLTTの管理情報を示し、図74(c)に示したファーストプレイタイトルエレメント情報FPTELE内にプライマリーオーディオビデオクリップエレメントPRAVCPが配置される。前記プレイリストアプリケーションエレメント情報PLAELE内に配置されたプライマリーオーディオビデオクリップエレメントPRAVCP内の図54(c)に示す参照すべき再生表示オブジェクトのインデックスインフォメーションファイル保存場所SRCTMP(src属性情報)には図73(a)に示すファーストプレイタイトルFRPLTTを表示するプライマリーエンハンストビデオオブジェクトデータP-EVOB #0 のタイムマップPTMAPの保存場所(パス)とファイル名が記述される。プライマリーオーディオビデオクリップエレメントPRAVCP内ではタイムマップPTMAPの保存場所(パス)とファイル名しか記述していないが、本実施形態ではそれに対応するプライマリーエンハンストビデオオブジェクトデータP-EVOB #0 ファイルの保存場所(パス)が前記タイムマップPTMAPの保存場所(パス)と一致しており、さらにプライマリーエンハンストビデオオブジェクトデータP-EVOB #0 ファイルのファイル名が前記タイムマップPTMAPと一致(但し拡張子は“.MAP”と“EVO”と異なる)しているので、プライマリーエンハンストビデオオブジェクトデータP-EVOB #0 ファイルへのアクセスが容易になっている。また図69(d)に示すプレイリストアプリケーションリソースエレメントPLRELE内のマルチプレクスト属性情報MLTPLXの値が“false”の場合には、図73に示す経路Aとは異なる経路(経路Bまたは経路C)を経由して前記プレイリストアプリケーションリソースPLAPRSをファイルキャッシュFLCCH内にローディングする事になる。すなわち経路Bでは前記プレイリストアプリケーションリソースファイルPLRSFLが情報記憶媒体DISC内に保存されており、前記ファーストプレイタイトルFRPLTTを表示するプライマリーエンハンストビデオオブジェクトP-EVOB #0 の再生と平行して前記情報記憶媒体DISCからデータ再生し、ファイルキャッシュFLCCH内に保存する事となる。また経路CではパーシステントストレージPRSTR内に前記プレイリストアプリケーションリソースファイルPLRSFLが保存されており、前記ファーストプレイタイトルFRPLTT再生時に平行してパーシステントストレージPRSTR内に保存されているプレイリストアプリケーションリソースファイルPLRSFLをファイルキャッシュFLCCH内にローディングする。もし、仮に前記プレイリストアプリケーションリソースファイルPLRSFLをネットワークサーバNTSRV内に保存した場合には、ダウンロード途中でネットワークトラブルが発生し、ファーストプレイタイトルFRPLTTの再生が終了するまでにファイルキャッシュFLCCH内へのローディングが終了出来ない危険性がある。従って本実施形態ではプレイリストアプリケーションリソースファイルPLRSFLの保存場所をネットワークサーバNTSRV以外とする事によりファーストプレイタイトルFRPLTT再生期間中でのローディング完了を保証している所に大きな特徴がある。このように前記プレイリストアプリケーションリソースエレメントPLRELE内にマルチプレクスト属性情報MLTPLXを配置(記述)しているところに大きな特徴がある。それにより、図36に示すプライマリービデオプレーヤPRMVP内のデマルチプレクサDEMUXの事前準備を行う事が出来、前記プレイリストアプリケーションリソースPLAPRSのローディング時間LOADPEの短縮化を図ることが可能となる。また更に本実施形態ではファーストプレイタイトルFRPLTTに対し、ビデオトラック数もオーディオトラック数も1トラックずつにする等多くの制約条件を設定し、より一層ファーストプレイタイトルFRPLTT再生期間中でのローディング終了を確実な物としている。
The first play title FRPLTT shown in FIG. 73 (a) represents the title that is first played back and displayed to the user. In the playlist PLLST, the first play title in the title information TTINFO is shown in FIG. 74 (c). Managed by element information FPTELE. Further, as shown in FIG. 70, the playlist associated advanced application PLAPL has an execution (display) time APACPE across a plurality of titles, and is displayed in any title except the first play title FRPLTT.・ It is possible to execute. A resource referred to (used) by the playlist associated advanced application PLAPL is called a playlist application resource PLAPRS. The main feature of this embodiment is that loading of the playlist application resource PLAPRS into the file cache FLCCH is completed when the first play title FRPLTT is played back. As a result, display / execution of the playlist associated advanced application PLAPL can be started at the start of playback of any title other than the first play title FRPLTT. In the embodiment of FIG. 73 (a), primary enhanced video object data P-
<ファーストプレイタイトル(FirstPlay Title)>
本実施形態においてファーストプレイタイトルエレメント情報FPTELEはタイトルセットエレメント(タイトル情報TTINFO)の内に存在する。すなわち図74(a)に示すように、プレイリストPLLST内には構造情報CONFGI、メディア属性情報MDATRI、及びタイトル情報TTINFOが存在し、図74(b)に示すように前記タイトル情報TTINFO内の最初の位置に前記ファーストプレイタイトルエレメント情報FPTELEが配置される構造となっている。前記ファーストプレイタイトルエレメント情報FPTELEにはファーストプレイタイトルFRPLTTに関する管理情報が記述されている。また図17に示すようにファーストプレイタイトルFRPLTTは特殊なタイトルとして位置づけられる。本実施形態において前記ファーストプレイタイトルエレメント情報FPTELEは以下の特徴を持っている。
<First Play Title>
In the present embodiment, the first play title element information FPTELE is present in the title set element (title information TTINFO). That is, as shown in FIG. 74 (a), structure information CONFGI, media attribute information MDATRI, and title information TTINFO exist in the playlist PLLST, and the first information in the title information TTINFO as shown in FIG. 74 (b). The first play title element information FPTELE is arranged at the position. In the first play title element information FPTELE, management information related to the first play title FRPLTT is described. As shown in FIG. 17, the first play title FRPLTT is positioned as a special title. In the present embodiment, the first play title element information FPTELE has the following characteristics.
− ファーストプレイタイトルFRPLTTが存在する場合には、タイトル#1の再生前に前記ファーストプレイタイトルFRPLTTが再生されなければならない。
-If the first play title FRPLTT exists, the first play title FRPLTT must be played before the
… すなわちタイトル#1の再生に先立って最初にファーストプレイタイトルFRPLTTを再生する事により、プレイリストアプリケーションリソースPLAPRSのダウンロードする時間を確保している。
In other words, the playback time of the playlist application resource PLAPRS is secured by playing the first play title FRPLTT first before playing the
− ファーストプレイタイトルFRPLTTは1以上のプライマリーオーディオビデオPRMAV、サブタイトルオーディオビデオのみから(どちらか一方でも可)構成されなければならない。 -The first play title FRPLTT must consist of at least one primary audio video PRMAV and only subtitle audio video (whichever is possible).
… このようにファーストプレイタイトルFRPLTTを構成する再生・表示オブジェクトの種類を限定する事により、ファーストプレイタイトルFRPLTT内にマルチプレクストされたアドバンストパックADV_PCKのローディング処理をしやすくしている。 As described above, by limiting the types of playback / display objects constituting the first play title FRPLTT, it is possible to facilitate the loading process of the advanced pack ADV_PCK multiplexed in the first play title FRPLTT.
− ファーストプレイタイトルFRPLTTは通常の再生速度によりタイトルタイムラインTMLE上での最初から終了位置まで再生し続けなければならない。 -The first play title FRPLTT must continue to play from the beginning to the end position on the title timeline TMLE at the normal playback speed.
… ファーストプレイタイトルFRPLTTを標準速度で全て再生する事により、プレイリストアプリケーションリソースPLAPRSのダウンロード時間を確保でき、他のタイトル内でプレイリストアソシエーティドアドバンストアプリケーションPLAPLの再生開始時間を短縮化する事が出来る。 … By playing all the first play titles FRPLTT at standard speed, download time of playlist application resource PLAPRS can be secured, and playback start time of playlist associated advanced application PLAPL within other titles can be shortened. I can do it.
− ファーストプレイタイトルFRPLTTの再生時においては、ビデオトラック番号1とオーディオトラック番号1のみ再生可能にする。
-When playing the first play title FRPLTT, only the
… このように、ビデオトラック数とオーディオトラック数を限定する事により、ファーストプレイタイトルFRPLTTを構成するプライマリーエンハンストビデオオブジェクトデータP-EVOB内のアドバンストパックADV_PCKからのダウンロードをしやすくしている。 As described above, by limiting the number of video tracks and the number of audio tracks, it is easy to download from the advanced pack ADV_PCK in the primary enhanced video object data P-EVOB constituting the first play title FRPLTT.
− プレイリストアプリケーションリソースPLAPRSはファーストプレイタイトルFRPLTTの再生中にロードする事が出来る。 -The playlist application resource PLAPRS can be loaded during playback of the first play title FRPLTT.
更に本実施形態においてはファーストプレイタイトルエレメント情報FPTELEに対し、以下の制約を満足しなければならない。 Furthermore, in this embodiment, the following restrictions must be satisfied for the first play title element information FPTELE.
− ファーストプレイタイトルエレメント情報FPTELEはプライマリーオーディオビデオクリップエレメントPRAVCP又はサブスティテュートオーディオビデオクリップエレメントSBAVCPのみを含む。 The first play title element information FPTELE includes only the primary audio video clip element PRAVCP or the substitute audio video clip element SBAVCP.
− サブスティテュートオーディオビデオクリップエレメントSBAVCPで規定されたデータソースDTSORCはファイルキャッシュFLCCH又はパーシステントストレージPRSTR内に保存されている。 The data source DTSORC defined by the substitute audio video clip element SBAVCP is stored in the file cache FLCCH or persistent storage PRSTR.
− ビデオトラック番号とオーディオトラック番号ADTKNMのみが設定可能であり、ビデオトラック番号とオーディオトラック番号ADTKNMはいずれも“1”に設定されなければならない。またファーストプレイタイトルFRPLTT内においてはサブタイトル、サブビデオ及びサブオーディオトラック番号は設定してはならない。 -Only the video track number and the audio track number ADTKNM can be set, and both the video track number and the audio track number ADTKNM must be set to "1". Also, subtitles, subvideos, and subaudio track numbers must not be set in the first play title FRPLTT.
− ファーストプレイタイトルエレメント情報FPTELE内には図24(b)に示すタイトル番号情報TTNUM、パレンタレベル情報(parentaLevel属性情報)、タイトルタイプ情報TTTYPE、アドバンストアプリケーションマネージャ内での処理クロックのアプリケーションチッククロックに対する減衰比TICKDB、選択属性:ユーザオペレーションの対応可否属性(selectable属性情報)、情報再生装置が表示するタイトル名情報、このタイトル終了後に表示されるべきタイトルの番号情報(onEnd属性情報)、及びタイトルに関する属性情報(description属性情報)の情報は記述されない。 -In the first play title element information FPTELE, the title number information TTNUM, parent level information (parentaLevel attribute information), title type information TTTYPE, and application tick clock of the processing clock in the advanced application manager shown in FIG. Attenuation ratio TICKDB, selection attribute: user operation supportability attribute (selectable attribute information), title name information displayed by the information reproducing apparatus, title number information to be displayed after the title ends (onEnd attribute information), and title Information of attribute information (description attribute information) is not described.
プレイリストアプリケーションリソースPLAPRSのローディング時間LOADPEとしてファーストプレイタイトルFRPLTTの再生時間を利用する事が出来る。図69(d)に示すプレイリストアプリケーションリソースエレメントPLRELE内のマルチプレクスト属性情報MLTPLXが“true”と設定されている場合には、図73(d)に示すようにプライマリーオーディオビデオPRMAV内のプライマリーエンハンストビデオオブジェクトデータP-EVOBからマルチプレクストされたアドバンストパックADV_PCKを抽出し、プレイリストアプリケーションリソースPLAPRSとしてファイルキャッシュFLCCH内にロードする事が出来る。 The playback time of the first play title FRPLTT can be used as the loading time LOADPE of the playlist application resource PLAPRS. When the multiplexed attribute information MLTPLX in the playlist application resource element PLRELE shown in FIG. 69 (d) is set to “true”, as shown in FIG. 73 (d), the primary enhanced in the primary audio video PRMAV The multiplexed advanced pack ADV_PCK can be extracted from the video object data P-EVOB and loaded into the file cache FLCCH as a playlist application resource PLAPRS.
<ファーストプレイタイトルエレメント(FirstPlayTitle Element)>
図74(c)に詳細構造を示すファーストプレイタイトルエレメント情報FPTELEはアドバンストコンテンツADVCTに対するファーストプレイタイトルFRPLTTの管理情報が記述されている。また前記ファーストプレイタイトルエレメント情報FPTELE内においてオブジェクトマッピングインフォメーションOBMAPIとエレメンタリーストリームに対するトラック番号設定(トラックナンバーアサイメントインフォメーション)も構成されている。すなわち図74(c)に示すようにファーストプレイタイトルエレメント情報FPTELE内にプライマリーオーディオビデオクリップエレメントPRAVCPとサブスティテュートオーディオビデオクリップエレメントSBAVCPが記述可能になっている。前記プライマリーオーディオビデオクリップエレメントPRAVCPとサブスティテュートオーディオビデオクリップエレメントSBAVCPの記述内容が前記オブジェクトマッピングインフォメーションOBMAPI(トラックナンバーアサイメントインフォメーションを含む)の一部を構成している。このようにファーストプレイタイトルエレメント情報FPTELEのコンテンツは表示・再生クリップエレメントのリスト(プライマリーオーディオビデオクリップエレメントPRAVCP、サブスティテュートオーディオビデオクリップエレメントSBAVCPのリスト)から構成されている。またファーストプレイタイトルFRPLTT内におけるサブスティテュートオーディオビデオクリップエレメントSBAVCPで使用されるデータソースDTSORCはファイルキャッシュFLCCH又はパーシステントストレージPRSTRのいずれかに保存されていなければならない。プライマリーオーディオビデオクリップエレメントPRAVCP又はサブスティテュートオーディオビデオクリップエレメントSBAVCPから構成される再生・表示クリップエレメントはエレメンタリーストリームのトラックナンバーアサイメントインフォメーション(トラック番号設定情報)を記載している。図74(c)においてタイトルタイムライン上でのタイトル全体の時間的な長さ情報TTDUR(titleDuration属性情報)は“HH:MM:SS:FF”のフォーマットで記述される。ファーストプレイタイトルFRPLTT内で表示される再生・表示オブジェクトの終了時間は図54(c)に示すようにプライマリーオーディオビデオクリップエレメントPRAVCP内のタイトルタイムライン上の終了時間TTEDTM(titleTimeEnd属性情報)及び図55(c)内で示されるようにサブスティテュートオーディオビデオクリップエレメントSBAVCP内のタイトルタイムライン上の終了時間TTEDTM(titleTimeEnd属性情報)で規定されるが、全ての前記タイトルタイムライン上の終了時間TTEDTMの値は前記タイトルタイムライン上でのタイトル全体の時間的な長さ情報TTDUR(titleDuration属性情報)の中で設定された値よりも小さな値で設定されなければならない。それによりファーストプレイタイトルFRPLTT内で各再生・表示オブジェクトを矛盾無く表示する事が可能となる。以下に、4:3TVモニタ上への許容表示モード情報SDDISP(alternative SDDisplay Mode属性情報)の説明を行う。前記4:3TVモニタ上への許容表示モード情報SDDISPはファーストプレイタイトルFRPLTT再生時における4:3TVモニタに表示する時の許容される表示モードを表している。前記の値が“Panscan Or Letterbox”と設定された場合には、4:3TVモニタに表示する時にパンスキャンとレターボックスのいずれも許可される。また前記の値が“Panscan”と設定された場合には、4:3TVモニタに表示される時にパンスキャンモードのみが許容される。更に前記の値として“Letterbox”と指定された場合には4:3TVモニタに表示する時にレターボックスのモードでしか表示が許されない。情報記録再生装置1は前記設定された許容ディスプレイモードに合わせて4:3TVモニタに強制的に画面出力しなければならない。本実施形態においては前記属性情報の記述を省く事が出来るが、その場合はデフォルト値である“Panscan Or Letterbox”が自動的に設定される。また、ファーストプレイタイトルエレメント内で使用される主な(基本的な)リソースの保存場所FPTXML(xml:base属性情報)は前記ファーストプレイタイトルエレメント情報FPTELE内においてURI(ユニフォーム・リソース・アイデンティファイヤー)により記述される。
<First PlayTitle Element>
The first play title element information FPTELE showing the detailed structure in FIG. 74 (c) describes management information of the first play title FRPLTT for the advanced content ADVCT. In addition, object mapping information OBMAPI and track number setting (track number assignment information) for the elementary stream are configured in the first play title element information FPTELE. That is, as shown in FIG. 74 (c), the primary audio video clip element PRAVCP and the substitute audio video clip element SBAVCP can be described in the first play title element information FPTELE. The description contents of the primary audio video clip element PRAVCP and the substitute audio video clip element SBAVCP constitute a part of the object mapping information OBMAPI (including track number assignment information). Thus, the content of the first play title element information FPTELE is composed of a list of display / reproduction clip elements (primary audio video clip element PRAVCP, substitute audio video clip element SBAVCP list). The data source DTSORC used in the substitute audio video clip element SBAVCP in the first play title FRPLTT must be stored in either the file cache FLCCH or the persistent storage PRSTR. The playback / display clip element composed of the primary audio video clip element PRAVCP or the substitute audio video clip element SBAVCP describes track number assignment information (track number setting information) of the elementary stream. In FIG. 74 (c), the time length information TTDUR (titleDuration attribute information) of the entire title on the title timeline is described in the format “HH: MM: SS: FF”. As shown in FIG. 54 (c), the end time of the playback / display object displayed in the first play title FRPLTT is the end time TTEDTM (titleTimeEnd attribute information) on the title timeline in the primary audio video clip element PRAVCP and FIG. As shown in (c), the end time TTEDTM (titleTimeEnd attribute information) on the title timeline in the substitute audio video clip element SBAVCP is specified, but the value of the end time TTEDTM on all the title timelines. Must be set to a value smaller than the value set in the time length information TTDUR (titleDuration attribute information) of the entire title on the title timeline. This makes it possible to display each playback / display object without contradiction in the first play title FRPLTT. Hereinafter, allowable display mode information SDDISP (alternative SDDisplay Mode attribute information) on the 4: 3 TV monitor will be described. The allowable display mode information SDDISP on the 4: 3 TV monitor represents an allowable display mode when displaying on the 4: 3 TV monitor during the first play title FRPLTT playback. When the value is set to “Panscan Or Letterbox”, both pan scan and letterbox are allowed when displaying on a 4: 3 TV monitor. If the value is set to “Panscan”, only the pan scan mode is allowed when displayed on the 4: 3 TV monitor. Furthermore, when “Letterbox” is specified as the value, display is allowed only in the letterbox mode when displaying on a 4: 3 TV monitor. The information recording / reproducing
図75(a)に示すようにプレイリストPLLST内には構造情報CONFGI、メディア属性情報MDATRI、及びタイトル情報TTINFOが存在する。図75(b)に示すように前記タイトル情報TTINFO内はファーストプレイタイトルエレメント情報FPTELEと1個以上のタイトルエレメント情報TTELEM、及びプレイリストアプリケーションエレメント情報PLAELEのリストから構成される。更に前記タイトルエレメント情報TTELEM内のデータ構造は図75(c)に示すようにオブジェクトマッピングインフォメーションOBMAPI(トラックナンバーアサイメントインフォメーションを含む)、リソースインフォメーションRESRCI、プレイバックシーケンスインフォメーションPLSQI、トラックナビゲーションインフォメーションTRNAVI、及びスケジュールドコントロールインフォメーションSCHECIの情報が記述されている。図75(c)に示す前記スケジュールドコントロールインフォメーションSCHECIについて以下に説明を行う。 As shown in FIG. 75 (a), there is structure information CONFGI, media attribute information MDATRI, and title information TTINFO in the playlist PLLST. As shown in FIG. 75 (b), the title information TTINFO includes a list of first play title element information FPTELE, one or more title element information TTELEM, and playlist application element information PLAELE. Further, the data structure in the title element information TTELEM includes object mapping information OBMAPI (including track number assignment information), resource information RESRCI, playback sequence information PLSQI, track navigation information TRNAVI, as shown in FIG. 75 (c). Information on scheduled control information SCHECI is described. The scheduled control information SCHECI shown in FIG. 75 (c) will be described below.
<スケジュールドコントロールリスト及びスケジュールドコントロール(ScheduledControlList and Scheduled Control)>
前記スケジュールドコントロールインフォメーションSCHECIはスケジュールドコントロールリストエレメントから構成される。前記スケジュールドコントロールリストエレメントはタイトル再生時における下記のスケジューリングされた制御についての管理情報が記述されている。
<Scheduled Control List and Scheduled Control>
The scheduled control information SCHECI is composed of scheduled control list elements. In the scheduled control list element, management information on the following scheduled control at the time of title reproduction is described.
− タイトルタイムラインTMLE上における指定された時間でのスケジュールで予定されたポーズ(一時停止処理)
− 指定された時間におけるアドバンストアプリケーションADAPLに対するイベント実行処理
スケジュールドコントロールリストエレメントで構成されるスケジュールドコントロールインフォメーションSCHECIは、図75(d)に示すようにポーズアットエレメントPAUSELとイベントエレメントEVNTELのリストで構成されている。前記スケジュールドコントロールリストエレメント内に記述され、タイトルタイムラインTMLEに基づき時間設定されるポーズアットエレメントPAUSELとイベントエレメントEVNTELの配置場所は、各ポーズアットエレメントPAUSELとイベントエレメントEVNTELで指定するタイトルタイムライン上の指定位置(時間)情報TTTIMEの進行に沿った順番に合わせて、前記スケジュールドコントロールリストエレメント内の最初の方(前の方)から順次配置される。すなわち前記スケジュールドコントロールリストエレメント内において前の方から順次記述されるポーズアットエレメントPAUSELとイベントエレメントEVNTELが指定するタイトルタイムライン上の指定位置(時間)情報TTTIMEの値は、配列順に合わせて順次時間経過が増加する格好となる。このようにスケジュールドコントロールリストエレメント内においてタイトルタイムラインTMLEの時間進行に沿ってポーズアットエレメントPAUSELとイベントエレメントEVNTELを順番に配置されていると、図28に示すナビゲーションマネージャNVMNG内のプレイリストマネージャPLMNGは前記スケジュールドコントロールリストエレメント内に記述された各エレメントを配列順に実行処理するだけでタイトルタイムラインTMLEの時間進行に沿った実行処理が行える。その結果、前記プレイリストマネージャPLMNGのスケジュール管理処理が非常に容易となる。スケジュールドコントロールリストエレメント内において異なるポーズアットエレメントPAUSEL又は異なるイベントエレメントEVNTEL間で指定するタイトルタイムライン上の指定位置(時間)情報TTTIMEは互いに重複してはならない。また同時に、ポーズアットエレメントPAUSELで指定するタイトルタイムライン上の指定位置(時間)情報TTTIMEとイベントエレメントEVNTELで指定するタイトルタイムライン上の指定位置(時間)情報TTTIMEは互いに重複してはならない。なぜなら例えば図75(d)の記述例においてポーズアットエレメントPAUSEL#1が指定するタイトルタイムライン上の指定位置(時間)情報TTTIMEとイベントエレメントEVNTEL#1が指定するタイトルタイムライン上の指定位置(時間)情報TTTIMEの値が一致した場合には、図28に示すプレイリストマネージャPLMNGがポーズアット(一時停止)処理とアドバンストアプリケーションADAPLに対するイベント実行処理のいずれを選択したら良いかわからなくなり、前記プレイリストマネージャPLMNGの処理に破綻が生じる。
-Scheduled pauses in the schedule at the specified time on the title timeline TMLE (pause processing)
-Event execution processing for advanced application ADAPL at specified time Scheduled control information SCHECI composed of scheduled control list elements consists of a list of pause-at elements PAUSEL and event elements EVNTEL as shown in Fig. 75 (d). Has been. The placement location of the pause at element PAUSEL and event element EVNTEL described in the scheduled control list element and set in time based on the title timeline TMLE is on the title timeline specified by each pause at element PAUSEL and event element EVNTEL. The designated position (time) information TTTIME is arranged in order from the first (previous) in the scheduled control list element in the order along the progress of the TTTIME. In other words, the value of the specified position (time) information TTTIME on the title timeline specified by the pause at element PAUSEL and the event element EVNTEL described in order from the front in the scheduled control list element is the time in accordance with the arrangement order. The course is going to increase. In this way, when the pause-at element PAUSEL and the event element EVNTEL are arranged in order along the time progress of the title timeline TMLE in the scheduled control list element, the playlist manager PLMNG in the navigation manager NVMNG shown in FIG. The execution process according to the time progress of the title timeline TMLE can be performed only by executing the elements described in the scheduled control list element in the order of arrangement. As a result, the schedule management process of the playlist manager PLMNG becomes very easy. The designated position (time) information TTTIME designated on the title timeline between different pause at elements PAUSEL or different event elements EVNTEL in the scheduled control list element must not overlap each other. At the same time, the specified position (time) information TTTIME on the title timeline specified by the pause at element PAUSEL and the specified position (time) information TTTIME on the title timeline specified by the event element EVNTEL must not overlap each other. For example, in the description example of FIG. 75 (d), the specified position (time) information TTTIME on the title timeline specified by the pause at
本実施形態においてアドバンストアプリケーションADAPLの実行中(再生中)にスクリプトSCRPTを起動させて複雑な処理をさせる場合がある。例えばユーザがアドバンストアプリケーションADAPLの実行を指示すると、特定時間が経過した後に初めて実際の実行を開始するように前記スクリプトSCRPTの遅延時間を設定する事ができる。従って前記イベントエレメントEVNTEL内のタイトルタイムライン上の指定位置(時間)情報TTTIMEで設定された時間よりも遅れて前記アドバンストアプリケーションADAPLがイベントを実行開始しても良い。 In this embodiment, the script SCRPT may be activated during execution (reproduction) of the advanced application ADAPL to perform complicated processing. For example, when the user instructs execution of the advanced application ADAPL, the delay time of the script SCRPT can be set so that actual execution is started only after a specific time has elapsed. Therefore, the advanced application ADAPL may start executing the event later than the time set by the designated position (time) information TTTIME on the title timeline in the event element EVNTEL.
<スケジュールドコントロールエレメント(ScheduledControlList Element)>
前記スケジュールドコントロールインフォメーションSCHECIはタイトル再生におけるスケジューリングされたポーズ(一時停止)処理とイベント実行のタイミングを定義している。また前記スケジュールドコントロールインフォメーションSCHECIの内容を記述したスケジュールドコントロールリストエレメントはポーズアットエレメントPAUSEL又はイベントエレメントEVNTELのリストから構成されている。前記ポーズアットエレメントPAUSELはタイトル再生時におけるポーズ(一時停止)処理の時間が記述されており、前記イベントエレメントEVNTELはタイトル再生時におけるイベント実行開始時間が記述されている。
<Scheduled Control List Element>
The scheduled control information SCHECI defines scheduled pause (pause) processing and event execution timing in title reproduction. The scheduled control list element describing the contents of the scheduled control information SCHECI is composed of a list of pause at elements PAUSEL or event elements EVNTEL. The pause at element PAUSEL describes a pause (pause) processing time during title reproduction, and the event element EVNTEL describes an event execution start time during title reproduction.
<ポーズアットエレメント(Pauseat Element)>
図75(e)に前記ポーズアットエレメントPAUSEL内のデータ構造を示す。前記ポーズアットエレメントPAUSEL内にはポーズアットエレメントのID情報PAUSID(id属性情報)が存在し、図82に示すようにAPIコマンドによる前記ポーズアットエレメントPAUSELの指定が容易となる。また前記ポーズアットエレメントPAUSELにはタイトルタイムライン上の指定位置(時間)情報TTTIME(titleTime属性情報)が含まれている。前記タイトルタイムライン上の指定位置(時間)情報TTTIME(titleTime属性情報)はタイトルタイムラインTMLE上におけるポーズ(一時停止)処理場所を示している。前記の値は“HH:MM:SS:FF”(時間:分:秒:フレーム数(カウント値))のフォーマットで記述される。本実施形態においてプライマリービデオセットPRMVS及びセカンダリービデオセットSCDVSに属する再生表示オブジェクトは図53に示すように対応するクリップエレメント内でタイトルタイムライン上の開始時間TTSTTM(titleTimeBegin)とエンハンストビデオオブジェクトデータEVOB上の開始位置VBSTTM(clipTimeBegin)の時間タイミングが一致している。従って前記情報に基づき、タイトルタイムラインTMLE上の時間とプライマリーエンハンストビデオオブジェクトデータP-EVOBないしはセカンダリーエンハンストビデオオブジェクトデータS-EVOB内のビデオストリーム上で設定されるプレゼンテーションスタートタイム(プレゼンテーションタイムスタンプ値)PTSとの間の関係(対応)が導かれる。その結果、図75(e)に指定されたタイトルタイムライン上の指定位置(時間)情報TTTIME(titleTime)で指定されたポーズ(一時停止)位置が前記再生表示オブジェクト(エンハンストビデオオブジェクトEVOB)の有効期間VALPRD内に指定された場合には、前記ポーズ位置がプライマリーエンハンストビデオオブジェクトデータP-EVOB(またはセカンダリーエンハンストビデオオブジェクトデータS-EVOB)内におけるビデオストリームのプレゼンテーションスタートタイム(プレゼンテーションタイムスタンプ値)PTSの対応した値に関連付けられる。前記の関連を利用し、図28に示すナビゲーションマネージャNVMNGのプレイリストマネージャPLMNGがポーズアットエレメントPAUSEL内のタイトルタイムライン上の指定位置(時間)情報TTTIME(titleTime属性情報)の値から前記プレゼンテーションスタートタイム(プレゼンテーションタイムスタンプ値)PTSの値に換算し、その換算した結果を前記プレイリストマネージャPLMNGが図30に示すプレゼンテーションエンジンPRSENへ転送できる。その結果、図30に示すデコーダーエンジンDCDENは前記プレゼンテーションスタートタイム(プレゼンテーションタイムスタンプ値)PTSを用いたデコード処理が行えるので、デコーダーエンジンDCDENの対応処理が容易となる。
<Pauseat Element>
FIG. 75 (e) shows a data structure in the pause at element PAUSEL. In the pause at element PAUSEL, there is pause at element ID information PAUSID (id attribute information), and the pause at element PAUSEL can be easily specified by an API command as shown in FIG. The pause at element PAUSEL includes designated position (time) information TTTIME (titleTime attribute information) on the title timeline. The specified position (time) information TTTIME (titleTime attribute information) on the title timeline indicates a pause (pause) processing place on the title timeline TMLE. The value is described in a format of “HH: MM: SS: FF” (hour: minute: second: number of frames (count value)). In this embodiment, the playback display objects belonging to the primary video set PRMVS and the secondary video set SCDVS are on the title timeline start time TTSTTM (titleTimeBegin) and the enhanced video object data EVOB in the corresponding clip element as shown in FIG. The timing of the start position VBSTTM (clipTimeBegin) matches. Therefore, based on the above information, the time on the title timeline TMLE and the presentation start time (presentation time stamp value) PTS set on the video stream in the primary enhanced video object data P-EVOB or the secondary enhanced video object data S-EVOB The relationship (correspondence) between is derived. As a result, the pause (pause) position specified by the specified position (time) information TTTIME (titleTime) on the title timeline specified in FIG. 75 (e) is valid for the playback display object (enhanced video object EVOB). When specified within the period VALPD, the pause position is the video stream presentation start time (presentation time stamp value) PTS in the primary enhanced video object data P-EVOB (or secondary enhanced video object data S-EVOB). Associated with the corresponding value. Using the above relationship, the playlist manager PLMNG of the navigation manager NVMNG shown in FIG. 28 determines the presentation start time from the value of the specified position (time) information TTTIME (titleTime attribute information) on the title timeline in the pause at element PAUSEL. (Presentation time stamp value) Converted into a PTS value, the playlist manager PLMNG can transfer the converted result to the presentation engine PRSEN shown in FIG. As a result, the decoder engine DCDEN shown in FIG. 30 can perform the decoding process using the presentation start time (presentation time stamp value) PTS, and the corresponding process of the decoder engine DCDEN becomes easy.
<イベントエレメント(Event Element)>
次に図75(f)に示すイベントエレメントEVNTEL内のデータ構造の説明を行う。前記イベントエレメントEVNTELでもイベントエレメントのID情報EVNTID(id属性情報)がイベントエレメントEVNTELタグ内の最初に記述されており、図82に示すようにAPIコマンドによる前記イベントエレメントEVNTELの参照が容易な形となっている。イベントエレメントEVNTEL内のタイトルタイムライン上の指定位置(時間)情報TTTIME(titleTime属性情報)は、図28に示すナビゲーションマネージャNVMNG内のプレイリストマネージャPLMNGがプレイリストマネージャイベント(Describes the time on Title Timeline, at which PlaylistManager fires the PlaylistManagerEvent)を実行する時のタイトルタイムラインTMLE上の時間を示している。この値は“HH:MM:SS:FF”(時間:分:秒:フレーム数)のフォーマットで設定する。
<Event Element>
Next, the data structure in the event element EVNTEL shown in FIG. 75 (f) will be described. Even in the event element EVNTEL, event element ID information EVNTID (id attribute information) is described first in the event element EVNTEL tag, and the event element EVNTEL can be easily referred to by an API command as shown in FIG. It has become. The designated position (time) information TTTIME (titleTime attribute information) on the title timeline in the event element EVNTEL is displayed by the playlist manager PLMNG in the navigation manager NVMNG shown in FIG. 28 by the playlist manager event (Describes the time on Title Timeline, at which PlaylistManager fires the PlaylistManagerEvent) shows the time on the title timeline TMLE. This value is set in the format “HH: MM: SS: FF” (hour: minute: second: number of frames).
図75(e)に示すデータ構造を有するポーズアットエレメントPAUSELの機能及び使用例について、図76を用いて説明をする。本実施形態において図75(d)に示すスケジュールドコントロールインフォメーションSCHECIが存在しない場合、ユーザに表示している例えばプライマリーエンハンストビデオオブジェクトデータP-EVOBなどの再生表示オブジェクトに対するタイトルタイムラインTMLE上での時間進行を停止しようとした場合、APIコマンドでポーズ(一時停止)をしようとしても前記APIコマンド処理時の遅延時間が発生し、フレーム(フィールド)単位での精度の良い一時停止位置を指定する事が難しい。それに対し、本実施形態において前記スケジュールドコントロールインフォメーションSCHECIを設定し、ポーズアットエレメントPAUSELを設定する事により動画像のフィールド(フレーム)単位での正確なポーズ(一時停止)位置の指定が出来るようになる。またアドバンストサブタイトルADSBTやアドバンストアプリケーションADAPL、プレイリストアソシエーティドアドバンストアプリケーションPLAPL、タイトルアソシエーティドアドバンストアプリケーションTTAPLの表示タイミングに対しては一般的にチッククロック(ページクロック、アプリケーションクロック)を使用する場合が多い。この場合タイトルタイムラインTMLEの進行に対応したメディアクロックとは独自に動くので、前記アプリケーションからタイトルタイムラインTMLEに対する一時停止指示設定がし辛いという問題点があった。それに対し、前記スケジュールドコントロールインフォメーションSCHECI内のポーズアットエレメントPAUSELを設定する事により前記アプリケーションとタイトルタイムラインTMLE間の表示タイミングの同期を取る事も出来る。前記ポーズアットエレメントを用いた使用例を図76(a)に示す。例えば、図76(a)におけるタイトルタイムラインTMLE上の時間“T0”において図76(b)に示すように、プライマリービデオセットPRMVS内のメインビデオMANVDが本編31として画面に表示されている場合を考える。コンテンツプロバイダが前記本編31内での特定フレーム(特定フィールド)の部分で本編31の表示を一時停止し(静止画状態とし)、その一時停止された画面の説明をアニメーションを用いて解説しようとする事がある。この場合には、タイトルタイムラインTMLE上で時間“T1”において本編31を一時停止させて静止状態とし、それと平行して図76(c)に示すように解説用のアニメーションANIM #1 を表示させ、前記本編31は静止状態のまま、前記映像解説用アニメーションANIM #1 話をさせて前記静止状態のメインビデオMANVDのフレーム内容の解説をさせる事が出来る。また更に図76(a)に示すように時間“T2”と時間“T3”でも同様に一時的に本編31を停止させ(静止状態とし)、動画解説用アニメーションANIM #2、#3 を動かして音声による解説をさせるような事も出来る。それを可能とするタイトルタイムラインTMLE上のマッピング方法としては、図76(a)のような方法を取る事が出来る。すなわちタイトルタイムラインTMLEの進行に合わせてプライマリービデオセットPRMVSの画面をプライマリーエンハンストビデオオブジェクトデータP-EVOBにより表示させ、タイトルタイムラインTMLE上の時間“T1”よりもほんの僅かに先行する時間“T1−ΔT”の段階で、アドバンストアプリケーションADAPLを起動(実行開始)し、前記アドバンストアプリケーションADAPL #1 内のマークアップMRKUPによりプライマリーエンハンストビデオオブジェクトデータP-EVOBの映像解説用アニメーションANIM #1 を表示する。前記映像解説用アニメーションANIM#1の再生表示が完了するとスクリプトSCRPTが動き出し、タイトルタイムラインTMLE上での時間進行を一時停止からノーマル再生に切り替えさせるAPIコマンドNPLCMDを発行させる。それによりタイトルタイムラインTMLEの時間進行がノーマル再生に戻り、通常通りの時間進行(カウントアップ)が再開される。また同様にアドバンストアプリケーションADAPL #2 に対しても時間“T2−ΔTt”のところで起動(実行開始)させる。映像解説用アニメーションANIN #2 の再生表示が終了直後にスクリプトSCRPTが動き出し、タイトルタイムラインTMLEがノーマル再生になるようなAPIコマンドNPLCMDを発行させ、再びタイトルタイムラインTMLEの時間進行を再開される。
The function and usage example of the pause at element PAUSEL having the data structure shown in FIG. 75 (e) will be described with reference to FIG. In the present embodiment, when the scheduled control information SCHECI shown in FIG. 75 (d) does not exist, the time on the title timeline TMLE for the playback display object such as the primary enhanced video object data P-EVOB displayed to the user If you try to stop the progress, even if you try to pause (pause) with an API command, there will be a delay time when processing the API command, and it is possible to specify a precise pause position in frame (field) units. difficult. On the other hand, in this embodiment, by setting the scheduled control information SCHECI and setting the pause at element PAUSEL, it is possible to specify the exact pause (pause) position in the field (frame) unit of the moving image. Become. Also, the tick clock (page clock, application clock) is generally used for the display timing of the advanced subtitle ADSBT, advanced application ADAPL, playlist associated advanced application PLAPL, and title associated advanced application TTAPL. . In this case, since the media clock corresponding to the progress of the title timeline TMLE moves independently, there is a problem that it is difficult to set a pause instruction for the title timeline TMLE from the application. On the other hand, the display timing can be synchronized between the application and the title timeline TMLE by setting the pause at element PAUSEL in the scheduled control information SCHECI. FIG. 76 (a) shows a usage example using the pause-at element. For example, when the main video MANVD in the primary video set PRMVS is displayed on the screen as the
図75(f)に示した構造を有するイベントエレメントEVNTELの機能の特徴と具体的な使用例を図77に示す。前記イベントエレメントEVNTELの基本的な特徴は図76(d)に示したポーズアットエレメント機能の特徴と同様、スケジュールドコントロールインフォメーションSCHECI内のイベントエレメントEVNTELにより各種アプリケーションを駆動するチッククロックとタイトルタイムラインTMLEとの間の同期を取る事と、APIコマンド処理時の遅延によるタイミングずれの対策として動画のフレーム(フィールド)単位での精度でイベント開始時間設定が出来る所に有る。本実施形態において図16に示すように、字幕やテロップ文字39をアドバンストサブタイトルADSBTを用いて表示させる事が出来る。アドバンストサブタイトルADSBTを用いて前記字幕やテロップ文字39を表示させる方法として、前記アドバンストサブタイトルのマークアップMRKUPSを用いて表現する事が出来る。しかし、本実施形態の他の応用例として図77に示すイベントエレメントEVNTELを用いて字幕を表示する事により、よりフレキシブルな字幕の表示を行う事が出来る。具体的な字幕を行う場合のタイトルタイムラインTMLE上でのマッピング方法を図77(a)に示す。プライマリービデオセットPRMVSを表示するプライマリーエンハンストビデオオブジェクトデータP-EVOBのタイトルタイムラインTMLE上での表示進行に平行してアドバンストサブタイトルADSBTを配置し、各イベント実行タイミングEVNTPTに合わせてアドバンストサブタイトルADSBTの表示開始(切り替え)を行う。すなわちタイトルタイムラインTMLE上での時間“T1”から“T2”の期間中にアドバンストサブタイトルADSBT #1 を字幕として表示し、次にタイトルタイムラインTMLE上での時間“T2”から“T3”の期間内にアドバンストサブタイトルADSBT #2 を字幕として表示させる。図77(c)に本実施形態におけるアドバンストサブタイトルのフォントファイルFONTS内のデータ構造を示す。前記ファイル内の先頭位置にアドバンストサブタイトル一般情報SBT_GI が存在し、その中にはフォントファイルのID情報FTFLIDとフォントの言語属性情報FTLANGと合計字幕行数情報FTLN_Nsが記録されている。各字幕サーチポインターFT_SRPT内には各字幕情報の開始アドレスFTLN_SAが相対バイト数で記述されると共に各字幕情報のデータサイズFTLN_SZがバイト数で記述される。また字幕情報FONTDT内には各行毎の字幕情報FTLNDTが記述される。
FIG. 77 shows a feature of the event element EVNTEL having the structure shown in FIG. 75 (f) and a specific usage example. The basic characteristics of the event element EVNTEL are the same as the pause at element function shown in FIG. 76 (d), and the tick clock and title timeline TMLE that drive various applications by the event element EVNTEL in the scheduled control information SCHECI. There is a place where the event start time can be set with accuracy in units of frames (fields) of moving images as countermeasures against timing deviation due to delay in processing API commands. In this embodiment, as shown in FIG. 16, subtitles and
図78に図77の例に基づくタイトルタイムラインTMLEと同期してアドバンストサブタイトルADSBTの表示方法の説明したフローチャートを示す。前記のフローチャートはプレイリストマネージャPLMNG(図28参照)内で処理される。まず始めにアドバンストサブタイトルADSBTのフォントファイルFONTをファイルキャッシュFLCCH内に一時保存する(ステップS121)。その次に表示対象字幕の行数カウンターをi =“0”と初期設定する(ステップS122)。その後、アドバンストサブタイトルADSBTの有効期間VALPRD内にタイトルタイムラインTMLE上の時間が入っているか判断を行う(ステップS123)。アドバンストサブタイトルADSBTの有効期間VALPRD内にタイトルタイムラインTMLE上の時間が入っている場合には、タイトルタイムラインTMLEの時間がイベントエレメントEVNTELで指定された時間TTTIME(titleTime)に到達したかを判断する(ステップS126)。前記ステップS126においてタイトルタイムラインTMLEの時間がイベントエレメントEVNTELで指定された時間TTTIME(titleTime)に到達しなければ到達するまでずっと待ち続ける。そしてタイトルタイムラインTMLEの時間がイベントエレメントEVNTELで指定された時間TTTIME(titleTime)に到達した場合には、アドバンストサブタイトルプレーヤASBPL(図30参照)内に既に表示すべき字幕情報FTLNDTが入力されているかを判断し(ステップS127)、もし入力されていない場合にはステップS129へ飛ぶ。また入力されている場合には、表示すべき字幕情報FTLNDTをAVレンダラーAVRND(図30参照)に出力する(ステップS128)。次に行数カウンター“i”の値に従い、ファイルキャッシュFLCCH内に一時保存されたアドバンストサブタイトルのフォントファイルFONTS内の先頭からFTLN_SA #iだけずれた位置からFTLN_SA #iのサイズのデータを読み取り、アドバンストサブタイトルプレーヤASBPLへ転送する(ステップS129)。次に行数カウンター“i”の値を“1”だけインクリメントする(ステップS130)。その後、ステップS123に戻る。前記ステップS123においてアドバンストサブタイトルADSBTの有効期間VALPRDよりも外にタイトルタイムラインTMLE上の時間になっている場合には、タイトルタイムラインTMLE上の時間がアドバンストサブタイトルADSBTの有効期間VALPRDの後ろになっているかを判断し(ステップS124)、後ろになっていない場合には前記ステップS123に戻り、もし後ろになっている場合にはファイルキャッシュからのデータ削除FLCREM を実行する。(ステップS125)。 FIG. 78 shows a flowchart illustrating a method for displaying the advanced subtitle ADSBT in synchronization with the title timeline TMLE based on the example of FIG. The flowchart is processed in the playlist manager PLMNG (see FIG. 28). First, the font file FONT of the advanced subtitle ADSBT is temporarily stored in the file cache FLCCH (step S121). Next, the line number counter of the display target caption is initialized to i = “0” (step S122). After that, it is determined whether the time on the title timeline TMLE is within the valid period VAPRD of the advanced subtitle ADSBT (step S123). If the time on the title timeline TMLE is within the validity period VAPRD of the advanced subtitle ADSBT, it is determined whether the time on the title timeline TMLE has reached the time TTTIME (titleTime) specified by the event element EVNTEL (Step S126). If the time of the title timeline TMLE does not reach the time TTTIME (titleTime) designated by the event element EVNTEL in the step S126, it continues to wait until it reaches. If the time of the title timeline TMLE reaches the time TTTIME (titleTime) specified by the event element EVNTEL, is the subtitle information FTLNDT to be displayed already input in the advanced subtitle player ASBPL (see FIG. 30)? (Step S127), and if not inputted, the process jumps to step S129. If it is input, the subtitle information FTLNDT to be displayed is output to the AV renderer AVRND (see FIG. 30) (step S128). Next, according to the value of the line counter “i”, the size of FTLN_SA #i is read from the position that is shifted by FTLN_SA #i from the beginning in the font file FONTS of the advanced subtitle temporarily stored in the file cache FLCCH. Transfer to the subtitle player ASBPL (step S129). Next, the value of the row number counter “i” is incremented by “1” (step S130). Thereafter, the process returns to step S123. In step S123, if the time on the title timeline TMLE is outside the valid period VAPRD of the advanced subtitle ADSBT, the time on the title timeline TMLE is behind the valid period VAPRD of the advanced subtitle ADSBT. If it is not behind, the process returns to step S123, and if it is behind, data deletion FLCREM from the file cache is executed. (Step S125).
図79(a)に示すようにプレイリストPLLST内には構造情報CONFGI、メディア属性情報MDATRIとタイトル情報TTINFOが記述される構造になっている。図79(a)に示すメディア属性情報MDATRIは、図79(b)に示すようにオーディオデータの属性を表すオーディオアトリビュートアイテムエレメントAABITM、ビデオデータの属性情報を表すビデオアトリビュートアイテムエレメントVABITM、及びサブピクチャーデータ(副映像データ)の属性を表すサブピクチャーアトリビュートアイテムエレメントSPAITMが記録可能になっている。図79(b)に示した図では各データの属性情報についてそれぞれ1個ずつのアイテムエレメントが記述されているが、本実施形態においてはそれに限らず、プレイリストPLLST内で指定された各再生表示オブジェクトが持つ異なる属性情報毎に複数のアトリビュートアイテムエレメントを記述する。図59(c)から(g)に示すようにメインビデオエレメントMANVD、メインオーディオエレメントMANAD、サブタイトルエレメントSBTELE、サブビデオエレメントSUBVD、及びサブオーディオエレメントSUBADに関係する属性情報に対し、図79(a)に示すメディア属性情報MDATRI内の各アトリビュートアイテムエレメントを指定する事により、それぞれの属性情報の共有化が図れる。このようにプレイリストPLLST内で定義される各種再生表示オブジェクトの属性情報を前記メディア属性情報MDATRI内にまとめて記述し、タイトル情報TTINFO内のオブジェクトマッピングインフォメーションOBMAPI内から前記メディア属性情報MDATRI内の情報を参照(指定)する事により、タイトル情報TTINFO内のオブジェクトマッピングインフォメーションOBMAPI(トラックナンバーアサイメントインフォメーション含む)における共通なメディア属性情報に関する重複記述を避けられる。その結果、オブジェクトマッピングインフォメーションOBMAPI(トラックナンバーアサイメントインフォメーション)の記述データ量を減らし、プレイリストPLLST内に記載されるトータルの情報量を減らす事ができる。それにより、プレイリストマネージャPLMNG(図28参照)の処理の簡素化も図れる。 As shown in FIG. 79 (a), the playlist PLLST has a structure in which structure information CONFGI, media attribute information MDATRI, and title information TTINFO are described. 79A, the media attribute information MDATRI shown in FIG. 79A is an audio attribute item element AABITM representing an attribute of audio data, a video attribute item element VABITM representing an attribute information of video data, and a sub picture. A sub-picture attribute item element “SPAITM” representing an attribute of data (sub-picture data) can be recorded. In the diagram shown in FIG. 79 (b), one item element is described for each piece of attribute information of each data. However, this embodiment is not limited to this, and each playback display specified in the playlist PLLST is displayed. Describe multiple attribute item elements for each different attribute information of the object. As shown in FIGS. 59C to 59G, the attribute information related to the main video element MANVD, the main audio element MANAD, the subtitle element SBTELE, the sub video element SUBVD, and the sub audio element SUBAD is shown in FIG. By specifying each attribute item element in the media attribute information MDATRI shown in FIG. In this way, attribute information of various playback display objects defined in the playlist PLLST is described together in the media attribute information MDATRI, and the information in the media attribute information MDATRI from the object mapping information OBMAPI in the title information TTINFO. By referring to (specifying), it is possible to avoid duplicate descriptions regarding common media attribute information in the object mapping information OBMAPI (including track number assignment information) in the title information TTINFO. As a result, the amount of description data of the object mapping information OBMAPI (track number assignment information) can be reduced, and the total amount of information described in the playlist PLLST can be reduced. Thereby, the processing of the playlist manager PLMNG (see FIG. 28) can be simplified.
<メディアアトリビュートエレメント及びメディアアトリビュートインフォメーション(Media Attribute Element and Media Attribute Information)>
前記メディア属性情報MDATRIはアトリビュートアイテムエレメントと呼ばれる各エレメントのリストにより構成されている。前記メディアアトリビュートアイテムエレメントはオーディオデータの属性情報を示すオーディオアトリビュートアイテムエレメントAABITM、ビデオデータの属性情報を表すビデオアトリビュートアイテムエレメントVABITM、及びサブピクチャー(副映像)の属性情報を表すサブピクチャーアトリビュートアイテムエレメントSPAITMのいずれかに属する。また各メディアアトリビュートアイテムエレメントはエンハンストビデオオブジェクトデータEVOBを構成する各エレメンタリーストリームに関するメディア属性情報MDATRIを示しているとも言える。前記メディアアトリビュートアイテムエレメント内に記述が必須である属性情報はデータコード情報又は圧縮コード情報になっており、それ以外の属性情報については前記メディアアトリビュートアイテムエレメント内での記述を省く事が出来る。図12に示したエンハンストビデオオブジェクトインフォメーションEVOBI内、又はセカンダリービデオセットのタイムマップSTMAP内の属性情報記録領域内にはEVOB_VTS_ATR又はEVOB_ATRの情報が記述されている。前記メディアアトリビュートアイテムエレメント内の各属性情報の値は、前述したEVOB_VTS_ATR又はEVOB_ATR内で設定された情報内容と一致しなければならない。それにより図12に示すプレイリストPLLST内のメディア属性情報MDATRIとエンハンストビデオオブジェクトインフォメーションEVOBI内に記述されたメディア属性情報MDATRI、及びセカンダリービデオセットのタイムマップSTMAP内に記述されたメディア属性情報MDATRIとの間の関係に統一性が取れ、図14に示すアドバンストコンテンツ再生部ADVPL内のプレゼンテーションエンジンPRSENにおける再生・制御処理の安定性を確保する事が出来る。前述したように、トラックナンバーアサイメントインフォメーション(トラック番号設定情報)内のメインビデオエレメントMANVD、メインオーディオエレメントMANAD、サブタイトルエレメントSBTELE、サブビデオエレメントSUBVDとサブオーディオエレメントSUBADから図79(c)から(e)までの各メディアアトリビュートアイテムエレメントが参照(指定)される。前記の参照(指定)方法を以下に説明する。図79(c)から(e)に示すようにオーディオアトリビュートアイテムエレメントAABITM、及びビデオアトリビュートアイテムエレメントVABITM、サブピクチャーアトリビュートアイテムエレメントSPAIPMいずれのメディアアトリビュートアイテムエレメントにおいてもメディアインデックス番号情報INDEX(index属性情報)が存在する。また図59(c)から(g)に示すようにトラックナンバーアサイメントインフォメーション(オブジェクトマッピングインフォメーションOBMAPI)内のメインビデオエレメントMANVD、及びメインオーディオエレメントMANAD、サブタイトルエレメントSBTELE、サブビデオエレメントSUBVD、サブオーディオエレメントSUBAD内にはメディア属性情報内の対応したメディア属性エレメントのインデックス番号MDATNM(mediaAttr属性情報)の記述欄が共通に存在している。前記メディア属性情報内の対応したメディア属性エレメントのインデックス番号MDATNM(mediaAttr属性情報)により図79(c)から(e)に示すメディアインデックス番号情報INDEX(index属性情報)を指定し、対応したメディアアトリビュートアイテムエレメントを参照している。上記の対応付けを保証する条件として、メディア属性情報MDATRI(メディアアトリビュートリストエレメント)内の異なるメディア属性のタイプ(オーディオ属性、ビデオ属性、サブピクチャー属性の各タイプ)毎にそれぞれ独自に(重複せずに)メディアインデックス番号情報INDEX(index属性情報の値)が設定されなければならない。本実施形態においてはオーディオアトリビュートアイテムエレメントAABITM内のメディアインデックス番号情報INDEX(index属性情報の値)とビデオアトリビュートアイテムエレメントVABITM内のメディアインデックス番号情報INDEX(index属性情報の値)をどちらも同じ“1”の値に設定する事は出来る。また各メディアアトリビュートアイテムエレメント内で前記メディアインデックス番号情報INDEX(index属性情報)の記述を省く事が出来る。この場合にはデフォル値である“1”が自動的に設定される。
<Media Attribute Element and Media Attribute Information>
The media attribute information MDATRI is composed of a list of elements called attribute item elements. The media attribute item element is an audio attribute item element AABITM indicating attribute information of audio data, a video attribute item element VABITM indicating attribute information of video data, and a sub-picture attribute item element SPAITM indicating attribute information of a sub-picture (sub-picture) Belonging to either. It can also be said that each media attribute item element indicates media attribute information MDATRI related to each elementary stream constituting the enhanced video object data EVOB. The attribute information that must be described in the media attribute item element is data code information or compressed code information, and the description in the media attribute item element can be omitted for other attribute information. EVOB_VTS_ATR or EVOB_ATR information is described in the enhanced video object information EVOBI shown in FIG. 12 or the attribute information recording area in the time map STMAP of the secondary video set. The value of each attribute information in the media attribute item element must match the information content set in the EVOB_VTS_ATR or EVOB_ATR described above. Accordingly, the media attribute information MDATRI in the playlist PLLST shown in FIG. 12, the media attribute information MDATRI described in the enhanced video object information EVOBI, and the media attribute information MDATRI described in the time map STMAP of the secondary video set Therefore, it is possible to ensure the stability of the playback / control processing in the presentation engine PRSEN in the advanced content playback unit ADVPL shown in FIG. As described above, from the main video element MANVD, main audio element MANAD, subtitle element SBTELE, sub video element SUBVD and sub audio element SUBAD in the track number assignment information (track number setting information) from FIG. Each media attribute item element up to) is referenced (specified). The reference (designation) method will be described below. As shown in FIGS. 79 (c) to 79 (e), the media index number information INDEX (index attribute information) in any of the media attribute item elements of the audio attribute item element AABITM, the video attribute item element VABITM, and the sub-picture attribute item element SPAIPM. Exists. 59 (c) to 59 (g), main video element MANVD, main audio element MANAD, subtitle element SBTELE, sub video element SUBVD, sub audio element in track number assignment information (object mapping information OBMAPI) In SUBAD, there is a common description column for the index number MDATNM (mediaAttr attribute information) of the corresponding media attribute element in the media attribute information. 79. The media index number information INDEX (index attribute information) shown in FIGS. 79 (c) to 79 (e) is designated by the index number MDATNM (mediaAttr attribute information) of the corresponding media attribute element in the media attribute information, and the corresponding media attribute References an item element. As a condition for guaranteeing the above correspondence, each media attribute type (audio attribute, video attribute, sub-picture attribute type) in the media attribute information MDATRI (media attribute list element) is uniquely (no duplicate). ) Media index number information INDEX (value of index attribute information) must be set. In the present embodiment, the media index number information INDEX (index attribute information value) in the audio attribute item element AABITM and the media index number information INDEX (index attribute information value) in the video attribute item element VABITM are both the same “1”. It can be set to "". Further, the description of the media index number information INDEX (index attribute information) can be omitted in each media attribute item element. In this case, the default value “1” is automatically set.
<オーディオアトリビュートアイテムエレメント(AudioAttributeItem Element)>
以下に図79(c)に示すオーディオアトリビュートアイテムエレメントAABITM内のデータ構造の説明を行う。前記オーディオアトリビュートアイテムエレメントAABITMはメインオーディオストリームMANADとサブオーディオストリームSUBAD関する属性情報について記述されている。前述したように前記EVOB_VTS_ATR又はEVOB_ATRで設定された内容と前記オーディオアトリビュートアイテムエレメントAABITM内で記述される各属性情報の値は一致しなければならない。前述したようにメディアインデックス番号情報INDEX(index属性情報)は図59(d)及び(g)に示すようにメインオーディオエレメントMANADとサブオーディオエレメントSUBADから参照される。次にオーディオの圧縮コード情報ADCDC(codex)の値として、本実施形態では“LPCM(リニアPCM)”“DD+”“DTS-HD”“MLP”“MPEG”又は“AC-3”を選択する事が出来る。特に“AC-3”はインターオペラブルコンテンツに対してのみ使用される。またオーディオストリームのサンプル周波数ADSPRT(sampleRate属性情報)はオーディオストリームのサンプルレートを表し、前記属性情報の記載を省く事が出来る。更にサンプルデプス情報又は量子化ビット数SPDPT(sampleDepth属性情報)はサンプルデプス情報を表し、前記属性情報の記載を省く事が出来る。更に、オーディオチャンネル数情報ADCLN(channels属性情報)はオーディオチャンネル数を表し正数により値が記述される。前述したようにエンハンストビデオオブジェクトインフォメーションEVOBI内、もしくはセカンダリービデオセットのタイムマップ内の属性情報記録領域内に存在するEVOB_AMST_ATRTに設定された内容と前記オーディオチャンネル数情報ADCNL(channels属性情報)の値が一致しなければならない。もし、前記オーディオチャンネル数ADCNLが小数点以下の端数を持つ場合には前記属性情報の値として小数点以下を切り上げした正数で記述しなければならない。例えば、5.1チャンネルの場合には小数点以下を切り上げして前記オーディオチャネル数情報ADCNLの値としては“6”を設定する。また前記属性情報の記述を省く事も出来る。更にデータビットレート(データ転送レート)情報DTBTRTを示すBITRATE属性情報は前記オーディオアトリビュートアイテムエレメントAABITM内での記述を省いても良い。
<AudioAttributeItem Element>
The data structure in the audio attribute item element AABITM shown in FIG. 79 (c) will be described below. The audio attribute item element AABITM describes attribute information regarding the main audio stream MANAD and the sub audio stream SUBAD. As described above, the contents set in the EVOB_VTS_ATR or EVOB_ATR and the value of each attribute information described in the audio attribute item element AABITM must match. As described above, the media index number information INDEX (index attribute information) is referred to from the main audio element MANAD and the sub audio element SUBAD as shown in FIGS. 59 (d) and 59 (g). Next, in this embodiment, “LPCM (Linear PCM)”, “DD +”, “DTS-HD”, “MLP”, “MPEG”, or “AC-3” is selected as the value of audio compression code information ADCDC (codex). I can do it. In particular, “AC-3” is used only for interoperable content. The sample frequency ADSPRT (sampleRate attribute information) of the audio stream represents the sample rate of the audio stream, and the attribute information can be omitted. Further, the sample depth information or the number of quantization bits SPDPT (sampleDepth attribute information) represents the sample depth information, and the attribute information can be omitted. Furthermore, the audio channel number information ADCLN (channels attribute information) represents the number of audio channels and is described by a positive number. As described above, the content set in EVOB_AMST_ATRT existing in the attribute information recording area in the enhanced video object information EVOBI or in the time map of the secondary video set and the value of the audio channel number information ADCNL (channels attribute information) are the same. I must do it. If the audio channel number ADCNL has a fractional part, it must be described as a positive number obtained by rounding up the decimal point as the value of the attribute information. For example, in the case of 5.1 channels, the decimal part is rounded up and “6” is set as the value of the audio channel number information ADCNL. Also, the description of the attribute information can be omitted. Further, the BITRATE attribute information indicating the data bit rate (data transfer rate) information DTBTRT may be omitted from the description in the audio attribute item element AABITM.
<ビデオアトリビュートアイテムエレメント等(VideoAttributeItem Element and SampleAspectRatio refers to Shape of Encoded Samples or ”Pixels”)>
次に図79(d)に示すビデオアトリビュートアイテムエレメントVABITM内のデータ構造について説明を行う。前記ビデオアトリビュートアイテムエレメントVABITMはメインビデオストリームMANVDとサブビデオストリームSUBVDの属性情報について記述されている。前述したようにEVOB_VTS_ATR又はEVOB_ATR内で設定された内容とビデオアトリビュートアイテムエレメントVABITM内の各属性情報に設定される値が一致する必要が有る。前記ビデオアトリビュートアイテムエレメントVABITM内のメディアインデックス番号情報INDEX(index属性情報の値)は図59(c)又は(f)に記述されたメディア属性情報内の対応したメディア属性エレメントのインデックス番号MDATNM(mediaAttr属性情報の値)と一致し、メインビデオエレメントMANVD及びサブビデオエレメントSUBVDから参照(指定)される。次にビデオの圧縮コード情報VDCDCを表すコーデック属性情報の値としては“MPEG-2”“VC-1”“AVC”又は“MPEG-1”のいずれかを選択できる。前記MPEG-1はインターオペラブルコンテンツに対してのみ使用する。またアスペクト比情報ASPRT(sampleAspectRatio属性情報)はエンコードされユーザに表示される画面又はピクセルの形状(縦横比)を表している。前記アスペクト比情報ASPRTのとり得る値として、標準画面サイズ・画面形状を表す“4:3”又はワイド画面の形状を表す“16:9”のいずれかの値が設定される。前記ビデオアトリビュートアイテムエレメントVABITM内において前記アスペクト比情報ASPRTの記述を省く事が出来る。次の水平方向の解像度属性情報HZTRL(horizontalResolution属性情報)はエンコードされた映像の水平方向のサンプル数(画素数)を表している。前記値はデコードにより作成されうるピクセル数を表してはいない。その次に記述されている垂直方向の解像度属性情報VTCRL(verticalResolution属性情報)はエンコード後の映像の垂直方向のサンプル数(画素数)を表している。前記値はデコードの結果得られうるピクセル数を示しているわけではない。前記水平方向の解像度属性情報HZTRLと垂直方向の解像度属性情報VTCRLに関する情報記述を省く事が出来る。また、encodedFrameRate属性情報はユーザ表示時のフレームレート属性情報ENFRRTを表している。前記の情報はエンコードされたフレームレートであり、それはフレーム数により表現されフィールド数により表示されるものでは無い。例えば、NTSCにおけるインターレース表示モードでは1秒間に60フィールド存在し、それは30フレームに対応している。このようにインターレース表示モードの場合にはフィールド数とフレーム数が異なるが、前記ユーザ表示時のフレームレート属性情報ENFRRTではフィールド数では無くフレームにおけるフレームレートを表している。また前記ユーザ表示時のフレームレート属性情報ENFRRTの情報記述を省いても良い。次に記述されるソースフレームレート属性情報SOFRRT(sourceFrameRate属性情報)は取り込まれたソースコンテンツの“およそ”のフレームレートを示している。つまり映画館で表示される映像フィルムのソースフレームレートは“24”として表示されるが、実際のビデオレートは23.976Hzとなっている。またその映画館で表示される映像フィルムは29.970Hzでのリピートフィールドフラグによりエンコードされうる。本実施形態において、ソースフレームレート属性情報SOFRRTの値は前記23.976や29.970の値を記述せず、おおよそのフレームレートとして“24”や“30”の値で記述される。またこの情報の記述も省く事が出来る。本実施形態では図67及び図68に示すようにアドバンストコンテンツ再生部ADVPLが内蔵された情報記録再生装置1が置かれているネットワーク環境に対応したネットワークバンド幅に基づき、複数のネットワークソースの中から適正なネットワークソースを選択してネットワーク転送する事が出来る。各情報記録再生装置1が置かれているネットワーク環境(ネットワークバンド幅)に合わせて選択される異なった再生表示オブジェクトストリームを転送した場合のそれぞれのビットレート間の平均値に対する近似値をデータビットレート(データ転送レート)情報DTBTRT(bitrate属性情報)が表している。図67の例を示し前記(データビットレート情報DTBTRT(bitrate属性情報))の値についての説明を行う。プレイリストPLLST内のネットワークソースエレメントNTSELEには個々のネットワークスループットに対応したsrc属性情報(リソースの保存場所(パス)とファイル名)が記述されている。前記ネットワークソースエレメントNTSELEのリストを活用する事で個々のネットワーク環境におけるネットワークスループットに対応し最適なオブジェクトファイルを選択できる。例えば電話回線を用いたモデム通信の場合にはネットワークスループットとして56 Kbps しかネットワークスループットを得る事が出来ない。この場合には再生表示オブジェクトのストリームが記録されているファイルとしてS-EVOB_LD.EVOがネットワーク環境に最適なオブジェクトファイルになる。また光通信などを用いたネットワーク環境の場合にはネットワークスループットとして1Mbpsを保証する事が出来る。このようなネットワークスループットの高いネットワーク環境を持ったユーザに対しては高精細な映像情報を持っているE-EVOB_HD.EVOファイルのデータ転送が適切な形になる。このようにネットワーク環境によって選択される最適なソースファイルが異なり、この1Mbps と56Kbpsに対する平均値の近似値は (1000+56)÷2 = 528 ≒ 500 になるので、“500”の値が前記ソースフレームレート属性情報SOFRRT内に記述される。前記説明したようにソースフレームレート属性情報SOFRRTの値はKbit/sを単位とした数字で表される。ビデオアトリビュートアイテムエレメントVABITM内に記述されるactiveAreaX1属性情報からactiveAreaY2属性情報に至るアクティブエリア座標の情報はエンコード後ユーザに表示されるフレーム内におけるアクティブイメージエリアを示している。前記エンコードされユーザに表示されるフレームのアクティブイメージエリアはイメージにより埋められるものでは無く、例えば黒などの固定単色により埋められた領域を含んでいる。例えばテレビのワイド画面内に標準画面を表示した場合に、テレビのワイド画面の両サイドに黒帯が表示される事が有る。この例では標準画面(イメージ領域)では無く、両サイドの黒帯を含んだテレビのワイド画面に対応する領域が前記「エンコードされたユーザに表示されるフレームにおけるアクティブイメージ領域」を示している。前記アクティブイメージの四角い領域はフルスクリーンの表示座標(図40に示すカンバス座標CNVCRD)内における指定された領域として定義される。また前記の属性情報の表示を省く事も可能である。前記アクティブイメージ領域内において
ActiveAreaX1属性情報はアパーチャー内でのビデオ表示画面左上端位置のX座標値APARX1を表し、
ActiveAreaY1属性情報はアパーチャー内でのビデオ表示画面左上端位置のY座標値APARY1を表し、
ActiveAreaX2属性情報はアパーチャー内でのビデオ表示画面右下端位置のX座標値APARX2を表し、
ActiveAreaY2属性情報はアパーチャー内でのビデオ表示画面右下端位置のY座標値APARY2を表し
ている。前記属性情報に関する具体的なイメージについて図84(c)を用いて説明する。図84(c)に示す表示画面例においてプライマリービデオセットPRMVS内のメインビデオMANVDで構成される本編31の画面の左上端の座標位置が(Xp1,Yp1)で表され、前記本編31の右下端の座標位置が(Xp2,Yp2)で与えられているとする。図84(a)の記載例では、メディア属性情報MDATRI内のメディアインデックス番号情報INDEX(index属性情報)の値を“1”としたビデオアトリビュートアイテムエレメントVABITM内に前記の左上端と右下端の座標値を記載する(図84(c)との対応を破線βと破線γで示して有る)。また図84(c)に示すようにセカンダリービデオセットSCDVS内のサブビデオSUBVDの画面の左上端の座標を(Xs1,Ys1)で規定し、また右下端の位置の座標を(Xs2,Ys2)で指定されている場合を考える。図84(a)の記述例では、メディア属性情報MDATRI内においてメディアインデックス番号情報INDEX(index属性情報)の値を“2”に設定したビデオアトリビュートアイテムエレメントVABITM内に前記の座標値を記述する。図84(c)に指定された座標値と図84(a)に記述された座標値の対応を破線δと破線εにより示す。次に図84(a)に示したタイトル情報TTINFO内のタイトルエレメント情報TTELEM内に含まれるオブジェクトマッピングインフォメーションOBMAPI(トラックナンバーアサイメントインフォメーション)内においてプライマリーオーディオビデオクリップエレメントPRAVCP内のメインビデオエレメントMANVD内でメディア属性情報内の対応したメディア属性エレメントのインデックス番号MDATNM(mediaAttr属性情報)の値を“1”と設定する事により、一点鎖線ηで示した関係に対応してメディアインデックス番号情報INDEXの値が“1”のビデオアトリビュートアイテムエレメントVABITMと関係づけられる。その結果、プライマリーオーディオビデオクリップエレメントPRAVCP内に記述された前記メインビデオエレメントMANVDの表示画面領域が図84(c)に示す本編31の領域として設定される。また同様にセカンダリーオーディオビデオクリップエレメントSCAVCP内のサブビデオエレメントSUBVD内においてメディア属性情報内の対応したメディア属性エレメントのインデックス番号MDATNM(mediaAttr属性情報)の値を“2”に設定することにより、一点鎖線ζで対応を示したようにメディアインデックス番号情報INDEX(index属性情報の値)が“2”と設定されたビデオアトリビュートアイテムエレメントVABITMとリンクされる。その結果、前記セカンダリーオーディオビデオクリップエレメントSCAVCP内に記述されたサブビデオエレメントSUBVDの画面上の表示サイズが図84(c)に示すセカンダリービデオセットSCDVS内のサブビデオエレメントSUBVDの領域として設定される。
<VideoAttributeItem Element and SampleAspectRatio refers to Shape of Encoded Samples or “Pixels”>
Next, the data structure in the video attribute item element VABITM shown in FIG. 79 (d) will be described. The video attribute item element VABITM describes attribute information of the main video stream MANVD and the sub video stream SUBVD. As described above, the contents set in EVOB_VTS_ATR or EVOB_ATR need to match the values set in the attribute information in the video attribute item element VABITM. The media index number information INDEX (value of index attribute information) in the video attribute item element VABITM is the index number MDATNM (mediaAttr) of the corresponding media attribute element in the media attribute information described in FIG. 59 (c) or (f). The value of the attribute information) and is referenced (designated) from the main video element MANVD and the sub video element SUBVD. Next, “MPEG-2”, “VC-1”, “AVC”, or “MPEG-1” can be selected as the value of the codec attribute information representing the video compression code information VDCDC. The MPEG-1 is used only for interoperable content. The aspect ratio information ASPRT (sampleAspectRatio attribute information) represents the shape (aspect ratio) of the screen or pixel that is encoded and displayed to the user. As a value that the aspect ratio information ASPRT can take, either “4: 3” representing a standard screen size / shape or “16: 9” representing a wide screen shape is set. The description of the aspect ratio information ASPRT can be omitted in the video attribute item element VABITM. The next horizontal resolution attribute information HZTRL (horizontalResolution attribute information) represents the number of samples (number of pixels) in the horizontal direction of the encoded video. The value does not represent the number of pixels that can be created by decoding. Subsequent vertical resolution attribute information VTCRL (vertical Resolution attribute information) represents the number of samples (number of pixels) in the vertical direction of the encoded video. The value does not indicate the number of pixels that can be obtained as a result of decoding. It is possible to omit information description regarding the horizontal resolution attribute information HZTRL and the vertical resolution attribute information VTCRL. The encodedFrameRate attribute information represents frame rate attribute information ENFRRT at the time of user display. The information is an encoded frame rate, which is expressed by the number of frames and not displayed by the number of fields. For example, in interlaced display mode in NTSC, there are 60 fields per second, which corresponds to 30 frames. As described above, in the interlaced display mode, the number of fields and the number of frames are different, but the frame rate attribute information ENFRRT at the time of user display represents the frame rate in the frame, not the number of fields. The information description of the frame rate attribute information ENFRRT at the time of user display may be omitted. Source frame rate attribute information SOFRRT (sourceFrameRate attribute information) described next indicates an “approximate” frame rate of the captured source content. In other words, the source frame rate of the video film displayed in the movie theater is displayed as “24”, but the actual video rate is 23.976 Hz. Also, the video film displayed in the movie theater can be encoded by a repeat field flag at 29.970 Hz. In the present embodiment, the value of the source frame rate attribute information SOFRRT does not describe the value of 23.976 or 29.970, but is described as an approximate frame rate with a value of “24” or “30”. It is also possible to omit the description of this information. In this embodiment, as shown in FIGS. 67 and 68, based on the network bandwidth corresponding to the network environment in which the information recording / reproducing
ActiveAreaX1 attribute information represents the X coordinate value APARX1 of the upper left position of the video display screen in the aperture.
ActiveAreaY1 attribute information represents the Y coordinate value APARY1 of the upper left position of the video display screen in the aperture,
ActiveAreaX2 attribute information represents the X-coordinate value APARX2 at the lower right position of the video display screen in the aperture.
The ActiveAreaY2 attribute information represents the Y coordinate value APARY2 at the lower right position of the video display screen in the aperture. A specific image related to the attribute information will be described with reference to FIG. In the example of the display screen shown in FIG. 84 (c), the coordinate position of the upper left corner of the
<サブピクチャーアトリビュートアイテムエレメント(SubpictureAttributeItem Element)>
以下に図79(e)に示すサブピクチャーアトリビュートアイテムエレメントSPAITM内のデータ構造を示す。前記サブピクチャーアトリビュートアイテムエレメントSPAITMはサブピクチャーストリーム(副映像ストリームSUBPT)の属性情報を説明している。前記サブピクチャーアトリビュートアイテムエレメントSPAITM内に記述される各属性情報値は、前述したようにEVOB_VTS_ATR又はEVOB_ATR内に設定された内容と一致する必要が有る。サブピクチャーアトリビュートアイテムエレメントSPAITM内のメディアインデックス番号情報INDEX(index属性情報)は図59(e)内のトラック番号に対応した副映像パックの副映像ストリーム番号SPSTRN(streamNumber属性情報)により参照される。またサブピクチャーの圧縮コード情報SPCDC(codec属性情報)に設定される値としては“2bitRLC(ランレングス圧縮)”又は“8bitRLC(ランレングス圧縮)”のいずれかが設定される。
<SubpictureAttributeItem Element>
The data structure in the sub picture attribute item element SPATIM shown in FIG. 79 (e) is shown below. The sub picture attribute item element SPAITM describes attribute information of a sub picture stream (sub video stream SUBPT). Each attribute information value described in the sub-picture attribute item element SPAITM needs to match the contents set in EVOB_VTS_ATR or EVOB_ATR as described above. The media index number information INDEX (index attribute information) in the sub picture attribute item element SPAITM is referred to by the sub video stream number SPSTRN (streamNumber attribute information) of the sub video pack corresponding to the track number in FIG. 59 (e). Also, as a value set in the compression code information SPCDC (codec attribute information) of the sub picture, either “2 bit RLC (run length compression)” or “8 bit RLC (run length compression)” is set.
図80(a)に示すようにプレイリストファイルPLLSTは構造情報CONFGIを含む。前記構造情報CONFGIはシステム的な構造パラメータに関する情報が記載されている。 As shown in FIG. 80 (a), the playlist file PLLST includes structure information CONFGI. The structure information CONFGI describes information on systematic structure parameters.
<コンフィグレーションエレメント(Configuration Element)>
前記構造情報CONFGI内のデータ構造を図80(b)に示す。前記構造情報CONFGIはコンフィグレーションエレメントにより記述されている。前記コンフィグレーションエレメントはアドバンストコンテンツADVCTに関するシステム構造のセット情報により構成されている。また前記コンフィグレーションエレメントの中身はシステム情報に関する情報のリストから構成されている。前記システム構造に関するリストとしてはストリーミングバッファエレメントSTRBUF、アパーチャーエレメントAPTR、メインビデオデフォルトカラーエレメントMVDFCLとネットワークタイムアウトエレメントNTTMOTの各種エレメントから構成されている。
<Configuration Element>
The data structure in the structure information CONFGI is shown in FIG. The structure information CONFGI is described by a configuration element. The configuration element is composed of set information of a system structure related to advanced content ADVCT. The contents of the configuration element are composed of a list of information relating to system information. The list relating to the system structure includes various elements such as a streaming buffer element STRBUF, an aperture element APTR, a main video default color element MVDFCL, and a network timeout element NTTMOT.
図80(c)に前記ストリーミングバッファエレメントSTRBUF内のデータ構造を説明する。前記ストリーミングバッファエレメントSTRBUFはデータキャッシュDTCCH内におけるストリーミングバッファSTRBUFの必要とされるサイズ情報が記述されている。図25に示すようにネットワークサーバNTSRV内に保存されたセカンダリービデオセットSCDVSはアドバンストコンテンツ再生部ADVPLによりユーザに再生表示される前にデータキャッシュDTCCH内のストリーミングバッファSTRBUF内に一時保存される必要が有る。実際にアドバンストコンテンツ再生部ADVPLにより前記セカンダリービデオセットSCDVSを表示する場合には、ストリーミングバッファSTRBUF内に一時保存されているセカンダリービデオセットSCDVSを読み取り、セカンダリービデオプレーヤSCDVPに転送しながらユーザへの表示処理を行う。この時、図25に示すようにストリーミングバッファSTRBUFに一時保存される再生表示オブジェクトはセカンダリービデオセットSCDVSのみであり、他の多くの表示再生オブジェクトはデータキャッシュDTCCH内のファイルキャッシュFLCCH内に一時保存される。従ってコンテンツプロバイダが供給するアドバンストコンテンツADVCTの中にセカンダリービデオセットSCDVSが含まれない場合にはデータキャッシュDTCCH内にストリーミングバッファSTRBUF設定領域を設ける必要が無い。前記構造情報CONFGI内に前記ストリーミングバッファエレメントSTRBUFを配置する事で、ユーザへの表示前にネットワークサーバNTSRVから事前に転送されるセカンダリービデオセットSCDVSの保存(図25参照)のために必要なストリーミングバッファSTRBUFのメモリ領域サイズが分かるので、前記セカンダリービデオセットSCDVSの転送処理をスムーズに行う事ができる。このようにアドバンストコンテンツADVCTを作成する作成者(コンテンツプロバイダ)がアドバンストコンテンツ再生部ADVPLに対して要求するデータキャッシュDTCCH内に事前に設定が必要となるストリーミングバッファSTRBUFのメモリサイズが図80(c)に示す「予め設定が必要なストリーミングバッファサイズSTBFSZ(size属性情報)」になる。前記アドバンストコンテンツ再生部ADVPLは起動時のシーケンス処理中にデータキャッシュDTCCH内の構造(ストリーミングバッファSTRBUFに割り当てるメモリ空間)を変更する。前記データキャッシュDTCCH内の構造(ストリーミングバッファSTRBUFに割り当てるメモリ空間)の設定は図51のステップS62の処理の一部として行われる。前記「予め設定が必要なストリーミングバッファサイズSTBFSZ(size属性情報)」の値は“キロバイト(1024バイト)”の単位で記述される。例えばストリーミングバッファSTRBUFサイズとして1Mbとして設定する必要がある場合には、前記予め設定が必要なストリーミングバッファサイズSTBFSZ(size属性情報)の値として“1024”の値を設定する。前述したように前記の記述する値の単位が1024バイト単位になるのでトータルのストリーミングバッファSTRBUFサイズのバイト換算をすると1024×1024バイトの値となり、ほぼ1MBに等しい値になる。また前記「予め設定が必要なストリーミングバッファサイズSTBFSZ(size属性情報)」に記述する値は正数値で記載されなければならない(小数点以下は切り上げして表示する)。また前記の値は偶数に設定しなければならない。なぜならアドバンストコンテンツ再生部ADVPL内でのデータキャッシュDTCCHのメモリ空間の設定はビット(バイト)単位で処理を行う。従って前記ビット単位の処理に合わせて前記「予め設定が必要なストリーミングバッファサイズSTBFSZ」の値を偶数値にすることで、バイト単位で行うアドバンストコンテンツ再生部ADVPL内の処理をしやすくしている。 FIG. 80 (c) describes the data structure in the streaming buffer element STRBUF. The streaming buffer element STRBUF describes size information required for the streaming buffer STRBUF in the data cache DTCCH. As shown in FIG. 25, the secondary video set SCDVS stored in the network server NTSRV needs to be temporarily stored in the streaming buffer STRBUF in the data cache DTCCH before being played back to the user by the advanced content playback unit ADVPL. . When the secondary video set SCDVS is actually displayed by the advanced content playback unit ADVPL, the secondary video set SCDVS temporarily stored in the streaming buffer STRBUF is read and displayed to the user while being transferred to the secondary video player SCDVP. I do. At this time, as shown in FIG. 25, the playback display object temporarily stored in the streaming buffer STRBUF is only the secondary video set SCDVS, and many other display playback objects are temporarily stored in the file cache FLCCH in the data cache DTCCH. The Therefore, when the secondary video set SCDVS is not included in the advanced content ADVCT supplied by the content provider, there is no need to provide a streaming buffer STRBUF setting area in the data cache DTCCH. By arranging the streaming buffer element STRBUF in the structure information CONFGI, a streaming buffer necessary for storing the secondary video set SCDVS transferred in advance from the network server NTSRV before display to the user (see FIG. 25). Since the memory area size of STRBUF is known, the transfer process of the secondary video set SCDVS can be performed smoothly. The memory size of the streaming buffer STRBUF that needs to be set in advance in the data cache DTCCH requested by the creator (content provider) who creates the advanced content ADVCT to the advanced content playback unit ADVPL is shown in FIG. The streaming buffer size STBFSZ (size attribute information) that needs to be set in advance is shown in FIG. The advanced content playback unit ADVPL changes the structure (memory space allocated to the streaming buffer STRBUF) in the data cache DTCCH during sequence processing at startup. The setting of the structure in the data cache DTCCH (memory space allocated to the streaming buffer STRBUF) is performed as part of the process of step S62 in FIG. The value of the “streaming buffer size STBFSZ (size attribute information) that needs to be set in advance” is described in units of “kilobytes (1024 bytes)”. For example, when it is necessary to set the streaming buffer STRBUF size as 1 Mb, a value of “1024” is set as the value of the streaming buffer size STBFSZ (size attribute information) that needs to be set in advance. As described above, since the unit of the described value is 1024 bytes, when the total streaming buffer STRBUF size is converted into bytes, it becomes a value of 1024 × 1024 bytes, which is almost equal to 1 MB. Further, the value described in the “streaming buffer size STBFSZ (size attribute information) that needs to be set in advance” must be described as a positive value (the decimal part is rounded up and displayed). Also, the value must be set to an even number. This is because the setting of the memory space of the data cache DTCCH in the advanced content playback unit ADVPL is performed in units of bits (bytes). Therefore, by setting the value of the “streaming buffer size STBFSZ that needs to be set in advance” to an even value in accordance with the processing in bit units, processing in the advanced content playback unit ADVPL performed in byte units is facilitated.
<アパーチャーエレメント(Aperture Element)>
次に、構造情報CONFGI内のアパーチャーエレメントAPTR内のデータ構造を図80(d)に示す。前記アパーチャーエレメントAPTRはユーザに表示する画面において表示可能な(見える)イメージのフルサイズ情報を示している。前記アパーチャーサイズ情報APTRSZ(size属性情報)は前述したようにユーザが見る事の出来る(表示可能な)イメージサイズのフルサイズの情報を表しており、“1920×1080”又は“1280×720”のいずれかの値が設定可能となっている。前記アパーチャーサイズ情報APTRSZは図40に示すグラフィックプレイン内のアパーチャーAPTR(グラフィック領域)のフルサイズを表している。図40において、アパーチャーAPTR(グラフィック領域)を示す太枠の右下に座標値として(1920,1080)となっており、この場合には前記アパーチャーサイズ情報APTRSZの値として“1920×1080”の値が設定される。前記のアパーチャーサイズ情報APTRSZを設定する具体的な実施形態を図84に示す。図84(c)に示す表示画面例において黒枠で囲った全体の画面のうち左上の座標が(0,0)になっており、右下の座標値が(Xa,Ya)となっている。前記(Xa,Ya)の座標がアパーチャーサイズ情報APTRSZとなり、破線αの対応線に従って前記の値がアパーチャーエレメントAPTR内のアパーチャーサイズ情報APTRSZ内に記述される。この場合の記述例としては“Xa×Ya”の値が設定される。
<Aperture Element>
Next, FIG. 80 (d) shows a data structure in the aperture element APTR in the structure information CONFGI. The aperture element APTR indicates full size information of an image that can be displayed (visible) on a screen displayed to the user. The aperture size information APTRSZ (size attribute information) represents the full size information of the image size that can be viewed (displayed) by the user as described above, and is “1920 × 1080” or “1280 × 720”. Either value can be set. The aperture size information APTRSZ represents the full size of the aperture APTR (graphic area) in the graphic plane shown in FIG. In FIG. 40, the coordinate value is (1920,1080) at the lower right of the thick frame indicating the aperture APTR (graphic area). In this case, the value of “1920 × 1080” is used as the value of the aperture size information APTRSZ. Is set. A specific embodiment for setting the aperture size information APTRSZ is shown in FIG. In the display screen example shown in FIG. 84 (c), the upper left coordinate of the entire screen surrounded by a black frame is (0, 0), and the lower right coordinate value is (Xa, Ya). The coordinates of (Xa, Ya) become the aperture size information APTRSZ, and the value is described in the aperture size information APTRSZ in the aperture element APTR according to the corresponding line of the broken line α. As a description example in this case, a value of “Xa × Ya” is set.
<メインビデオデフォルトカラーエレメント(MainVideoDefaultColor Element)>
次に構造情報CONFGI内に含まれるメインビデオデフォルトカラーエレメントMVDFCL内のデータ構造を図80(e)に示す。前記メインビデオデフォルトカラーエレメントMVDFCLはメインビデオMANVDに対するアウターフレームカラーの内容を説明している。前記メインビデオMANVDに対するアウターフレームカラーは、メインビデオMANVDに関するメインビデオプレインMNVDPL(図39参照)における外側の背景色を意味している。例えば図79(d)内に記載されたactiveAreaX1からactiveAreaY2の情報によりユーザに表示する画面サイズがビデオアトリビュートアイテムエレメントVABITMで設定され、図59(c)に示すメディア属性情報内の対応したメディア属性エレメントのインデックス番号MDATNM(mediaAttr属性情報)により対応するメインビデオMANVDにより前記ビデオアトリビュートアイテムエレメントVABITMとリンクづける事により前記メインビデオMANVDの表示画面サイズが設定される。もし実際に表示される画面よりも横幅の広い画面(ワイド画面)を持つテレビをユーザが見ていた場合には、テレビ画面上の両端は前記メインビデオMANVDの表示画面が存在しない領域になる。前記の領域がメインビデオプレインMNVDPLにおける外側の部分を意味し、前記映像(前記メインビデオMANVD)が表示されない領域の色を前記「メインビデオに対するアウターフレーム属性情報COLAT(color属性情報)」により設定される。前記メインビデオに対するアウターフレーム属性情報COLAT(color属性情報)に設定される値はY, Cr, Cb色を6ヘキサゴナルデジタルデータで表示する。具体的な設定値としては下記のフォーマットで記述する。
<Main Video Default Color Element>
Next, FIG. 80 (e) shows a data structure in the main video default color element MVDFCL included in the structure information CONFGI. The main video default color element MVDFCL describes the content of the outer frame color for the main video MANVD. The outer frame color for the main video MANVD means an outer background color in the main video plane MNVDPL (see FIG. 39) related to the main video MANVD. For example, the screen size to be displayed to the user by the information of activeAreaX1 to activeAreaY2 described in FIG. 79 (d) is set in the video attribute item element VABITM, and the corresponding media attribute element in the media attribute information shown in FIG. 59 (c). The display screen size of the main video MANVD is set by linking with the video attribute item element VABITM by the corresponding main video MANVD by the index number MDATNM (mediaAttr attribute information). If the user is watching a television having a screen (wide screen) wider than the screen that is actually displayed, both ends of the television screen are areas where the display screen of the main video MANVD does not exist. The area means an outer portion of the main video plane MNVDPL, and the color of the area where the video (the main video MANVD) is not displayed is set by the “outer frame attribute information COLAT (color attribute information) for the main video” The The values set in the outer frame attribute information COLAT (color attribute information) for the main video display Y, Cr, and Cb colors as 6-hexagonal digital data. Specific setting values are described in the following format.
Color = Y Cr Cb
Y, Cr, Cb := [0-9A-F][0-9A-F]
ここにおいてYとCbとCrに対して設定する値としての条件は
16 ≦ Y ≦ 235, 16 ≦ Cb ≦ 240, 16 ≦ Cr ≦ 240
として設定する。本実施形態において「メインビデオに対するアウターフレーム属性情報COLAT(color属性情報)」を単純に赤とか青とか設定せず、前記のようにY, Cr, Cb色で表すことにより、非常に表現豊かな色をユーザに表示する事が可能となる。
Color = Y Cr Cb
Y, Cr, Cb: = [0-9A-F] [0-9A-F]
Here, the conditions as values to be set for Y, Cb and Cr are
16 ≤ Y ≤ 235, 16 ≤ Cb ≤ 240, 16 ≤ Cr ≤ 240
Set as. In this embodiment, “outer frame attribute information COLAT (color attribute information) for the main video” is not simply set to red or blue, but is expressed in Y, Cr, Cb colors as described above, so that it is very expressive. The color can be displayed to the user.
<ネットワークタイムアウトエレメント(NetworkTimeout Element)>
次に、構造情報CONFGI内に存在するネットワークタイムアウトエレメントNTTMOT内のデータ構造を図80(f)に示す。前記ネットワークタイムアウトエレメントNTTMOTはネットワークに要求されるタイムアウト時間を表している。本実施形態においてはネットワークを経由しネットワークサーバNTSRVから必要な再生表示オブジェクト及びその管理情報をダウンロードする。ネットワーク環境のトラブルによりネットワーク通信が不可能になった場合、ネットワーク通信回線を自動的に切断する必要が出てくる。ネットワーク通信が滞った後、ネットワーク回線を切るまでの時間をタイムアウト時間と定義する。前記ネットワーク接続時のタイムアウト設定情報NTCNTO(timeout属性情報)はmSの単位で記述される。
<Network Timeout Element>
Next, FIG. 80 (f) shows the data structure in the network timeout element NTTMOT existing in the structure information CONFGI. The network timeout element NTTMOT represents a timeout time required for the network. In the present embodiment, necessary playback display objects and management information thereof are downloaded from the network server NTSRV via the network. When network communication becomes impossible due to a trouble in the network environment, it is necessary to automatically disconnect the network communication line. The time until the network line is disconnected after network communication is delayed is defined as the timeout time. The timeout setting information NTCNTO (timeout attribute information) at the time of network connection is described in units of mS.
図12が示すように、プレイリストPLLSTからマニフェストMNFSTもしくはアドバンストサブタイトルのマニフェストMNFSTSを参照する形になっている。その状況をより詳しく説明した図が図18になっている。すなわち、アドバンストサブタイトルADSBTの管理を行うアドバンストサブタイトルセグメントADSTSGから再生・使用時にインデックスとして参照されるファイル名はアドバンストサブタイトルのマニフェストファイルMNFSTSとなる。またアドバンストアプリケーションADAPLの管理を行うアプリケーションセグメントAPPLSGが再生・使用時にインデックスとして参照するファイルはアドバンストアプリケーションのマニフェストファイルMNFSTである。前記アドバンストサブタイトルのマニフェストファイルMNFSTSとアドバンストアプリケーションのマニフェストファイルMNFST内のデータ構造を図81に示す。 As shown in FIG. 12, a manifest MNFST or an advanced subtitle manifest MNFSTS is referenced from a playlist PLLST. FIG. 18 illustrates the situation in more detail. That is, the file name referred to as an index during playback / use from the advanced subtitle segment ADSTSG that manages the advanced subtitle ADSBT is the advanced subtitle manifest file MNFSTS. The file referred to as an index by the application segment APPLSG that manages the advanced application ADAPL during playback / use is the manifest file MNFST of the advanced application. FIG. 81 shows the data structure in the advanced subtitle manifest file MNFSTS and the advanced application manifest file MNFST.
<マニフェストファイル(Manifest File)>
前記マニフェストファイルMNFSTはタイトルに対応したアドバンストアプリケーションADAPLの初期(初期設定)情報を示す。図1に示す情報記録再生装置1内のアドバンストコンテンツ再生部ADVPLは前記マニフェストファイルMNFSTに記載されている情報に基づきアドバンストアプリケーションADAPLの実行・表示処理を行う。前記アドバンストアプリケーションADAPLはマークアップMRKUPに基づく表示処理とスクリプトSCRPTに基づく実行処理からなる。前記マニフェストMNFST内で記述される初期(初期設定)情報は以下の内容を示している。
<Manifest File>
The manifest file MNFST indicates initial (initial setting) information of the advanced application ADAPL corresponding to the title. The advanced content playback unit ADVPL in the information recording /
* 実行すべき最初のマークアップファイルMRKUP
* アプリケーションの起動処理時に実行されるべきスクリプトファイルSCRPT
前記マニフェストファイルMNFSTはXMLに基づき記述され、XMLの文法に基づきエンコード処理される。マニフェストファイルMNFST中のデータ構造は図81(a)に示すアプリケーションエレメントから構成されている。前記アプリケーションエレメントタグの中はアプリケーションエレメントのID情報MNAPIDと対応エレメントのベースURI情報MNFURI(xml:base属性情報)から構成されている。前記アプリケーションエレメントタグ内にアプリケーションエレメントのID情報MNAPIDを持つ事により図59に示すようにAPIコマンドにより前記アプリケーションエレメントのID情報MNAPIDを参照する事が可能となり、APIコマンドによる対応したアプリケーションエレメントの検索が容易となる。また前記アプリケーションエレメント内のチャイルドエレメントとして領域エレメントRGNELE、スクリプトエレメントSCRELE、マークアップエレメントMRKELE、及びリソースエレメントRESELEを含む事が可能である。
* First markup file to be executed MRKUP
* Script file SCRPT to be executed during application startup processing
The manifest file MNFST is described based on XML, and is encoded based on XML grammar. The data structure in the manifest file MNFST is composed of application elements shown in FIG. The application element tag includes application element ID information MNAPID and corresponding element base URI information MNFURI (xml: base attribute information). By having the application element ID information MNAPID in the application element tag, it becomes possible to refer to the application element ID information MNAPID by an API command as shown in FIG. 59, and the corresponding application element can be searched by the API command. It becomes easy. The child element in the application element can include a region element RGNELE, a script element SCRELE, a markup element MRKELE, and a resource element RESELE.
<領域エレメント(Region Element)>
図81(a)に示したアプリケーションエレメント内に配置されうる領域エレメントRGNELE内のデータ構造を図81(b)に示す。図39に示すようにユーザに表示する表示画面上ではメインビデオプレインMNVDPL、サブビデオプレインSBVDPL、サブピクチャープレインSBPCPL、グラフィックプレインGRPHPL、及びカーソルプレインCRSRPLの各レイヤーが存在し、前記各レイヤーの合成された合成画面が図39の下に示すようにユーザに表示される。前記各レイヤーのうちグラフィックプレインGRPHPLは本実施形態においてはアドバンストアプリケーションADAPLに関する表示画面レイヤーとして扱われる。図39に示すグラフィックプレインGRPHPLの画面全体をアパーチャーAPTR(グラフィック領域)として定義する。また図39の下側の画面に示すようにヘルプアイコン33からFFボタン38までの各ボタンが配置されている領域を図39の上側のグラフィックプレインGRPHPL内に示すようにアプリケーション領域APPRGNと定義する。前記アプリケーション領域APPRGNは本実施形態においてアドバンストアプリケーションADAPLに対応するアドバンストコンテンツADVCTを表示する画面領域を示しており、アパーチャーAPTR(グラフィック領域)内における前記アプリケーション領域APPRGNの配置場所と及び領域寸法が図81(b)に示す領域エレメントRGNELE内に記述される。前記アパーチャーAPTR(グラフィック領域)内におけるアプリケーション領域APPRGNの配置方法についての詳細説明を図40を用いて行う。図40に示すようにグラフィックプレインGRPHPL内の領域をカンバスと呼ぶ。また前記カンバス上での各アプリケーション領域APPRGNの配置場所を指定する座標系をカンバス座標CNVCRDと定義する。図40の実施形態では前記カンバス座標CNVCRD上にアプリケーション領域APPRGNが #1 から #3 まで設定されている。前記アプリケーション領域APPRGN #1 内の白抜き部分をグラフィックオブジェクトの位置と呼んでいる。本実施形態においては前記グラフィックオブジェクトをコンテントエレメントと呼ぶことがある。前記1個のグラフィックオブジェクト(コンテントエレメント)は図39の下側に示すヘルプアイコン33やストップボタン34など各アイコンもしくはボタンの1個1個に対応する。つまりアプリケーション領域APPRGN #1 内での前記ヘルプアイコン33やストップボタン34の配置場所と表示画面サイズが、図40に示すアプリケーション領域APPRGN #1 内座標値(x1,y1)により規定される。ヘルプアイコン33やストップボタン34などのグラフィックオブジェクト(コンテントエレメント)のアプリケーション領域APPRGN #1 内の配置場所と表示サイズは図84(b)のマークアップエレメントMRKELEの下に星印で記述したようにマークアップファイルMRKUP.XMU内にそれぞれ記述される。図40に示すようにカンバス座標CNVCRDにおけるX軸はユーザに表示する画面の横方向を表し、右方向がプラス方向になる。X軸方向の座標値の単位は原点位置からの画素数の値で示される。またカンバス座標CNVCRDにおけるY軸はユーザに表示する画面の縦方向を表し、下方向がプラス方向になる。X軸方向の座標値の単位も原点位置からの画素数の値で示される。本実施形態におけるアパーチャーAPTR(グラフィック領域)の左上端位置がカンバス座標CNVCRDの原点位置(カンバス座標内における(0,0)の位置)になる。その結果、アパーチャーAPPTR(グラフィック領域)の画面サイズは前記アパーチャーAPTR(グラフィック領域)内の右下端のカンバス座標CNVCRDにより規定される。図40の例ではユーザに表示される画面は1920×1080となり、アパーチャーAPTR(グラフィック領域)の右下端位置でのカンバス座標値が(1920,1080)となる。前記アパーチャーAPTR(グラフィック領域)内のアプリケーション領域APPRGN #1 の配置場所は、図40の例に示すように前記アプリケーション領域APPRGN #1 の左上端位置でのカンバス座標CNVCRD値(X,Y)により定義される。それに対応して図81(b)に示す領域エレメントRGNELE内のX属性情報はカンバス上アプリケーション領域の始点位置のX座標値XAXIS(図40参照)が設定される。また同様に前記領域エレメントRGNELE内のY属性値はカンバス上アプリケーション領域始点位置のY座標値YAXISが設定される。また図40に示すように、アプリケーション領域内座標においてはアプリケーション領域APPRGN #1 の左上端位置が原点(0,0)として定義され、アプリケーション領域APPRGN #1 内のアプリケーション内座標における右下端位置の座標(x2,y2)により、アプリケーション領域APPRGN#1内の幅と高さの値が規定される。すなわちアプリケーション領域APPRGN #1 の幅は“x2”で規定され、またアプリケーション領域APPRGN #1 の高さは“y2”の値で規定される。それに対応し、本実施形態ではアプリケーション領域APPRGNの表示サイズを“幅”と“高さ”で規定する。すなわち図81(b)に示す領域エレメントRGNELE内のwidth属性情報はカンバス座標内でのアプリケーション領域の幅WIDTHを表す。また図81(b)に示した領域エレメントRGNELE内のheight属性情報はカンバス座標内でのアプリケーション領域の高さHEIGHTを表す。もし、前記領域エレメントRGNELE内でのカンバス上アプリケーション領域始点位置のX座標値XAXISとカンバス上アプリケーション領域始点位置のY座標値YAXISの記述を省いた場合には、カンバス上アプリケーション領域始点位置のX座標値XAXISの値としてデフォルトの“0”の値が設定されると共にカンバス上アプリケーション領域始点位置のY座標値YAXISの値としてデフォルト値の“0”の値が自動的に設定される。この場合には図40から判るように対応するアプリケーション領域APPRGN #1 の始点の座標値(X,Y)が(0,0)となるので、前記アプリケーション領域APPRGNがアパーチャーAPTR(グラフィック領域)の左上端に合わせて貼り付く形となる。また更に本実施形態では図81(b)に示すように領域エレメントRGNELE内でのカンバス座標内でのアプリケーション領域の幅WIDTHとカンバス座標内でのアプリケーション領域の高さHEIGHTの記述を省く事が出来る。このようにカンバス座標内でのアプリケーション領域の幅WIDTHの記述を省いた場合にはデフォルト値としてカンバス座標内でのアプリケーション領域の幅WIDTHの値がアパーチャーAPTR(グラフィック領域)の幅サイズに一致する。またカンバス座標内でのアプリケーション領域の高さHEIGHTの記述を省いた場合には、前記カンバス領域内でのアプリケーション領域の高さHEIGHTの値がデフォルト値としてアパーチャーAPTRの高さが自動設定される。従って前記カンバス座標内でのアプリケーション領域の幅WIDTHとカンバス座標内でのアプリケーション領域の高さHEIGHTの記述を省いた場合には前記アプリケーション領域APPRGN#1のサイズはアパーチャーAPTR(グラフィック領域)のサイズと一致する事になる。このように記載を省略した時のデフォルト値がアパーチャーAPTP(グラフィック領域)の位置とサイズに一致させることで、(前記情報の記載を省略した場合の)マークアップMRKUP内での各グラフィックオブジェクト(コンテントエレメント)毎の表示サイズ/表示場所設定方法が簡単になる。
<Region Element>
FIG. 81 (b) shows a data structure in the area element RGNELE that can be arranged in the application element shown in FIG. 81 (a). As shown in FIG. 39, the main video plane MNVDPL, the sub video plane SBVDPL, the sub picture plane SBPCPL, the graphic plane GRPHPL, and the cursor plane CRSRPL are present on the display screen displayed to the user. The combined screen is displayed to the user as shown in the lower part of FIG. Of these layers, the graphic plane GRPHPL is treated as a display screen layer related to the advanced application ADAPL in this embodiment. The entire screen of the graphic plane GRPHPL shown in FIG. 39 is defined as an aperture APTR (graphic area). Further, as shown in the lower screen of FIG. 39, an area where buttons from the
<スクリプトエレメント(Script Element)>
図81(c)にスクリプトエレメントSCRELE内のデータ構造を示す。本実施形態におけるスクリプトSCRPTは、ECMAの国際標準化で設定されたグローバルコード(ECMA 10.2.10)に準拠している。前記スクリプトエレメントSCRELEはアプリケーションの起動処理時に行われるアドバンストアプリケーションADAPLに関するスクリプトファイルSCRPTの内容を説明している。アプリケーションが起動すると、図44に示すナビゲーションマネージャNVMNGはsrc属性情報内に記述されたURI(ユニフォーム・リソース・アイデンティファイヤー)を参照とし、最初に使用するスクリプトファイルSCRPTをダウンロードする。その直後、ECMAスクリプトプロセッサーECMASPは前記ダウンロードしたスクリプトファイルSCRPTの情報を前記グローバルコード(ECMA 10.2.10 に規定されたエクマスクリプト)に基づき解読し、解読結果に合わせた実行処理を行う。図81(c)に示すように前記スクリプトエレメントSCRELE内にはスクリプトエレメントのID情報SCRTIDとsrc属性情報が記述されている。前記スクリプトエレメントのID情報SCRTIDがスクリプトエレメントSCRELE内に存在する事によってAPIコマンドにより特定のスクリプトエレメントSCRELEを参照しやすくし、APIコマンド処理を容易にする効果が出来る。また前記src属性情報は最初に使用するスクリプトファイルの保存場所SRCSCRを表し、URI(ユニフォーム・リソース・アイデンティファイヤー)により記述される。
<Script Element>
FIG. 81 (c) shows the data structure in the script element SCRELE. The script SCRPT in this embodiment conforms to the global code (ECMA 10.2.10) set by ECMA international standardization. The script element SCRELE describes the contents of the script file SCRPT related to the advanced application ADAPL that is performed during application startup processing. When the application is activated, the navigation manager NVMNG shown in FIG. 44 refers to the URI (Uniform Resource Identifier) described in the src attribute information and downloads the script file SCRPT to be used first. Immediately after that, the ECMA script processor ECMASP decodes the information of the downloaded script file SCRPT based on the global code (Exuma script defined in ECMA 10.2.10), and executes an execution process according to the decoding result. As shown in FIG. 81 (c), ID information SCRTID and src attribute information of the script element are described in the script element SCRELE. Since the ID information SCRTID of the script element exists in the script element SCRELE, it is easy to refer to a specific script element SCRELE by an API command, and the API command processing can be facilitated. The src attribute information represents a storage location SRCSCR of a script file to be used first, and is described by a URI (Uniform Resource Identifier).
<マークアップエレメント(Markup Element)>
図81(d)に詳細なデータ構造を示すマークアップエレメントMRKELEは、アドバンストアプリケーションADAPLに対する最初に表示するマークアップファイルのファイル名と保存場所(パス)を示している。図81(a)に示す例のように、アプリケーションエレメント内にスクリプトエレメントSCRELEが記述されている場合には、アプリケーションの起動時において最初に前記スクリプトエレメントSCRELEで規定された初期のスクリプトファイルの実行を行う。その後、図28に示すナビゲーションマネージャNVMNG内のアドバンストアプリケーションマネージャADAMNGは、前記マークアップエレメントMRKELEで規定されたsrc属性情報で指定されたURI(ユニフォーム・リソース・アイデンティファイヤー)を参照し、対応したマークアップファイルMRKUPのロード処理を行う。このように図81(c)に示すsrc属性情報は最初に使用するスクリプトファイルの保存場所SRCSCR(保存場所(パス)とファイル名)を表し、URI(ユニフォーム・リソース・アイデンティファイヤー)の形式で記述される。また、図82に示すように図81(d)に示すマークアップエレメントのID情報MARKIDを利用してAPIコマンドにより前記マークアップエレメントMRKELEの参照が行われる事により、APIコマンド処理が容易になる。
<Markup Element>
A markup element MRKELE having a detailed data structure shown in FIG. 81 (d) indicates the file name and storage location (path) of the markup file to be displayed first for the advanced application ADAPL. When the script element SCRELE is described in the application element as in the example shown in FIG. 81 (a), the initial script file defined by the script element SCRELE is first executed when the application is started. Do. Thereafter, the advanced application manager ADAMNG in the navigation manager NVMNG shown in FIG. 28 refers to the URI (Uniform Resource Identifier) specified by the src attribute information defined by the markup element MRKELE, and the corresponding mark. Loads up file MRKUP. In this way, the src attribute information shown in FIG. 81 (c) indicates the storage location SRCSCR (storage location (path) and file name) of the script file to be used first, and is in the form of URI (Uniform Resource Identifier). Described. As shown in FIG. 82, the API command processing is facilitated by referring to the markup element MRKELE by the API command using the ID information MARKID of the markup element shown in FIG. 81 (d).
<リソースエレメント(Resource Element)>
以下に図81(e)に詳細なデータ構造を示すリソースエレメントRESELEの説明を行う。前記リソースエレメントRESELEは、アドバンストアプリケーションADAPLで使用されるリソースについての情報が示されている。また、API管理領域を除いてアドバンストアプリケーションADAPLで使用される全てのリソースは、前記リソースエレメントRESELEのリストにより記述されなければならない。前記マニフェストMNFST内のリソースエレメントRESELEのリストで規定されたリソースをファイルキャッシュFLCCH内へのローディングを行う。その後、図28に示すナビゲーションマネージャNVMNG内のプレイリストマネージャPLMNGが、対応したアドバンストアプリケーションADAPLの実行状態にする。図81(e)に示すリソースエレメントRESELE内のsrc属性情報は、対応リソースの保存場所SRCRSC(保存場所(パス)とファイル名)を表し、URI(ユニフォーム・リソース・アイデンティファイヤー)により記述される。前記対応リソースの保存場所SRCRSCの値はリソースが元々保存されていた場所を表す後述するURI(ユニフォーム・リソース・アイデンティファイヤー)により記述されなければならず、プレイリストPLLST内で規定されたリソースインフォメーションエレメント(リソースインフォメーションRESRCIの情報)により記述されたsrc属性情報値のどれか1個を示している。すなわち図63(c)または図66(e)に示すリソースインフォメーションRESRCI内にネットワークソースエレメントNTSELEのリストを持つ事で、図67または図68に示すように同一内容のコンテンツに対し、ユーザが所有する情報記録再生装置1のネットワーク環境内でのネットワークスループットに合わせた最適なリソースが選択出来るようになっている。このように、同一のアドバンストコンテンツ内容ADVCTを持った(解像度や表示画面の修飾状況など異なる詳細属性を持つ)複数のリソース個々に対し、それぞれの保存場所(パス)をファイル名が記述されているsrc属性情報を有するネットワークソースエレメントNTSELEがそれぞれ設定されている。前記ネットワークソースエレメントNTSELEが設定されているぺアレントエレメント(図66(d)に示すタイトルリソースエレメントまたは図63(d)に示すアプリケーションリソースエレメントAPRELE)内のsrc属性情報で規定されたURI(ユニフォーム・リソース・アイデンティファイヤー)の値が図81(e)に示す対応リソースの保存場所SRCRCSの値として設定されなければならない。図68で説明したように、ネットワークソースエレメントNTSELEで指定されたネットワークスループット条件を情報記録再生装置1のネットワーク環境が満足しない場合には前記タイトルリソースエレメントまたは前記アプリケーションリソースエレメントAPRELE)内のsrc属性情報で指定された保存場所(パス)とファイル名へアクセスするので、図81(e)に示す対応リソースの保存場所SRCRCSを上述した方法で設定する事により情報記録再生装置1のネットワーク環境に依らずにアクセスが行える。その結果、アドバンストコンテンツ再生部ADVPLのマニュフェストMNFSTに関するアクセス制御が容易となる。
<Resource Element>
Hereinafter, a resource element RESELE having a detailed data structure will be described with reference to FIG. The resource element RESELE indicates information about a resource used in the advanced application ADAPL. All resources used in the advanced application ADAPL except for the API management area must be described by the list of the resource elements RESELE. The resource specified by the list of resource elements RESELE in the manifest MNFST is loaded into the file cache FLCCH. Thereafter, the playlist manager PLMNG in the navigation manager NVMNG shown in FIG. 28 puts the corresponding advanced application ADAPL into an execution state. The src attribute information in the resource element RESELE shown in FIG. 81 (e) represents the storage location SRCRSC (storage location (path) and file name) of the corresponding resource, and is described by a URI (Uniform Resource Identifier). . The value of the storage location SRCRSC of the corresponding resource must be described by a URI (Uniform Resource Identifier), which will be described later, indicating the location where the resource was originally stored. Resource information specified in the playlist PLLST Indicates one of the src attribute information values described by the element (resource information RESRCI information). That is, by having a list of network source elements NTSELE in the resource information RESRCI shown in FIG. 63 (c) or 66 (e), the user owns the content having the same contents as shown in FIG. 67 or FIG. An optimum resource can be selected in accordance with the network throughput in the network environment of the information recording / reproducing
最後に図84を用い、図81に示したマニフェストファイルMNFST内のデータ構造と、ユーザに表示する表示画面内のレイアウトとの関係を示す。 Finally, FIG. 84 is used to show the relationship between the data structure in the manifest file MNFST shown in FIG. 81 and the layout in the display screen displayed to the user.
図84(c)に、ユーザに表示する表示画面の例を示す。図84(c)に示す表示例によれば、画面の下側にプレイボタン34からFFボタン38に至る各種ボタンが配置されている。前記プレイボタン34からFFボタン38が配置される領域全体を、アプリケーション領域APPRGNとして定義する。図84(c)に示す表示画面例はそれぞれカンバス座標CNVCRDに対応し、前記画面の左上端位置がカンバス座標CNVCRDにおける(0,0)の座標に対応する。前記カンバス座標CNVCRDに基づき、前述したアプリケーション領域APPRGNの左上端の座標を(Xr,Yr)で表す。前述したように、前記アプリケーション領域APPRGNの配置場所は、マニフェストファイルMNFST内の領域エレメントRGNELE内に記述される。前記説明した(Xr,Yr)の座標値は、図84(b)に示すように領域エレメントRGNELE内において“Xr”と“Yr”で記述され、対応が破線νで示される。また図84(c)の表示画面例において前記アプリケーション領域APPRGNの幅はrwidthで示され、高さはrheightで定義される。前記アプリケーション領域APPRGNの幅rwidthは破線ξに示すように領域エレメントRGNELE内のカンバス座標内でのアプリケーション領域の幅WIDTHの値として記述され、また前記アプリケーション領域APPRGNの高さrheightの値は同様に領域エレメントRGNELE内での破線πに示すように領域エレメントRGNELE内のカンバス座標内でのアプリケーション領域の高さHEIGHTの値として記述される。また、図84(c)に示すストップボタン34やプレイボタン35のアプリケーション領域APPRGN内の配置場所と表示サイズは、図84(b)のマークアップエレメントMRKELEの直後に記述した“*”マーク以降に示すように、対応するマークアップファイルMRKUP.XMUの中で指定される。また前記ストップボタン34やプレイボタン35の配置及びサイズを示すマークアップファイルMRKUP.XMUに対するファイル名とその保存場所(パス)がマークアップエレメントMRKELE内のsrc属性情報の値として設定される。
FIG. 84 (c) shows an example of a display screen displayed to the user. According to the display example shown in FIG. 84 (c), various buttons from the
本実施形態においてプレイリストPLLST内に配置された各種エレメントにおいて、図82(a)に示すようにタイトルエレメントTTELEMとプレイリストアプリケーションエレメントPLAELE、プライマリーオーディオビデオクリップエレメントPRAVCP、セカンダリーオーディオビデオクリップエレメントSCAVCP、サブスティテュートオーディオビデオクリップエレメントSBAVCP、サブスティテュートオーディオクリップエレメントSBADCP、アドバンストサブタイトルセグメントエレメントADSTSG、アプリケーションセグメントエレメントAPPLSG、チャプターエレメント、ポーズアットエレメントPAUSEL、イベントエレメントEVNTELがエレメント内にID情報を持ち、図82(a)の右側に示すように、ストリーミングバッファエレメントSTRBUFからスケジュールコントロールリストエレメントに至る各種エレメント内にID情報を持っていない。本実施形態において図82(c)に示すように、APIコマンドにより比較的多く参照されるエレメントの最初にID情報を設置している。それによりAPIコマンドからはID情報を使って特定のエレメントを参照している。その結果、APIコマンドによる各エレメントへのアクセス制御処理が容易となり、APIコマンドによる各エレメントへのアクセス制御・処理が容易となる。更に各エレメントの最初にID情報が配置されているのでプレイリストマネージャPLMNG(図28参照)は前記各エレメント内のID情報の検索が容易となる。更に、本実施形態において各エレメントの識別に“番号”を指定する代わりに“ID情報”を利用しているところに大きな特徴がある。図51や図3に示すようにプレイリストPLLSTの更新処理を行う事が可能となっている。もし各エレメントの識別に“番号”を付けていた場合には前記プレイリストPLLSTを更新する度に必要に応じて番号のずらし処理が必要となる。それに対し、各エレメントの識別に“ID情報”を指定している場合には、プレイリストPLLSTの更新時に前記ID情報の変更が不要となる。その為、プレイリスト更新時の変更処理が容易になるという特徴がある。図82(b)にAPIコマンドによる各エレメント内のID情報の活用例を示す。本実施形態の位置活用例としてはAPIコマンドによりタイトルのID情報TTID(図24(b)参照)を指定し、タイトル間の遷移処理を行う事が出来る。また別の活用例としてAPIコマンド上でチャプターエレメントのID情報CHPTID(図24(d)参照)を指定し、特定チャプターへのアクセス制御を行う事が出来る。 In the various elements arranged in the playlist PLLST in this embodiment, as shown in FIG. 82 (a), the title element TTELEM, the playlist application element PLAELE, the primary audio video clip element PRAVCP, the secondary audio video clip element SCAVCP, 82 (a) As shown on the right side, the schedule control list entry from the streaming buffer element STRBUF There is no ID information in the various elements leading to the element. In this embodiment, as shown in FIG. 82 (c), ID information is set at the beginning of an element that is relatively referenced by an API command. As a result, API commands refer to specific elements using ID information. As a result, access control processing to each element by the API command is facilitated, and access control / processing to each element by the API command is facilitated. Furthermore, since ID information is arranged at the beginning of each element, the playlist manager PLMNG (see FIG. 28) can easily search for ID information in each element. Further, the present embodiment is characterized in that “ID information” is used instead of specifying “number” for identification of each element. As shown in FIGS. 51 and 3, the playlist PLLST can be updated. If each element is identified by a “number”, it is necessary to shift the number as necessary every time the playlist PLLST is updated. On the other hand, when “ID information” is specified for identification of each element, it is not necessary to change the ID information when the playlist PLLST is updated. Therefore, there is a feature that the change process at the time of playlist update becomes easy. FIG. 82 (b) shows an example of utilization of ID information in each element by an API command. As an example of position utilization in this embodiment, title ID information TTID (see FIG. 24B) can be specified by an API command, and transition processing between titles can be performed. As another utilization example, the chapter element ID information CHPTID (see FIG. 24 (d)) can be specified on the API command to control access to a specific chapter.
データキャッシュDTCCHに保存するデータやファイルの保存場所、およびその保存場所に対応したダウンロード方法については、図64、図65、図70、図71、図54、図55、図56、図63、図66及び図67の所で個々に説明を行っている。前記の説明内容をまとめる目的で、図83に各再生表示オブジェクトの保存場所についての記述を中心したプレイリスト内の記述例と、それに対応した各再生表示オブジェクトの保存場所の対応について説明をする。図83(a)に、ユーザに表示する画面の例を示す。ユーザに表示する画面のうち、左上側にプライマリービデオセットPRMVS内のメインビデオMANVDにより表示される本編31が表示され、上の右側にセカンダリービデオセットSCDVS内のサブビデオSUBVDが表示されている。また画面の下側にはアドバンストアプリケーションADAPLに対応したストップボタン34からFFボタン38に至る各種ボタンが配置され、前記本編31内の上側にアドバンストサブタイトルADSBTから構成されるテロップ文字39が表示されている。図83に示す例では、前記本編31を構成するプライマリービデオセットPRMVS内のメインビデオMANVD及びその関連情報が、図83(b)に示すように情報記憶媒体DISC内に保存されている。前記プライマリービデオセットPRMVS内のメインビデオMANVDに関係した情報は、前記情報記憶媒体DISCの /HVDVD_TS/ のディレクトリ(フォルダ)内に保存され、プライマリービデオセットのタイムマップPTMAPに対応したファイル名が RMVS.MAP であり、エンハンストビデオオブジェクトインフォメーションEVOBIに対応したファイル名が PRMVS.VTI で、プライマリーエンハンストビデオオブジェクトP-EVOBに対応したファイル名が PRMVS.EVO とする。また前記セカンダリービデオセットSCDVS内のサブビデオSUBVDの関連ファイルは、図83(c)に示すようにネットワークサーバNTSRV内に保存されているものとする。前記対応したネットワークサーバNTSRVのネットワーク上のアドレス(URL:ユニフォーム・リソース・ロケーション)はwww.toshiba.co.jpとし、その中のHD_DVDのディレクトリ(フォルダ)内に関連ファイルが保存されている。図83(c)に示すように、対応するサブビデオSUBVDとして高解像度で転送時に要求されるネットワークスループットが高いSCDVS1.EVOファイルと解像度が低く転送時のネットワークスループットが低くても良いセカンダリーエンハンストビデオオブジェクトS-EVOBが記録されているSCDVS2.EVOファイルが存在し、各セカンダリーエンハンストビデオオブジェクトS-EVOBファイルで使われるセカンダリービデオセットのタイムマップSTMAPとして SCDVS1.MAP とSCDVS2.MAPが保存されている。本実施形態においてセカンダリーエンハンストビデオオブジェクトS-EVOBと、それに利用される(前記ファイルを参照する)セカンダリービデオセットのタイムマップSTMAPのファイルは同一ネットワークサーバNTSRV内の同一ディレクトリ(フォルダ)一緒に保存されると共に拡張子を除くファイル名は互いに一致するように設定している。次に前記テロップ文字39を表現するアドバンストサブタイトルADSBTに関連したファイルが図83(d)に示すネットワークサーバNTSRV内に保存されている。前記ネットワークサーバNTSRVのアドレス(URL:ユニフォーム・リソース・ロケーション)名はwww.ando.co.jpとし、その中のタイトルTITLEフォルダ(ディレクトリ)内に各種ファイルが保存されているとする。前記アドバンストサブタイトルADSBTをアクセスする時に使用されるマニフェストファイルMNFSTのファイル名がMNFSTS.XMFであり、前記テロップ文字39を表示する時の表示文字と、その表示場所および表示サイズを規定したアドバンストサブタイトルのマークアップMRKUPSのファイルが3 個存在し、それぞれのファイル名が MRKUPS1.XAS と MRKUPS2.XASとMRKUPS3.XASで設定される。ユーザのネットワーク環境に応じて表示させるテロップ文字39の表示状況および装飾が各マークアップファイルMRKUPで異なり、それに応じてファイルキャッシュFLCCHへダウンロードする時に必要とされるネットワークスループットの値も異なる。前記 MRKUPS1.XAS で使用されるフォントの変換テーブルが FONTS1.XAS 内に記録され、また前記 MRKUPS2.XAS で使われるフォントファイルが MRKUPS2.XAS となる。また図83(a)に示すストップボタン34からFFボタン38に至るアドバンストアプリケーションADAPLに関するリソースファイルが図83 (e)に示すパーシステントストレージPRSTR内のルート内に保存されていると共に、図83(f)に示すデータ構造を有するプレイリストPLLSTのプレイリストファイルが PLLST.XPL のファイル名で同様のパーシステントストレージPRSTR内に保存されている。また前記パーシステントストレージPRSTR内に保存されているマニフェストファイルMNFSTのファイル名が MNFST.XMF とし、対応したマークアップファイルMRKUPのファイル名が MRKUP.XMU とする。また図83(a)に示すストップボタン34からFFボタン38までの各ボタンの画像はJPGの形式で保存され、それぞれIMAGE_***.JPGのファイル名で保存される。また前記各種ボタンをユーザが設定した時に起きる処理に対応したスクリプトファイルSCRPTがSCRPT_$$$.JSの形で保存されている。前記本編31を表すプライマリービデオセットPRMVS内のメインビデオMANVDに対応し、情報記憶媒体DISC内に保存されたタイムマップファイルSTMAP(PRMVS.MAP)のファイル名とその保存先情報が、図83(f)に示すようにプレイリストPLLST内のタイトル情報TTINFO内に存在するプライマリーオーディオビデオクリップエレメントPRAVCPにおける参照すべき再生表示オブジェクトのインデックスインフォメーションファイル保存場所SRCTMP(src属性情報)の記述欄に記載されている。本実施形態では図12に示すように、前記プライマリーオーディオビデオクリップエレメントPRAVCP内のsrc属性情報内に記述された保存場所SRCPMTに沿って始めにプライマリービデオセットのタイムマップPTMAP(PRMVS.MAP)にアクセスを行う。その後、前記プライマリービデオセットのタイムマップPTMAP(PRMVS.MAPファイル)の中に参照しているエンハンストビデオオブジェクトインフォメーションEVOBIのファイル名(PRMVS.VTS)を抽出し、前記ファイルにアクセスする。その後、前記エンハンストビデオオブジェクトインフォメーションEVOBI (PRMVS.VTIファイル)内で参照されているプライマリーエンハンストビデオオブジェクトP-EVOBのファイル名(PRMVS.EVOB)を読み取り、前記プライマリーエンハンストビデオオブジェクトP-EVOBが記録されているPRMVS.EVOファイルにアクセスし、データキャッシュDTCCH内にダウンロードする。またセカンダリーオーディオビデオクリップエレメントSCAVCP内の参照すべき再生表示オブジェクトのインデックスインフォメーションファイル保存場所SRCTMP(src属性情報)には、図83(c)に記述した複数のタイムマップファイルSTMAPのうちのいずれかのタイムマップファイル(SCDVS.MAP)の保存場所を記述する。また残りのセカンダリービデオセットのタイムマップSTMAPのファイル名(SCDVS2.MAP)が対応するセカンダリーオーディオビデオクリップエレメントSCAVCP内に配置されたネットワークソースエレメントNTSELE内のsrc属性情報内に記述される。前記ネットワークソースエレメントNTSELE内には対応したセカンダリーエンハンストビデオオブジェクトS-EVOBをデータキャッシュDTCCH内にダウンロードする時に保証されるネットワークスループットの許容最小値情報NTTRPT(networkThroughput属性情報)が記述されている。図67に示すようにナビゲーションマネージャNVMNG内のプレイリストマネージャPLMNGは情報記録再生装置1が置かれているネットワーク環境におけるネットワークスループットの情報を事前に持っている。前記プレイリストマネージャPLMNGはセカンダリーオーディオビデオクリップエレメントSCAVCP内に記述されたネットワークソースエレメントNTSELE内のネットワークスループットの許容最小値情報NTTRPT(networkThroughput属性情報)の値を読み取り、図68に示した判定ルールに従いデータキャッシュDTCCH内にロードすべきセカンダリーエンハンストビデオオブジェクトS-EVOBのファイル名を選択し、それと同じフォルダ内に保存され、同じ拡張子以外のファイル名を持つセカンダリービデオセットのタイムマップSTMAPにアクセス制御を行う。データキャッシュDTCCHにダウンロードする時には最初に前記選択したセカンダリービデオセットのタイムマップSTMAPのファイルをダウンロードし、前記セカンダリービデオセットのタイムマップSTMAP内で参照されているセカンダリーエンハンストビデオオブジェクトS-EVOBファイルの名前を読み取り、その後前記読み取ったファイル名に応じ、セカンダリーエンハンストビデオオブジェクトS-EVOBファイルのダウンロード処理を行う。またアドバンストサブタイトルセグメントエレメントADSTSG内のアドバンストサブタイトルのマニフェストファイル保存場所SRCMNF(src属性情報)には図83(d)に示したマニフェストファイルMNFSTS(MNSFTS.XMF)の保存場所(パス)とファイル名が記述されている。図83(d)に示すネットワークサーバNTSRV内に保存されているマニフェストファイルMNFST以外のファイルのファイル名と保存場所(パス)については前記アドバンストサブタイトルセグメントエレメントADSTSG内のアプリケーションリソースエレメントAPRELEまたはネットワークソースエレメントNTSELE内のsrc属性情報の中に記述されている。前述したようにネットワークサーバNTSRV内にはアドバンストサブタイトルの表示時の装飾状況やフォントに合わせてデータ転送時のネットワークスループットが異なる複数のマークアップファイルMRKUPS(MRKUPS1.XASとMRKUPS2.XAS、MRKUPS3.XAS)が記録されていると共に複数のフォントファイルFONTS(FONTS1.XASとFONTS2.XAS)が存在している。前記各マークアップファイルMRKUPとフォントファイルFONTをファイルキャッシュFLCCHにダウンロードする時に必要となるネットワークスループットの許容最小値情報NTTRPTが、前記アドバンストサブタイトルセグメントエレメントADSTSG内のネットワークソースエレメントNTSELE内に記述されている。例えば、図83(f)に示したアドバンストサブタイトルセグメントエレメントADSTSG内のネットワークソースエレメントNTSELEの情報によるとマークアップファイルMRKUPSであるMRKUPS3.XASをファイルキャッシュFLCCH内にネットワークダウンロードする時の保証されるネットワークスループットの許容最小値情報NTTRPTが56Kbpsであり、MRKUPS2.XASのファイルをファイルキャッシュFLCCH内にダウンロードする時に必要となるネットワークスループットの許容最小値情報NTTRPTの値が1Mbpsである事を示している。ナビゲーションマネージャNVMNG内のプレイリストマネージャPLMNGは、情報記録再生装置1が置かれているネットワーク環境内でのネットワーク経路50におけるネットワークスループット52の値を参照とし、図68に示した選択ルールに基づき、データキャッシュDTCCHにダウンロードするべき最適なマークアップファイルMRKUPSを設定し、前記マークアップファイルMRKUPSへアクセスした後、前記のファイルをデータキャッシュDTCCH内へダウンロードする。この時に対応するフォントファイルFONTSも同時に一緒にデータキャッシュDTCCH内へダウンロードする。前述したように図83(f)に示すデータ情報を持つプレイリストファイルPLLSTは図83(e)示すようにパーシステントストレージPRSTR内にPLLST.XPLのファイル名で保存されているものとする。ナビゲーションマネージャNVMNG内のプレイリストマネージャPLMNGは最初にパーシステントストレージPRSTR内に保存されているプレイリストファイルPLLST(PLLST.XPL)を読み取る。前記パーシステントストレージPRSTR内に保存されているマニフェストファイルMNFST(MNFST.XMF)のファイル名とその保存場所(パス)が図83(f)のプレイリストPLLST内のタイトル情報TTINFO内に存在するオブジェクトマッピングインフォメーションOBMAPI内のアプリケーションセグメントエレメントAPPLSGにおけるアドバンストアプリケーションの初期設定情報を含んだマニフェストファイル保存場所 URIMNF(src属性情報)内に
記述されている。また、それに関係したマークアップファイルMRKUP(MRKUP.XMU)及び各種スクリプトファイルSCRPT(SCRPT_$$$.JS)と静止画ファイルIMAGE(IMAGE_***.JPG)のファイル名とその保存場所が前記アプリケーションセグメントエレメントAPPLSG内のアプリケーションリソースエレメントAPRELE内のデータキャッシュ内にダウンロードされるデータまたはファイルの保存場所SRCDTC(src属性情報)内に記述されている。ナビゲーションマネージャNVMNG内のプレイリストマネージャPLMNGは前記アプリケーションセグメントエレメントAPPLSG内の前記アプリケーションリソースエレメントAPRELEリストを読み取り、対応したアドバンストアプリケーションADAPLを画面表示する前にファイルキャッシュFLCCH内に事前に保存しておくべきリソースファイルの名前と、元々の保存場所を知る事が出来る。このようにプレイリストファイルPLLSTのアプリケーションセグメントエレメントAPPLSG内のアプリケーションリソースエレメントAPRELEリストによりファイルキャッシュFLCCHに保存すべきリソースの情報が記載される事により、ナビゲーションマネージャNVMNGは効率良く、しかも高速で必要なリソースをデータキャッシュDTCCH内に事前に保存する事が出来る。
64, 65, 70, 71, 54, 55, 56, 63, and 63 for the storage location of data and files stored in the data cache DTCCH and the download method corresponding to the storage location. 66 and FIG. 67 are individually described. For the purpose of summarizing the description, the description example in the playlist centering on the description of the storage location of each playback display object and the correspondence of the storage location of each playback display object corresponding thereto are described in FIG. FIG. 83 (a) shows an example of a screen displayed to the user. Among the screens displayed to the user, the
本実施形態におけるユーザに表示する表示画面例とプレイリストPLLST内のデータ構造との関係を図84に示す。既に表示画面とプレイリスト内のデータ構造の関係は個々には図79と図81を用いて説明した。しかし図84を用いてユーザに表示する表示画面例とプレイリストPLLST及びマニフェストファイルMNFST内のデータ構造間の関係を記述する事により、全体を統合的に知る事が出来る。図84(c)に示すユーザに表示する全画面領域をアパーチャーAPTRという。また図40に示すカンバス座標CNVCRDにおける前記アパーチャーAPTRの右下の座標値を(Xa,Ya)で表すことが出来、前記の座標値がアパーチャーサイズ情報APTRSZに対応する。破線αに対応関係を示すように前記のアパーチャーサイズ情報APTRSZがプレイリストPLLST内の構造情報CONFGI内のアパーチャーエレメントAPTR内に記述される。またプライマリービデオセットPRMVS内のメインビデオMANVDを表す本編31を示す画面の左上端座標を(Xp1,Yp1)で表し、右下端位置のカンバス座標CNVCRD値を(Xp2,Yp2)で表す。前記の本編31の画面サイズはプレイリストPLLST内のメディア属性情報MDATRI内におけるビデオアトリビュートアイテムエレメントVABITM内のメディアインデックス番号情報INDEXが“1”で示すビデオアトリビュートアイテムエレメントVABITMで規定される。前記メディアインデックス番号情報INDEXの値が“1”で設定されるビデオアトリビュートアイテムエレメントVABITMで設定されるアパーチャー内でのビデオ表示画面左上端位置のX座標値APARX1と左上端位置のY座標値APARY1及び右下端位置のX座標値APARX2と右下端位置のY座標値APARY2との関係が破線βと破線γで示してある。また図84(c)に示すように画面上でのセカンダリービデオセットSCDVS内のサブビデオSUBVDの表示画面の左上端のカンバス座標CNVCRDの値を(Xs1,Ys1)で表し、右下端のカンバス座標CNVCRDの値を(Xs2,Ys2)で表す。前記のセカンダリービデオセットSCDVS内のサブビデオSUBVDの表示画面領域情報は図84(a)に示すようにメディアインデックス番号情報INDEXの値が“2”で設定されたビデオアトリビュートアイテムエレメントVABITM内に記述され、破線δ及び破線εに示すように対応関係が設定される。このように映像情報を示す(プライマリービデオセットPRMVS及びセカンダリービデオセットSCDVSに含まれる)再生表示オブジェクトの表示画面上での表示場所と表示サイズはビデオアトリビュートアイテムエレメントVABITMにより記述される。図10に示すように前記プライマリービデオセットPRMVSとセカンダリービデオセットSCDVSにはユーザに表示される動画像としてメインビデオMANVDとサブビデオSUBVDが存在する。前記各メインビデオMANVDと前記サブビデオSUBVDにおけるユーザに表示する画面上での表示画面場所とサイズ情報は、オブジェクトマッピングインフォメーションOBMAPI(トラックナンバーアサイメントインフォメーション)内のメインビデオエレメントMANVDとサブビデオエレメントSUBVD内から前記対応するビデオアトリビュートアイテムエレメントVABITMを参照する亊によって指定する事が出来る。すなわち図84(a)に示すようにプレイリストPLLST内のタイトル情報TTINFO内に存在するタイトルエレメント情報TTELEM内のオブジェクトマッピングインフォメーションOBMAPI(トラックナンバーアサイメントインフォメーション)内に記述されたプライマリーオーディオビデオクリップエレメントPRAVCP内のメインビデオエレメントMANVD上においてメディア属性情報内の対応したメディア属性エレメントのインデックス番号MDATNMの値を“1”で指定する事により、破線ηで示すようにメディアインデックス番号情報INDEXの値が“1”であるビデオアトリビュートアイテムエレメントVABITMを指定する事が出来る。それにより、前記メインビデオMANVDの表示画面サイズと表示場所が図84(c)に示すように設定されている。同様にセカンダリービデオセットSCDVS内のサブビデオSUBVDに関する表示画面サイズと表示場所はセカンダリーオーディオビデオクリップエレメントSCAVCP内に記述されたサブビデオエレメントSUBVD内のメディア属性情報内の対応したメディア属性エレメントのインデックス番号MDATNMの値を“2”で設定する事により、破線ζで関係を示すようにメディアインデックス番号情報INDEXの値が“2”であるビデオアトリビュートアイテムエレメントVABITMを参照し、その結果、図84(c)に示すようにユーザに表示する画面上の対応するサブビデオSUBVDの表示画面サイズと表示画面場所を規定する事が出来る。またオーディオ情報に対しても同様にオーディオアトリビュートアイテムエレメントAABITM内のメディアインデックス番号情報INDEXの値をメインオーディオエレメントMANAD又はサブオーディオエレメントSUBAD内で指定する事により音声情報の属性を指定する事が出来る。図84(a)に示す具体的な記述例では簡単化のためにメディア属性情報MDATRI内に存在するオーディオアトリビュートアイテムエレメントAABITMが1個のみしか存在せず、そのメディアインデックス番号情報INDEXの値が“1”の値になるようにしている。それに対応し、メディア属性情報内の対応したメディア属性エレメントのインデックス番号MDATNMの値が“1”に設定したメインオーディオエレメントMANADをプライマリーオーディオビデオクリップエレメントPRAVCP内に3個設定し、それぞれのメインオーディオエレメントMANADに対し、トラック番号情報TRCKATを1から3までそれぞれ設定している。また同様にメディア属性情報内の対応したメディア属性エレメントのインデックス番号MDATNMの値を“1”に設定し、トラック番号情報TRCKATの値を“4”に設定したサブオーディオエレメントSUBADをセカンダリーオーディオビデオクリップエレメントSCAVCP内に設定している。前記メインオーディオエレメントMANAD内とサブオーディオエレメントSUBAD内に設定したトラック番号情報TRCKATに対応してトラックナビゲーションインフォメーションTRNAVI内にオーディオトラックエレメントADTRKを4個配置し、それぞれのオーディオトラックエレメントADTRK毎にオーディオ言語コードとオーディオ言語コード拡張記述子ADLCEXとユーザ選択可を示すフラグUSIFLGを記述する事により、ユーザによるオーディオトラック選択がしやすいようになっている。尚、オブジェクトマッピングインフォメーションOBMAPI(トラックナンバーアサイメントインフォメーション)内の各メインオーディオエレメントMANADとサブオーディオエレメントSUBADとトラックナビゲーションインフォメーションTRNAVI内のオーディオトラックエレメントADTRKとの間は前記トラック番号情報TRCKAT(オーディオトラック番号ADTKNM)を介して互いにリンクされ、図84内における破線θ、破線ι、破線λ、及び破線κに示すような対応となっている。また図84(c)に示すアドバンストアプリケーションADAPLを表示するアプリケーション領域APPRGNの表示画面上の位置とサイズはマニフェストファイルMNFST内で記述される。すなわち図84(c)に示すアプリケーション領域APPRGNの左上端位置のカンバス座標CNVCRD値は(Xr,Yr)で表される。また図84(c)に示すようにアプリケーション領域APPRGN内の幅をrwidthで表し、高さをrheightで表す。前記アプリケーション領域APPRGNの左上端のカンバス座標CNVCRDの座標値(Xr,Yr)の値は破線νに示すようにマニフェストファイルMNFST.XMF内の領域エレメントRGNELE内で“Xr”と“Yr”で記述される。また同様にアプリケーション領域APPRGNの幅rwidthと高さrheightはアプリケーションエレメント内の領域エレメントRGNELE内のwidth属性情報の値とheight属性情報の値で記述され、一点鎖線ξと一点鎖線πにより対応が示されている。また図84(b)に示すマニフェストファイルMNFSTのファイル名と保存場所(パス)の情報は図84(a)におけるプレイリストPLLST内のタイトル情報TTINFOの中に存在するタイトルエレメント情報TTELEMに記述されるオブジェクトマッピングインフォメーションOBMAPI内のアプリケーションセグメントAPPLSGの中に記述されるアプリケーションリソースエレメントAPRELE内に記載され、図84においては一点鎖線μで関係が示されている。また図84(c)に示すプレイボタン35からFFボタン38に至る各アプリケーション領域APPRGN内の各グラフィックオブジェクト(コンテントエレメント)の表示場所と表示サイズはマークアップファイルMRKUP内に記述される。また前記マークアップファイルMRKUP.XMUのファイル名と保存場所(パス)はマニフェストファイルMNFST(アプリケーションエレメント)内のマークアップエレメントMRKELE内のsrc属性情報内に記述される。
FIG. 84 shows the relationship between the display screen example displayed to the user and the data structure in the playlist PLLST in this embodiment. The relationship between the display screen and the data structure in the playlist has already been described with reference to FIGS. However, by describing the relationship between the display screen example displayed to the user and the data structure in the playlist PLLST and the manifest file MNFST using FIG. 84, the whole can be known in an integrated manner. The full screen area displayed to the user shown in FIG. 84 (c) is called an aperture APTR. Further, the lower right coordinate value of the aperture APTR in the canvas coordinate CNVCRD shown in FIG. 40 can be represented by (Xa, Ya), and the coordinate value corresponds to the aperture size information APTRSZ. The aperture size information APTRSZ is described in the aperture element APTR in the structure information CONFGI in the playlist PLLST so as to show the correspondence relationship with the broken line α. Further, the upper left corner coordinates of the
<まとめ>
本実施形態における効果を簡潔にまとめると、以下のようになる。
<Summary>
The effects in the present embodiment are briefly summarized as follows.
1.管理情報に従い、所定のタイミングで必要なコンテンツを事前に取り込む事によりユーザへの再生・表示を途中で中断させる事なく複数の再生表示オブジェクトを同時に再生・表示が行える
2.管理情報内に時間軸に沿った再生表示のタイミング制御情報を持たせることにより、動画の表示開始/表示終了のタイミングや動画/アニメーションの切り替わりタイミングに関する複雑なプログラミングが可能となり、現行のホームページ画面に比べて飛躍的にユーザに対する表現力が向上する
なお、本発明は上記実施形態そのままに限定されるものではなく、実施段階ではその要旨を逸脱しない範囲で構成要素を変形して具体化できる。また、上記実施形態に開示されている複数の構成要素の適宜な組み合わせにより、種々の発明を形成できる。例えば、実施形態に示される全構成要素から幾つかの構成要素を削除してもよい。さらに、異なる実施形態にわたる構成要素を適宜組み合わせてもよい。
1. 1. According to the management information, a plurality of reproduction display objects can be reproduced / displayed at the same time without interrupting reproduction / display to the user by fetching necessary contents in advance at a predetermined timing. By providing timing control information for playback display along the time axis in the management information, it is possible to perform complex programming regarding the timing of video display start / display end timing and video / animation switching timing. Compared with the above-described embodiment, the present invention is not limited to the above-described embodiment. In practice, the structural elements can be modified and embodied without departing from the spirit of the present invention. In addition, various inventions can be formed by appropriately combining a plurality of components disclosed in the embodiment. For example, some components may be deleted from all the components shown in the embodiment. Furthermore, constituent elements over different embodiments may be appropriately combined.
1…情報記録再生装置、2…情報記録再生部、3…パーシステントストレージドライブ、4…録画再生処理部、5…メインCPU、6…ハードディスク装置、7−1,7−2,7−3…無線LAN制御部、8…ネットワーク制御部、9…データマネージャ、11…ルータ、12…光ケーブル、13…ディスプレイ、14…キーボード、15…大画面テレビモニタ、16−1,16−2…スピーカ、21…映像表示部、24…映像処理部。
DESCRIPTION OF
Claims (4)
前記リソースのローディングをいつ開始すべきかを示す情報と、
前記リソースに相当するネットワークコンテンツのソースを記述した情報と、
前記リソースに相当する前記ネットワークコンテンツを使用する際のネットワークスループットの最小値を記述した情報と
を有するプレイリストが記録されていることを特徴とする情報記録媒体。 Information indicating a location where a resource, which is a data unit that can be stored in the data cache, is originally stored by a URI (Uniform Resource Identifier);
Information indicating when to start loading the resource;
Information describing the source of the network content corresponding to the resource;
An information recording medium in which a playlist having information describing a minimum value of network throughput when using the network content corresponding to the resource is recorded.
前記プレイリストの内容を解析する機能と
をコンピュータに実現させることを特徴とするプログラム。 A playlist described in XML, which indicates information indicating a location where a resource, which is a data unit that can be stored in a data cache, is originally stored by a URI (Uniform Resource Identifier), and when to start loading the resource. A playlist having: information indicating the network content; information describing a source of network content corresponding to the resource; and information describing a minimum value of network throughput when using the network content corresponding to the resource. Read function,
A program for causing a computer to realize a function of analyzing the contents of the playlist.
前記プレイリストの内容をパーサーにより解析する
ことを特徴とする情報再生方法。 A playlist described in XML, which is a URI (Uniform Resource Identifier) indicating where a resource, which is a data unit that can be stored in a data cache, is originally stored, and when to start loading the resource. A playlist having: information indicating the network content; information describing a source of network content corresponding to the resource; and information describing a minimum value of network throughput when using the network content corresponding to the resource. Read by the parser,
An information reproducing method, wherein the content of the playlist is analyzed by a parser.
前記情報機器におけるネットワークスループットの設定に応じて選択されるリソースを前記情報機器がダウンロードすることを可能にする手段と
を具備することを特徴とする情報転送装置。 Information indicating a location where a resource, which is a data unit that can be stored in the data cache, is originally stored by a URI (Uniform Resource Identifier), information indicating when to start loading the resource, and a network corresponding to the resource An information device downloads a playlist having information describing a content source and information describing a minimum value of network throughput when using the network content corresponding to the resource to a data cache or a storage unit Means to enable
An information transfer apparatus comprising: means for enabling the information device to download a resource selected according to a network throughput setting in the information device.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2007306898A JP2008171401A (en) | 2007-11-28 | 2007-11-28 | Information storage medium, program, information reproducing method, and information transfer device |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2007306898A JP2008171401A (en) | 2007-11-28 | 2007-11-28 | Information storage medium, program, information reproducing method, and information transfer device |
Related Parent Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2005250305A Division JP2007065928A (en) | 2004-10-18 | 2005-08-30 | Information storage medium, information processing method, information transfer method, information reproduction method, information reproduction device, information recording method, information recording device, and program |
Publications (1)
Publication Number | Publication Date |
---|---|
JP2008171401A true JP2008171401A (en) | 2008-07-24 |
Family
ID=39699393
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2007306898A Withdrawn JP2008171401A (en) | 2007-11-28 | 2007-11-28 | Information storage medium, program, information reproducing method, and information transfer device |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP2008171401A (en) |
-
2007
- 2007-11-28 JP JP2007306898A patent/JP2008171401A/en not_active Withdrawn
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US7983526B2 (en) | Information storage medium, information reproducing apparatus, and information reproducing method | |
JP2007065928A (en) | Information storage medium, information processing method, information transfer method, information reproduction method, information reproduction device, information recording method, information recording device, and program | |
JP2007115293A (en) | Information storage medium, program, information reproducing method, information reproducing apparatus, data transfer method, and data processing method | |
JP2007048348A (en) | Information storage medium, information reproducing apparatus, information reproducing method, and information reproducing program | |
JP2007207328A (en) | Information storage medium, program, information reproducing method, information reproducing device, data transfer method, and data processing method | |
JP2008141696A (en) | Information memory medium, information recording method, information memory device, information reproduction method, and information reproduction device | |
JP2008199415A (en) | Information storage medium and device, information recording method,, and information reproducing method and device | |
JP2012234619A (en) | Information processing method, information transfer method, information control method, information service method, information display method, information processor, information reproduction device, and server | |
JP2008171401A (en) | Information storage medium, program, information reproducing method, and information transfer device | |
JP2007109354A (en) | Information storage medium, information reproducing method, and information recording method | |
JP2009301708A (en) | Information playback device and information playback method | |
JP2010211917A (en) | Device and method for reproducing information | |
JP2012048812A (en) | Information storage medium, program, information reproduction method, information reproduction device, data transfer method, and data processing method |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A761 | Written withdrawal of application |
Free format text: JAPANESE INTERMEDIATE CODE: A761 Effective date: 20080901 |