JP3988266B2 - Recording / reproducing apparatus, recording / reproducing method, and recording medium - Google Patents
Recording / reproducing apparatus, recording / reproducing method, and recording medium Download PDFInfo
- Publication number
- JP3988266B2 JP3988266B2 JP21758698A JP21758698A JP3988266B2 JP 3988266 B2 JP3988266 B2 JP 3988266B2 JP 21758698 A JP21758698 A JP 21758698A JP 21758698 A JP21758698 A JP 21758698A JP 3988266 B2 JP3988266 B2 JP 3988266B2
- Authority
- JP
- Japan
- Prior art keywords
- image
- recording
- information
- editing
- input
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Expired - Fee Related
Links
Images
Landscapes
- Studio Circuits (AREA)
- Television Signal Processing For Recording (AREA)
- Management Or Editing Of Information On Record Carriers (AREA)
Description
【0001】
【発明の属する技術分野】
本発明は、画像音声について記録再生を行うことのできる記録再生装置と、記録再生方法、及びこのような記録再生装置、方法に対応する記録媒体に関するものである。
【0002】
【従来の技術】
近年では、CCDなどを備えた撮像装置と映像音声が記録再生可能な記録再生装置とが組み合わされた携帯用のビデオカメラ装置が民生品として広く普及している状況にある。
【0003】
また、このようなビデオカメラの普及に伴って、ユーザ自身が撮影により録画した映像ソースを単に再生して鑑賞するだけではなく、録画された映像ソースについて編集を行うことで、より鑑賞に堪えうる作品として仕上げたいといった要望も強くなってきている。
【0004】
【発明が解決しようとする課題】
ところが現状では、一般のユーザが編集を行おうと思った場合には、別途専用の編集機器を購入して使用したり、あるいはパーソナルコンピュータなどで画像処理ソフトを利用するなどするほかなく、手軽さが思うように得られないと共に、経済的な負担も強いられている。
【0005】
また、上記のような編集機器や画像処理ソフトを利用して編集を行ったとしても、質の高い作品ができるとは必ずしも言えないという側面がある。つまり、一般のユーザは、編集のノウハウについてはよく知らないという場合が通常とされるからである。
【0006】
【課題を解決するための手段】
そこで本発明は上記した課題を考慮して、一般のビデオカメラ等のユーザによっても、手軽な編集作業で相応の品質の映像作品が得られるようにすることを目的とする。
【0007】
このため、少なくとも、編集素材情報の入力を指示するユーザインターフェイス画像の表示を実現する入力指示プログラムと、この入力指示プログラムにより獲得した編集素材情報を利用して予め設定された脚本に従った画像及び音声出力を行うための編集処理を実現する編集プログラムと、所定のプログラム言語により記述されて画像及び音声についての再生出力態様を規定するスクリプトファイルと、画像情報と、音声情報とが記録される記録媒体に対応して記録又は再生を行うことのできる記録再生装置として、記録媒体から再生した入力指示プログラムに従って、ユーザインターフェイス画像の表示出力を行う表示制御手段と、ユーザインターフェイス画像にて表示される指示内容に従って所要の情報を入力するための操作が行われる操作手段と、撮像画像を得る撮像手段と、ユーザインターフェイス画像にて表示される指示内容に従って、上記撮像手段により得た撮像画像を上記画像情報として上記記録媒体に対して記録する画像記録手段と、音声を収音する収音手段と、ユーザインターフェイス画像による指示に従って上記収音手段により収音された音声を音声情報として記録媒体に記録する音声記録手段と、記録媒体から再生した編集プログラムに従った編集処理として、操作手段により入力された情報と、画像記録手段と音声記録手段により記録媒体に記録された画像情報、音声情報とを編集素材情報として利用し、脚本に従った画像及び音声出力が得られるための記述がされた編集用スクリプトファイルを自動的に生成して記録媒体に記録するスクリプトファイル生成/記録手段と、記録媒体から再生した上記編集用スクリプトファイルの記述内容に従って、記録媒体に記録されている画像情報、音声情報についての再生、及び所要の画像/音声信号処理を実行して、画像及び音声出力を行うようにされた再生手段とを備えて構成することとした。
【0008】
また、記録再生方法として、編集素材情報の入力を指示するユーザインターフェイス画像の表示を実現する入力指示プログラムに基づいて、このユーザインターフェイス画像の表示出力を行う表示制御処理と、ユーザインターフェイス画像にて表示される指示内容に応じて行われた操作により入力された情報を獲得する入力情報獲得処理と、ユーザインターフェイス画像にて表示される指示内容に従って撮像手段により撮像した画像を上記画像情報として上記記録媒体に対して記録する画像記録処理と、ユーザインターフェイス画像による指示に従って収音手段により収音された音声を音声情報として記録媒体に記録する音声記録処理と、入力指示プログラムにより獲得した編集素材情報を利用して予め設定された脚本に従った画像及び音声出力を行うための編集処理を実現する編集プログラムに従って入力情報獲得処理により得た情報と画像記録処理と上記音声記録処理により記録媒体に記録された画像情報、音声情報とを編集素材情報として利用し、脚本に従った画像及び音声出力が得られるための記述がされた編集用スクリプトファイルを自動的に生成して記録媒体に記録するスクリプトファイル生成/記録処理と、記録媒体から再生した編集用スクリプトファイルの記述内容に従って記録媒体に記録されている画像情報、音声情報についての再生、及び所要の画像/音声信号処理を実行して画像及び音声出力を行う再生処理とを実行可能に構成することとした。
【0009】
また、記録媒体として、少なくとも、編集素材情報の入力を指示するユーザインターフェイス画像の表示を実現する入力指示プログラムが記録可能とされる記録領域と、この入力指示プログラムにより獲得した編集素材情報を利用して予め設定された脚本に従った画像及び音声出力を行うための編集処理を実現する編集プログラムが記録可能とされる記録領域と、ユーザインターフェイス画像にて表示される指示内容に応じて得られたとされる編集素材情報として、画像情報、音声情報、文字情報が記録可能とされる記録領域と、所定のプログラム言語により記述されて画像及び音声についての再生出力態様を規定するものであって、編集プログラムの編集処理のもとで生成され、編集素材情報を利用することで脚本に従った画像及び音声出力を実現するための記述内容を有するスクリプトファイルが記録される記録領域とが記録される記録領域とを設定することとした。
【0010】
上記構成によれば、編集用プログラムに従って編集に必要な入力情報の入力を促すガイド機能としてのGUI(Graphical User Interface)が表示され、ユーザはこのガイドに従って入力操作、及び撮影/録音等を行うようにされる。そして、これまでの入力操作に応じた編集処理として、これまでに入力情報として録画、録音された画像/音声ソースについて各種編集効果(再生出力態様)を与えるためのスクリプトが自動的に生成される。つまり、ガイド機能のもとでユーザが行った入力操作により得られた情報と、撮影/録音により得られた編集素材とを利用して、自動的に編集処理が行われるように構成される。
【0011】
【発明の実施の形態】
以下、本発明の実施の形態の画像処理装置について説明していく。本実施の形態の画像処理装置としては、カメラ装置部と画像(静止画又は動画)及び音声の記録再生が可能な記録再生装置部とが一体化された可搬型のビデオカメラに搭載されている場合を例にあげる。また、本例のビデオカメラに搭載される記録再生装置部は、光磁気ディスクの一種として知られている、いわゆるミニディスクに対応してデータを記録再生する構成を採るものとされる。
説明は次の順序で行う。
1.ディスクフォーマット
2.ビデオカメラの外観構成
3.ビデオカメラの内部構成
4.メディアドライブ部の構成
5.本実施の形態に対応するディスク構造例
6.サムネイル画像生成処理
7.スクリプト概要
8.本実施の形態の編集処理
8−1.ガイド機能に従った情報入力
8−2.編集処理
【0012】
1.ディスクフォーマット
本例のビデオカメラに搭載される記録再生装置部は、ミニディスク(光磁気ディスク)に対応してデータの記録/再生を行う、MDデータといわれるフォーマットに対応しているものとされる。このMDデータフォーマットとしては、MD−DATA1とMD−DATA2といわれる2種類のフォーマットが開発されているが、本例のビデオカメラは、MD−DATA1よりも高密度記録が可能とされるMD−DATA2のフォーマットに対応して記録再生を行うものとされている。そこで、先ずMD−DATA2のディスクフォーマットについて説明する。
【0013】
図1及び図2は、MD−DATA2としてのディスクのトラック構造例を概念的に示している。図2(a)(b)は、それぞれ図1の破線Aで括った部分を拡大して示す断面図及び平面図である。
これらの図に示すように、ディスク面に対してはウォブル(蛇行)が与えられたウォブルドグルーブWGと、ウォブルが与えられていないノンウォブルドグルーブNWGとの2種類のグルーブ(溝)が予め形成される。そして、これらウォブルドグルーブWGとノンウォブルドグルーブNWGは、その間にランドLdを形成するようにしてディスク上において2重のスパイラル状に存在する。
【0014】
MD−DATA2フォーマットでは、ランドLdがトラックとして利用されるのであるが、上記のようにしてウォブルドグルーブWGとノンウォブルドグルーブNWGが形成されることから、トラックとしてもトラックTr・A,Tr・Bの2つのトラックがそれぞれ独立して、2重のスパイラル(ダブルスパイラル)状に形成されることになる。
トラックTr・Aは、ディスク外周側にウォブルドグルーブWGが位置し、ディスク内周側にノンウォブルドグルーブNWGが位置するトラックとなる。
これに対してトラックTr・Bは、ディスク内周側にウォブルドグルーブWGが位置し、ディスク外周側にノンウォブルドグルーブNWGが位置するトラックとなる。
つまり、トラックTr・Aに対してはディスク外周側の片側のみにウォブルが形成され、トラックTr・Bとしてはディスク内周側の片側のみにウォブルが形成されるようにしたものとみることができる。
この場合、トラックピッチは、互いに隣接するトラックTr・AとトラックTr・Bの各センター間の距離となり、図2(b)に示すようにトラックピッチは0.95μmとされている。
【0015】
ここで、ウォブルドグルーブWGとしてのグルーブに形成されたウォブルは、ディスク上の物理アドレスがFM変調+バイフェーズ変調によりエンコードされた信号に基づいて形成されているものである。このため、記録再生時においてウォブルドグルーブWGに与えられたウォブリングから得られる再生情報を復調処理することで、ディスク上の物理アドレスを抽出することが可能となる。
また、ウォブルドグルーブWGとしてのアドレス情報は、トラックTr・A,Tr・Bに対して共通に有効なものとされる。つまり、ウォブルドグルーブWGを挟んで内周に位置するトラックTr・Aと、外周に位置するトラックTr・Bは、そのウォブルドグルーブWGに与えられたウォブリングによるアドレス情報を共有するようにされる。
なお、このようなアドレッシング方式はインターレースアドレッシング方式ともいわれる。このインターレースアドレッシング方式を採用することで、例えば、隣接するウォブル間のクロストークを抑制した上でトラックピッチを小さくすることが可能となるものである。また、グルーブに対してウォブルを形成することでアドレスを記録する方式については、ADIP(Adress In Pregroove) 方式ともいう。
【0016】
また、上記のようにして同一のアドレス情報を共有するトラックTr・A,Tr・Bの何れをトレースしているのかという識別は次のようにして行うことができる。
例えば3ビーム方式を応用し、メインビームがトラック(ランドLd)をトレースしている状態では、残る2つのサイドビームは、上記メインビームがトレースしているトラックの両サイドに位置するグルーブをトレースしているようにすることが考えられる。
【0017】
図2(b)には、具体例として、メインビームスポットSPmがトラックTr・Aをトレースしている状態が示されている。この場合には、2つのサイドビームスポットSPs1,SPs2のうち、内周側のサイドビームスポットSPs1はノンウォブルドグルーブNWGをトレースし、外周側のサイドビームスポットSPs2はウォブルドグルーブWGをトレースすることになる。
これに対して、図示しないが、メインビームスポットSPmがトラックTr・Bをトレースしている状態であれば、サイドビームスポットSPs1がウォブルドグルーブWGをトレースし、サイドビームスポットSPs2がノンウォブルドグルーブNWGをトレースすることになる。
このように、メインビームスポットSPmが、トラックTr・Aをトレースする場合とトラックTr・Bをトレースする場合とでは、サイドビームスポットSPs1,SPs2がトレースすべきグルーブとしては、必然的にウォブルドグルーブWGとノンウォブルドグルーブNWGとで入れ替わることになる。
【0018】
サイドビームスポットSPs1,SPs2の反射によりフォトディテクタにて得られる検出信号としては、ウォブルドグルーブWGとノンウォブルドグルーブNWGの何れをトレースしているのかで異なる波形が得られることから、上記検出信号に基づいて、例えば、現在サイドビームスポットSPs1,SPs2のうち、どちらがウォブルドグルーブWG(あるいはノンウォブルドグルーブNWG)をトレースしているのかを判別することにより、メインビームがトラックTr・A,Tr・Bのどちらをトレースしているのかが識別できることになる。
【0019】
図3は、上記のようなトラック構造を有するMD−DATA2フォーマットのの主要スペックをMD−DATA1フォーマットと比較して示す図である。
先ず、MD−DATA1フォーマットとしては、トラックピッチは1.6μm、ピット長は0.59μm/bitとなる。また、レーザ波長λ=780nmとされ、光学ヘッドの開口率NA=0.45とされる。
記録方式としては、グルーブ記録方式を採っている。つまり、グルーブをトラックとして記録再生に用いるようにしている。
アドレス方式としては、シングルスパイラルによるグルーブ(トラック)を形成したうえで、このグルーブの両側に対してアドレス情報としてのウォブルを形成したウォブルドグルーブを利用する方式を採るようにされている。
【0020】
記録データの変調方式としてはEFM(8−14変換)方式を採用している。また、誤り訂正方式としてはACIRC(Advanced Cross Interleave Reed-Solomon Code) が採用され、データインターリーブには畳み込み型を採用している。このため、データの冗長度としては46.3%となる。
【0021】
また、MD−DATA1フォーマットでは、ディスク駆動方式としてCLV(Constant Linear Verocity)が採用されており、CLVの線速度としては、1.2m/sとされる。
そして、記録再生時の標準のデータレートとしては、133kB/sとされ、記録容量としては、140MBとなる。
【0022】
これに対して、本例のビデオカメラが対応できるMD−DATA2フォーマットとしては、トラックピッチは0.95μm、ピット長は0.39μm/bitとされ、共にMD−DATA1フォーマットよりも短くなっていることが分かる。そして、例えば上記ピット長を実現するために、レーザ波長λ=650nm、光学ヘッドの開口率NA=0.52として、合焦位置でのビームスポット径を絞ると共に光学系としての帯域を拡げている。
【0023】
記録方式としては、図1及び図2により説明したように、ランド記録方式が採用され、アドレス方式としてはインターレースアドレッシング方式が採用される。また、記録データの変調方式としては、高密度記録に適合するとされるRLL(1,7)方式(RLL;Run Length Limited)が採用され、誤り訂正方式としてはRS−PC方式、データインターリーブにはブロック完結型が採用される。そして、上記各方式を採用した結果、データの冗長度としては、19.7%にまで抑制することが可能となっている。
【0024】
MD−DATA2フォーマットにおいても、ディスク駆動方式としてはCLVが採用されるのであるが、その線速度としては2.0m/sとされ、記録再生時の標準のデータレートとしては589kB/sとされる。そして、記録容量としては650MBを得ることができ、MD−DATA1フォーマットと比較した場合には、4倍強の高密度記録化が実現されたことになる。
例えば、MD−DATA2フォーマットにより動画像の記録を行うとして、動画像データについてMPEG2による圧縮符号化を施した場合には、符号化データのビットレートにも依るが、時間にして15分〜17分の動画を記録することが可能とされる。また、音声信号データのみを記録するとして、音声データについてATRAC(Adaptve Transform Acoustic Coding) 2による圧縮処理を施した場合には、時間にして10時間程度の記録を行うことができる。
【0025】
2.ビデオカメラの外観構成
図6(a)(b)(c)は、本例のビデオカメラの外観例を示す側面図、平面図及び背面図である。
これらの図に示すように、本例のビデオカメラの本体200には、撮影を行うための撮像レンズや絞りなどを備えたカメラレンズ201が表出するようにして設けられ、また、例えば、本体200の上面部においては、撮影時において外部の音声を収音するための左右一対のマイクロフォン202が設けられている。つまり、このビデオカメラでは、カメラレンズ201により撮影した画像の録画と、マイクロフォン202により収音したステレオ音声の録音を行うことが可能とされている。
【0026】
また、本体200の側面側には、表示部6A、スピーカ205、インジケータ206が備えられている。表示部6Aは、撮影画像、及び内部の記録再生装置により再生された画像等を表示出力する部位とされる。なお、表示部6Aとして実際に採用する表示デバイスとしては、ここでは特に限定されるものではないが、例えば液晶ディスプレイ等が用いられればよい。また、表示部6Aには、機器の動作に応じて所要のメッセージをユーザに知らせるための文字やキャラクタ等によるメッセージ表示等も行われるものとされる。
スピーカ205からは録音した音声の再生時に、その再生音声が出力される他、例えばビープ音等による所要のメッセージ音声の出力等も行われる。
またインジケータ206は、例えば記録動作中に発光され、ユーザーにビデオカメラが記録動作中であることを示す。
【0027】
本体200の背面側には、ビューファインダ204が設けられており、記録動作中及びスタンバイ中において、カメラレンズ201から取り込まれる画像及びキャラクタ画像等が表示される。ユーザーはこのビューファインダ204をみながら撮影を行うことができる。
さらにディスクスロット203、ビデオ出力端子T1、ヘッドフォン/ライン端子T2、I/F端子T3が設けられる。ディスクスロット203は、本例のビデオカメラが対応する記録媒体としてのディスクが挿入、あるいは排出されるためのスロット部分とされる。ビデオ出力端子T1は、外部の映像機器に対して再生画像信号等を出力する端子、ヘッドフォン/ライン端子T2は外部の音声機器やヘッドホンに対して再生音声信号を出力する端子である。I/F端子T3は、例えば外部のデータ機器とデータ伝送を行うためのインターフェイスの入出力端子とされる。
【0028】
さらに、本体200の各部には、ユーザー操作のための各種の操作子(300301,及び304〜310)が設けられる。
メインダイヤル300は、ビデオカメラのオン/オフ、記録動作、再生動作を設定する操作子である。メインダイヤルが図示するように「OFF」の位置にあるときは電源オフとされており、「STBY」の位置に回動されることで、電源オンとなって記録動作のスタンバイ状態となる。また、「PB」の位置に回動されることで、電源オンとなって再生動作のスタンバイ状態となる。
【0029】
レリーズキー301は、記録スタンバイ状態にある際において、記録開始や記録シャッタの操作子として機能する。
【0030】
ズームキー304は、画像撮影に関してのズーム状態(テレ側〜ワイド側)を操作する操作子である。
イジェクトキー305は、ディスクスロット203内に装填されているディスクを排出させるための操作子である。
再生/一時停止キー306、停止キー307、サーチキー308,309は、ディスクに対する再生時の各種操作のために用意されている。
【0031】
十字/クリックキー310は、ユーザが、後述するサムネイル表示画面上でポインタ表示を左右上下方向に移動させるために用いられる。また、この場合には、このキーの中央部分を押圧操作することで、クリック操作を行うことが出来るようになっているものとされる。
ジョグダイヤル311は、各操作モードの下で回転操作を行うことで所要の選択操作や入力操作を行うためのキーとされる。例えば文字入力モードとされている状態の下では、このジョグダイヤル311を回転操作することで、入力すべき文字を選択することが可能となる。入力文字を確定する場合には、例えばこのジョグダイヤル311に対して押圧操作(クリック操作)を行うようにされればよい。
【0032】
なお、図6に示すビデオカメラの外観はあくまでも一例であって、実際に本例のビデオカメラに要求される使用条件等に応じて適宜変更されて構わないものである。もちろん操作子の種類や操作方式、さらに外部機器との接続端子類などは各種多様に考えられる。
【0033】
3.ビデオカメラの内部構成
図4は、本例のビデオカメラの内部構成例を示すブロック図である。
この図に示すレンズブロック1においては、例えば実際には撮像レンズや絞りなどを備えて構成される光学系11が備えられている。上記図6に示したカメラレンズ201は、この光学系11に含まれる。また、このレンズブロック1には、光学系11に対してオートフォーカス動作を行わせるためのフォーカスモータや、上記ズームキー304の操作に基づくズームレンズの移動を行うためのズームモータなどが、モータ部12として備えられる。
【0034】
カメラブロック2には、主としてレンズブロック1により撮影した画像光をデジタル画像信号に変換するための回路部が備えられる。
このカメラブロック2のCCD(Charge Coupled Device) 21に対しては、光学系11を透過した被写体の光画像が与えられる。CCD21においては上記光画像について光電変換を行うことで撮像信号を生成し、サンプルホールド/AGC(Automatic Gain Control)回路22に供給する。サンプルホールド/AGC回路22では、CCD21から出力された撮像信号についてゲイン調整を行うと共に、サンプルホールド処理を施すことによって波形整形を行う。サンプルホールド/AGC回路2の出力は、ビデオA/Dコンバータ23に供給されることで、デジタルとしての画像信号データに変換される。
【0035】
上記CCD21、サンプルホールド/AGC回路22、ビデオA/Dコンバータ23における信号処理タイミングは、タイミングジェネレータ24にて生成されるタイミング信号により制御される。タイミングジェネレータ24では、後述するデータ処理/システムコントロール回路31(ビデオ信号処理回部3内)にて信号処理に利用されるクロックを入力し、このクロックに基づいて所要のタイミング信号を生成するようにされる。これにより、カメラブロック2における信号処理タイミングを、ビデオ信号処理部3における処理タイミングと同期させるようにしている。
カメラコントローラ25は、カメラブロック2内に備えられる上記各機能回路部が適正に動作するように所要の制御を実行すると共に、レンズブロック1に対してオートフォーカス、自動露出調整、絞り調整、ズームなどのための制御を行うものとされる。
例えばオートフォーカス制御であれば、カメラコントローラ25は、所定のオートフォーカス制御方式に従って得られるフォーカス制御情報に基づいて、フォーカスモータの回転角を制御する。これにより、撮像レンズはジャストピント状態となるように駆動されることになる。
【0036】
ビデオ信号処理部3は、記録時においては、カメラブロック2から供給されたデジタル画像信号、及びマイクロフォン202により集音したことで得られるデジタル音声信号について圧縮処理を施し、これら圧縮データをユーザ記録データとして後段のメディアドライブ部4に供給する。さらにカメラブロック2から供給されたデジタル画像信号とキャラクタ画像により生成した画像をビューファインダドライブ部207に供給し、ビューファインダ204に表示させる。
また、再生時においては、メディアドライブ部4から供給されるユーザ再生データ(ディスク51からの読み出しデータ)、つまり圧縮処理された画像信号データ及び音声信号データについて復調処理を施し、これらを再生画像信号、再生音声信号として出力する。
【0037】
なお本例において、画像信号データ(画像データ)の圧縮/伸張処理方式としては、動画像についてはMPEG(Moving Picture Experts Group)2を採用し、静止画像についてはJPEG(Joint Photographic Coding Experts Group) を採用しているものとする。また、音声信号デーのタ圧縮/伸張処理方式には、ATRAC(Adaptve Transform Acoustic Coding) 2を採用するものとする。
【0038】
ビデオ信号処理部3のデータ処理/システムコントロール回路31は、主として、当該ビデオ信号処理部3における画像信号データ及び音声信号データの圧縮/伸張処理に関する制御処理と、ビデオ信号処理部3を経由するデータの入出力を司るための処理を実行する。
また、データ処理/システムコントロール回路31を含むビデオ信号処理部3全体についての制御処理は、ビデオコントローラ38が実行するようにされる。このビデオコントローラ38は、例えばマイクロコンピュータ等を備えて構成され、カメラブロック2のカメラコントローラ25、及び後述するメディアドライブ部4のドライバコントローラ46と、例えば図示しないバスライン等を介して相互通信可能とされている。
【0039】
ビデオ信号処理部3における記録時の基本的な動作として、データ処理/システムコントロール回路31には、カメラブロック2のビデオA/Dコンバータ23から供給された画像信号データが入力される。データ処理/システムコントロール回路31では、入力された画像信号データを例えば動き検出回路35に供給する。動き検出回路35では、例えばメモリ36を作業領域として利用しながら入力された画像信号データについて動き補償等の画像処理を施した後、MPEG2ビデオ信号処理回路33に供給する。
【0040】
MPEG2ビデオ信号処理回路33においては、例えばメモリ34を作業領域として利用しながら、入力された画像信号データについてMPEG2のフォーマットに従って圧縮処理を施し、動画像としての圧縮データのビットストリーム(MPEG2ビットストリーム)を出力するようにされる。また、MPEG2ビデオ信号処理回路33では、例えば動画像としての画像信号データから静止画としての画像データを抽出してこれに圧縮処理を施す際には、JPEGのフォーマットに従って静止画としての圧縮画像データを生成するように構成されている。なお、JPEGは採用せずに、MPEG2のフォーマットによる圧縮画像データとして、正規の画像データとされるIピクチャ(Intra Picture) を静止画の画像データとして扱うことも考えられる。
MPEG2ビデオ信号処理回路33により圧縮符号化された画像信号データ(圧縮画像データ)は、例えば、バッファメモリ32に対して所定の転送レートにより書き込まれて一時保持される。
なおMPEG2のフォーマットにおいては、周知のようにいわゆる符号化ビットレート(データレート)として、一定速度(CBR;Constant Bit Rate)と、可変速度(VBR;Variable Bit Rate)の両者がサポートされており、ビデオ信号処理部3ではこれらに対応できるものとしている。
【0041】
例えばVBRによる画像圧縮処理を行う場合には、例えば、動き検出回路35において、画像データをマクロブロック単位により前後数十〜数百フレーム内の範囲で動き検出を行って、動きありとされればこの検出結果を動きベクトル情報としてMPEG2ビデオ信号処理回路33に伝送する。
MPEG2ビデオ信号処理回路33では、圧縮符号化後の画像データをある所要のデータレートとするように、上記動きベクトル情報をはじめとする所要の情報を利用しながら、マクロブロックごとの量子化係数を決定していくようにされる。
【0042】
音声圧縮エンコーダ/デコーダ37には、A/Dコンバータ64(表示/画像/音声入出力部6内)を介して、例えばマイクロフォン202により集音された音声がデジタルによる音声信号データとして入力される。
音声圧縮エンコーダ/デコーダ37では、前述のようにATRAC2のフォーマットに従って入力された音声信号データに対する圧縮処理を施す。この圧縮音声信号データもまた、データ処理/システムコントロール回路31によってバッファメモリ32に対して所定の転送レートによる書き込みが行われ、ここで一時保持される。
【0043】
上記のようにして、バッファメモリ32には、圧縮画像データ及び圧縮音声信号データが蓄積可能とされる。バッファメモリ32は、主として、カメラブロック2あるいは表示/画像/音声入出力部6とバッファメモリ32間のデータ転送レートと、バッファメモリ32とメディアドライブ部4間のデータ転送レートの速度差を吸収するための機能を有する。
バッファメモリ32に蓄積された圧縮画像データ及び圧縮音声信号データは、記録時であれば、順次所定タイミングで読み出しが行われて、メディアドライブ部4のMD−DATA2エンコーダ/デコーダ41に伝送される。ただし、例えば再生時においてバッファメモリ32に蓄積されたデータの読み出しと、この読み出したデータをメディアドライブ部4からデッキ部5を介してディスク51に記録するまでの動作は、間欠的に行われても構わない。
このようなバッファメモリ32に対するデータの書き込み及び読み出し制御は、例えば、データ処理/システムコントロール回路31によって実行される。
【0044】
ビデオ信号処理部3における再生時の動作としては、概略的に次のようになる。
再生時には、ディスク51から読み出され、MD−DATA2エンコーダ/デコーダ41(メディアドライブ部4内)の処理によりMD−DATA2フォーマットに従ってデコードされた圧縮画像データ、圧縮音声信号データ(ユーザ再生データ)が、データ処理/システムコントロール回路31に伝送されてくる。
データ処理/システムコントロール回路31では、例えば入力した圧縮画像データ及び圧縮音声信号データを、一旦バッファメモリ32に蓄積させる。そして、例えば再生時間軸の整合が得られるようにされた所要のタイミング及び転送レートで、バッファメモリ32から圧縮画像データ及び圧縮音声信号データの読み出しを行い、圧縮画像データについてはMPEG2ビデオ信号処理回路33に供給し、圧縮音声信号データについては音声圧縮エンコーダ/デコーダ37に供給する。
【0045】
MPEG2ビデオ信号処理回路33では、入力された圧縮画像データについて伸張処理を施して、データ処理/システムコントロール回路31に伝送する。データ処理/システムコントロール回路31では、この伸張処理された画像信号データを、ビデオD/Aコンバータ61(表示/画像/音声入出力部6内)に供給する。
音声圧縮エンコーダ/デコーダ37では、入力された圧縮音声信号データについて伸張処理を施して、D/Aコンバータ65(表示/画像/音声入出力部6内)に供給する。
【0046】
表示/画像/音声入出力部6においては、ビデオD/Aコンバータ61に入力された画像信号データは、ここでアナログ画像信号に変換され、表示コントローラ62及びコンポジット信号処理回路63に対して分岐して入力される。
表示コントローラ62では、入力された画像信号に基づいて表示部6Aを駆動する。これにより、表示部6Aにおいて再生画像の表示が行われる。また、表示部6Aにおいては、ディスク51から再生して得られる画像の表示だけでなく、当然のこととして、レンズブロック1及びカメラブロック2からなるカメラ部位により撮影して得られた撮像画像も、ほぼリアルタイムで表示出力させることが可能である。
また、再生画像及び撮像画像の他、前述のように、機器の動作に応じて所要のメッセージをユーザに知らせるための文字やキャラクタ等によるメッセージ表示も行われるものとされる。このようなメッセージ表示は、例えばビデオコントローラ38の制御によって、所要の文字やキャラクタ等が所定の位置に表示されるように、データ処理/システムコントロール回路31からビデオD/Aコンバータ61に出力すべき画像信号データに対して、所要の文字やキャラクタ等の画像信号データを合成する処理を実行するようにすればよい。つまり、本例では、ビデオコントローラ38とデータ処理/システムコントロール回路31とにより、キャラクタジェネレータと、オンスクリーンディスプレイの機能を有するものとされる。
【0047】
コンポジット信号処理回路63では、ビデオD/Aコンバータ61から供給されたアナログ画像信号についてコンポジット信号に変換して、ビデオ出力端子T1に出力する。例えば、ビデオ出力端子T1を介して、外部モニタ装置等と接続を行えば、当該ビデオカメラで再生した画像を外部モニタ装置により表示させることが可能となる。
【0048】
また、表示/画像/音声入出力部6において、音声圧縮エンコーダ/デコーダ37からD/Aコンバータ65に入力された音声信号データは、ここでアナログ音声信号に変換され、ヘッドフォン/ライン端子T2に対して出力される。また、D/Aコンバータ65から出力されたアナログ音声信号は、アンプ66を介してスピーカSPに対しても分岐して出力され、これにより、スピーカSPからは、再生音声等が出力されることになる。
【0049】
メディアドライブ部4では、主として、記録時にはMD−DATA2フォーマットに従って記録データをディスク記録に適合するようにエンコードしてデッキ部5に伝送し、再生時においては、デッキ部5においてディスク51から読み出されたデータについてデコード処理を施すことで再生データを得て、ビデオ信号処理部3に対して伝送する。
【0050】
このメディアドライブ部4のMD−DATA2エンコーダ/デコーダ41は、記録時においては、データ処理/システムコントロール回路31から記録データ(圧縮画像データ+圧縮音声信号データ)が入力され、この記録データについて、MD−DATA2フォーマットに従った所定のエンコード処理を施し、このエンコードされたデータを一時バッファメモリ42に蓄積する。そして、所要のタイミングで読み出しを行いながらデッキ部5に伝送する。
【0051】
再生時においては、ディスク51から読み出され、RF信号処理回路44、二値化回路43を介して入力されたデジタル再生信号について、MD−DATA2フォーマットに従ったデコード処理を施して、再生データとしてビデオ信号処理部3のデータ処理/システムコントロール回路31に対して伝送する。
なお、この際においても、必要があれば再生データを一旦バッファメモリ42に蓄積し、ここから所要のタイミングで読み出したデータをデータ処理/システムコントロール回路31に伝送出力するようにされる。このような、バッファメモリ42に対する書き込み/読み出し制御はドライバコントローラ46が実行するものとされる。
なお、例えばディスク51の再生時において、外乱等によってサーボ等が外れて、ディスクからの信号の読み出しが不可となったような場合でも、バッファメモリ42に対して読み出しデータが蓄積されている期間内にディスクに対する再生動作を復帰させるようにすれば、再生データとしての時系列的連続性を維持することが可能となる。
【0052】
RF信号処理回路44には、ディスク51からの読み出し信号について所要の処理を施すことで、例えば、再生データとしてのRF信号、デッキ部5に対するサーボ制御のためのフォーカスエラー信号、トラッキングエラー信号等のサーボ制御信号を生成する。RF信号は、上記のように二値化回路43により2値化され、デジタル信号データとしてMD−DATA2エンコーダ/デコーダ41に入力される。
また、生成された各種サーボ制御信号はサーボ回路45に供給される。サーボ回路45では、入力したサーボ制御信号に基づいて、デッキ部5における所要のサーボ制御を実行する。
【0053】
なお、本例においては、MD−DATA1フォーマットに対応するエンコーダ/デコーダ47を備えており、ビデオ信号処理部3から供給された記録データを、MD−DATA1フォーマットに従ってエンコードしてディスク51に記録すること、或いは、ディスク51からの読み出しデータがMD−DATA1フォーマットに従ってエンコードされているものについては、そのデコード処理を行って、ビデオ信号処理部3に伝送出力することも可能とされている。つまり本例のビデオカメラとしては、MD−DATA2フォーマットとMD−DATA1フォーマットとについて互換性が得られるように構成されている。
ドライバコントローラ46は、メディアドライブ部4を総括的に制御するための機能回路部とされる。
【0054】
デッキ部5は、ディスク51を駆動するための機構からなる部位とされる。ここでは図示しないが、デッキ部5においては、装填されるべきディスク51が着脱可能とされ、ユーザの作業によって交換が可能なようにされた機構(ディスクスロット203(図6参照))を有しているものとされる。また、ここでのディスク51は、MD−DATA2フォーマット、あるいはMD−DATA1フォーマットに対応する光磁気ディスクであることが前提となる。
【0055】
デッキ部5においては、装填されたディスク51をCLVにより回転駆動するスピンドルモータ52によって、CLVにより回転駆動される。このディスク51に対しては記録/再生時に光学ヘッド53によってレーザ光が照射される。
光学ヘッド53は、記録時には記録トラックをキュリー温度まで加熱するための高レベルのレーザ出力を行ない、また再生時には磁気カー効果により反射光からデータを検出するための比較的低レベルのレーザ出力を行なう。このため、光学ヘッド53には、ここでは詳しい図示は省略するがレーザ出力手段としてのレーザダイオード、偏光ビームスプリッタや対物レンズ等からなる光学系、及び反射光を検出するためのディテクタが搭載されている。光学ヘッド53に備えられる対物レンズとしては、例えば2軸機構によってディスク半径方向及びディスクに接離する方向に変位可能に保持されている。
【0056】
また、ディスク51を挟んで光学ヘッド53と対向する位置には磁気ヘッド54が配置されている。磁気ヘッド54は記録データによって変調された磁界をディスク51に印加する動作を行なう。
また、図示しないが、デッキ部5においては、スレッドモータ55により駆動されるスレッド機構が備えられている。このスレッド機構が駆動されることにより、上記光学ヘッド53全体及び磁気ヘッド54はディスク半径方向に移動可能とされている。
【0057】
操作部7は図6に示した各操作子300〜311等に相当し、これらの操作子によるユーザの各種操作情報は例えばビデオコントローラ38に供給される。ビデオコントローラ38は、ユーザー操作に応じた必要な動作が各部において実行されるようにするための操作情報、制御情報をカメラコントローラ25、ドライバコントローラ46に対して供給する。
【0058】
外部インターフェイス8は、当該ビデオカメラと外部機器とでデータを相互伝送可能とするために設けられており、例えば図のようにI/F端子T3とビデオ信号処理部間に対して設けられる。なお、外部インターフェイス8としてはここでは特に限定されるものではないが、例えばIEEE1394等が採用されればよい。
例えば、外部のデジタル画像機器と本例のビデオカメラをI/F端子T3を介して接続した場合、ビデオカメラで撮影した画像(音声)を外部デジタル画像機器に録画したりすることが可能となる。また、外部デジタル画像機器にて再生した画像(音声)データ等を、外部インターフェイス8を介して取り込むことにより、MD−DATA2(或いはMD−DATA1)フォーマットに従ってディスク51に記録するといったことも可能となる。更には、例えばキャプションの挿入などに利用する文字情報としてのファイルも取り込んで記録することが可能となる。
【0059】
電源ブロック9は、内蔵のバッテリにより得られる直流電源あるいは商用交流電源から生成した直流電源を利用して、各機能回路部に対して所要のレベルの電源電圧を供給する。電源ブロック9による電源オン/オフは、上述したメインダイヤル300の操作に応じてビデオコントローラ38が制御する。
また記録動作中はビデオコントローラ38はインジケータ206の発光動作を実行させる。
【0060】
4.メディアドライブ部の構成
続いて、図4に示したメディアドライブ部4の構成として、MD−DATA2に対応する機能回路部を抽出した詳細な構成について、図5のブロック図を参照して説明する。なお、図5においては、メディアドライブ部4と共にデッキ部5を示しているが、デッキ部5の内部構成については図4により説明したため、ここでは、図4と同一符号を付して説明を省略する。また、図5に示すメディアドライブ部4において図4のブロックに相当する範囲に同一符号を付している。
【0061】
光学ヘッド53のディスク51に対するデータ読み出し動作によりに検出された情報(フォトディテクタによりレーザ反射光を検出して得られる光電流)は、RF信号処理回路44内のRFアンプ101に供給される。
RFアンプ101では入力された検出情報から、再生信号としての再生RF信号を生成し、二値化回路43に供給する。二値化回路43は、入力された再生RF信号について二値化を行うことにより、デジタル信号化された再生RF信号(二値化RF信号)を得る。
この二値化RF信号はMD−DATA2エンコーダ/デコーダ41に供給され、まずAGC/クランプ回路103を介してゲイン調整、クランプ処理等が行われた後、イコライザ/PLL回路104に入力される。
イコライザ/PLL回路104では、入力された二値化RF信号についてイコライジング処理を施してビタビデコーダ105に出力する。また、イコライジング処理後の二値化RF信号をPLL回路に入力することにより、二値化RF信号(RLL(1,7)符号列)に同期したクロックCLKを抽出する。
【0062】
クロックCLKの周波数は現在のディスク回転速度に対応する。このため、CLVプロセッサ111では、イコライザ/PLL回路104からクロックCLKを入力し、所定のCLV速度(図3参照)に対応する基準値と比較することにより誤差情報を得て、この誤差情報をスピンドルエラー信号SPEを生成するための信号成分として利用する。また、クロックCLKは、例えばRLL(1,7)復調回路106をはじめとする、所要の信号処理回路系における処理のためのクロックとして利用される。
【0063】
ビタビデコーダ105は、イコライザ/PLL回路104から入力された二値化RF信号について、いわゆるビタビ復号法に従った復号処理を行う。これにより、RLL(1,7)符号列としての再生データが得られることになる。
この再生データはRLL(1,7)復調回路106に入力され、ここでRLL(1,7)復調が施されたデータストリームとされる。
【0064】
RLL(1,7)復調回路106における復調処理により得られたデータストリームは、データバス114を介してバッファメモリ42に対して書き込みが行われ、バッファメモリ42上で展開される。
このようにしてバッファメモリ42上に展開されたデータストリームに対しては、先ず、ECC処理回路116により、RS−PC方式に従って誤り訂正ブロック単位によるエラー訂正処理が施され、更に、デスクランブル/EDCデコード回路117により、デスクランブル処理と、EDCデコード処理(エラー検出処理)が施される。
これまでの処理が施されたデータが再生データDATApとされる。この再生データDATApは、転送クロック発生回路121にて発生された転送クロックに従った転送レートで、例えばデスクランブル/EDCデコード回路117からビデオ信号処理部3のデータ処理/システムコントロール回路31に対して伝送されることになる。
【0065】
転送クロック発生回路121は、例えば、クリスタル系のクロックをメディアドライブ部4とビデオ信号処理部3間のデータ伝送や、メディアドライブ部4内における機能回路部間でのデータ伝送を行う際に、適宜適正とされる周波数の転送クロック(データ転送レート)を発生するための部位とされる。
また、当該ビデオカメラの動作状態に応じて、メディアドライブ部4及びビデオ信号処理部3の各機能回路部に供給すべき所要の周波数のクロックを発生する。
【0066】
光学ヘッド53によりディスク51から読み出された検出情報(光電流)は、マトリクスアンプ107に対しても供給される。
マトリクスアンプ107では、入力された検出情報について所要の演算処理を施すことにより、トラッキングエラー信号TE、フォーカスエラー信号FE、グルーブ情報(ディスク51にウォブルドグルーブWGとして記録されている絶対アドレス情報)GFM等を抽出しサーボ回路45に供給する。即ち抽出されたトラッキングエラー信号TE、フォーカスエラー信号FEはサーボプロセッサ112に供給され、グルーブ情報GFMはADIPバンドパスフィルタ108に供給される。
【0067】
ADIPバンドパスフィルタ108により帯域制限されたグルーブ情報GFMは、A/Bトラック検出回路109、ADIPデコーダ110、及びCLVプロセッサ111に対して供給される。
A/Bトラック検出回路109では、例えば図2(b)にて説明した方式などに基づいて、入力されたグルーブ情報GFMから、現在トレースしているトラックがトラックTR・A,TR・Bの何れとされているのかについて判別を行い、このトラック判別情報をドライバコントローラ46に出力する。また、ADIPデコーダ110では、入力されたグルーブ情報GFMをデコードしてディスク上の絶対アドレス情報であるADIP信号を抽出し、ドライバコントローラ46に出力する。ドライバコントローラ46では、上記トラック判別情報及びADIP信号に基づいて、所要の制御処理を実行する。
【0068】
CLVプロセッサ111には、イコライザ/PLL回路104からクロックCLKと、ADIPバンドパスフィルタ108を介したグルーブ情報GFMが入力される。CLVプロセッサ111では、例えばグルーブ情報GFMに対するクロックCLKとの位相誤差を積分して得られる誤差信号に基づき、CLVサーボ制御のためのスピンドルエラー信号SPEを生成し、サーボプロセッサ112に対して出力する。なお、CLVプロセッサ111が実行すべき所要の動作はドライバコントローラ46によって制御される。
【0069】
サーボプロセッサ112は、上記のようにして入力されたトラッキングエラー信号TE、フォーカスエラー信号FE、スピンドルエラー信号SPE、ドライバコントローラ46からのトラックジャンプ指令、アクセス指令等に基づいて各種サーボ制御信号(トラッキング制御信号、フォーカス制御信号、スレッド制御信号、スピンドル制御信号等)を生成し、サーボドライバ113に対して出力する。
サーボドライバ113では、サーボプロセッサ112から供給されたサーボ制御信号に基づいて所要のサーボドライブ信号を生成する。ここでのサーボドライブ信号としては、二軸機構を駆動する二軸ドライブ信号(フォーカス方向、トラッキング方向の2種)、スレッド機構を駆動するスレッドモータ駆動信号、スピンドルモータ52を駆動するスピンドルモータ駆動信号となる。
このようなサーボドライブ信号がデッキ部5に対して供給されることで、ディスク51に対するフォーカス制御、トラッキング制御、及びスピンドルモータ52に対するCLV制御が行われることになる。
【0070】
ディスク51に対して記録動作が実行される際には、例えば、ビデオ信号処理部3のデータ処理/システムコントロール回路31からスクランブル/EDCエンコード回路115に対して記録データDATArが入力されることになる。このユーザ記録データDATArは、例えば転送クロック発生回路121にて発生された転送クロック(データ転送レート)に同期して入力される。
【0071】
スクランブル/EDCエンコード回路115では、例えば記録データDATArをバッファメモリ42に書き込んで展開し、データスクランブル処理、EDCエンコード処理(所定方式によるエラー検出符号の付加処理)を施す。この処理の後、例えばECC処理回路116によって、バッファメモリ42に展開させている記録データDATArに対してRS−PC方式によるエラー訂正符号を付加するようにされる。
ここまでの処理が施された記録データDATArは、バッファメモリ42から読み出されて、データバス114を介してRLL(1,7)変調回路118に供給される。
【0072】
RLL(1,7)変調回路118では、入力された記録データDATArについてRLL(1,7)変調処理を施し、このRLL(1,7)符号列としての記録データを磁気ヘッド駆動回路119に出力する。
【0073】
ところで、MD−DATA2フォーマットでは、ディスクに対する記録方式として、いわゆるレーザストローブ磁界変調方式を採用している。レーザストローブ磁界変調方式とは、記録データにより変調した磁界をディスク記録面に印加すると共に、ディスクに照射すべきレーザ光を記録データに同期してパルス発光させる記録方式をいう。
このようなレーザストローブ磁界変調方式では、ディスクに記録されるピットエッジの形成過程が磁界の反転速度等の過渡特性に依存せず、レーザパルスの照射タイミングによって決定される。
このため、例えば単純磁界変調方式(レーザ光をディスクに対して定常的に照射すると共に記録データにより変調した磁界をディスク記録面に印加するようにした方式)と比較して、レーザストローブ磁界変調方式では、記録ピットのジッタをきわめて小さくすることが容易に可能とされる。つまり、レーザストローブ磁界変調方式は、高密度記録化に有利な記録方式とされるものである。
【0074】
メディアドライブ部4の磁気ヘッド駆動回路119では、入力された記録データにより変調した磁界が磁気ヘッド54からディスク51に印加されるように動作する。また、RLL(1,7)変調回路118からレーザドライバ120に対しては、記録データに同期したクロックを出力する。レーザドライバ120は、入力されたクロックに基づいて、磁気ヘッド54により磁界として発生される記録データに同期させたレーザパルスがディスクに対して照射されるように、光学ヘッド53のレーザダイオードを駆動する。この際、レーザダイオードから発光出力されるレーザパルスとしては、記録に適合する所要のレーザパワーに基づくものとなる。このようにして、本例のメディアドライブ部4により上記レーザストローブ磁界変調方式としての記録動作が可能とされる。
【0075】
5.本実施の形態に対応するディスク構造例
次に、本実施の形態に対応するディスク51の構造例について説明する。
図7は、本実施の形態に対応するとされるディスク51の構造例を概念的に示している。なお、この図に示すディスク51の物理フォーマットについては、先に図1及び図2により説明した通りである。
【0076】
ディスク51においては、例えば、管理情報エリアとしてPTOC、及びRTOCの領域が設けられる。PTOCは、例えばディスク最内周のプリマスタードエリア(ピットエリア)において、ピット形態により所要の管理情報が記録される。このPTOCの内容は書き換えが不可とされている。
例えば、上記PTOCが記録されるプリマスタードエリアの外周には、光磁気記録再生が可能とされる光磁気記録領域が形成される。そして、先ずその最内周における所定サイズの区間に対して上記RTOCの領域が設けられるものとされる。このRTOCは、例えばディスクに記録されたデータを管理するのに必要な基本的な情報が記録される。
例えば本例の場合であれば、ディスクに記録されたデータとして、後述するトラック(ファイルと同義の場合有り)、及びフォルダ(トラックをグループ化して管理するための構造)を記録再生時において管理するための情報が格納される。
なお、管理エリアにおけるU−TOCの内容は、例えば、これまでのディスクに対するデータの記録結果や、トラック(ファイル)、フォルダの削除等の編集処理結果に従って逐次書き換えが行われるものとされる。
【0077】
上記RTOCの外周側に対しては、ユーザデータが記録されるためのデータエリアが設けられる。本実施の形態では、このデータエリアは、1つのルートフォルダ内に置かれたボリュームフォルダ(Volume Folder)として管理される。本実施の形態においてボリューム(Volume)とは、ユーザデータの完全な集合として定義され、1枚のディスクにはただ1つのボリュームが存在するものとして規定される。そして、このボリューム内に含まれるデータは、上記PTOC、RTOCで管理されるものを除いて、ボリュームフォルダ以下のフォルダ及びトラックとして格納されることになる。
【0078】
ボリュームフォルダ内においては、先ず、物理的に最内周側の位置(RTOC近傍の管理トラッ優先領域)において、所定サイズ(例えば12クラスタ)のボリュームインデックストラック(Volume Index Track)が置かれる。
このボリュームインデックストラックは、例えば上記PTOC、RTOCが主的管理情報とすれば、いわば副管理情報が記録される領域として規定されるもので、トラック(ファイル)、フォルダ、及び補助データ(Auxiliary Data)に関すプロパティ、タイトル、及びトラックを形成するパケットデータを管理するための情報が記録されるテーブルを有する。
【0079】
また、少なくとも最初の1クラスタがRTOC近傍の管理トラック優先領域に位置するようにして記録されるトラックとして、サムネイルトラック(Thumbnail
Picture Track)がオプションとして配置可能とされている。
本実施の形態においては、ディスクに記録された各ファイルごとに対応付けして、所定解像度により縮小された1枚の静止画像をサムネイル画像として有することが可能とされている。サムネイル画像は、ファイルを視覚的に認識可能とするための代表画像として扱われる。
サムネイルトラックには、ディスクに記録されているファイル(トラック)との対応付けと、サムネイル画像の格納位置とが示されるインデックス情報と共に記録される。サムネイルトラックのデータ長は、格納されるサムネイル画像数等に応じて任意に拡張可能とされる。
【0080】
そして、例えばユーザが撮影等によって記録した画像/音声データはファイル単位で管理され、ボリュームフォルダ内において、トラックとしてボリュームフォルダの下に置かれる、或いは、ボリュームフォルダ以下に置かれるフォルダ内に置かれることになる。なお、本実施の形態のディスクにおいては、動画像データ、静止画データ、音声データの他、文書等のテキストファイルもファイル(トラック)として格納することができる。
図7では、或る1ファイルが1トラックとして表現された上で、このトラックが或る1つのフォルダ内に格納されている状態が示されている。フォルダは、上述のように、トラック又はフォルダを1グループにまとめて管理するための構造である。
従ってボリュームフォルダ以下の構造においては、ボリュームフォルダ内に格納可能な最大件数と、フォルダの階層構造の最大段数により規定される範囲内で、任意の数のトラック又はフォルダが格納されることになる。
【0081】
また、ボリュームフォルダ内には、補助データ(Auxiliary Data)が格納される補助データトラック(Auxiliary Data Track)が配置される。
補助データトラックに格納されるべき情報としては、例えば、実際に適用されるアプリケーションによって任意とされる。
本実施の形態においては、再生制御情報としてのスクリプトの情報が格納されることになる。
【0082】
ところで、上記した管理情報であるPTOC,RTOC、また更にはボリュームインデックストラックに格納された情報(これらの情報を総称しても、本実施の形態では「管理情報」ということにする)は、例えば、ディスク装填時において読み出されて、例えば、メディアドライブ部4のバッファメモリ42(又はバッファメモリ32)の所定領域に保持される。そして、データ記録時や編集時においては、その記録結果や編集結果に応じてバッファメモリに保持されているこれら管理情報について書き換えを行うようにし、その後、所定の機会、タイミングでもって、バッファメモリに保持されている管理情報の内容に基づいて、ディスク51の管理情報を書き換える(更新する)ようにされる(但し、PTOCについては更新は行われない)。
【0083】
なお、この図に示すディスク構造例はあくまでも一例であって、ディスク上での各エリアの物理的位置関係は、実際の使用条件等に応じて変更されて構わないし、データが格納される構造も変更されてかまわないものである。
【0084】
6.サムネイル画像生成処理
上記図7に示したサムネイルトラックに格納されるサムネイル画像は、本実施の形態のビデオカメラにより生成することが可能とされるが、ここで、サムネイル画像の生成処理について説明しておく。なお、ここでは一旦ディスクに記録された画像ファイルについてのサムネイル画像を生成する場合について説明する。
【0085】
前述のように、例えばディスク51に記録されている管理情報(PTOC、RTOC、ボリュームインデックストラック)は、ディスク装填時などの所定のタイミングで読み出されて、バッファメモリ42(或いはバッファメモリ32)に対して格納されているものとされる。
【0086】
そして、ドライバコントローラ46は、例えばバッファメモリ42に格納されている管理情報を参照して、これよりサムネイル画像を生成すべきファイルについて、サムネイル画像として指定されている画像データが記録されているディスク上のアドレスを求め、このアドレスにアクセスしてディスクに対する読み出し動作を実行させることで、サムネイル画像の生成元としての画像データを得るようにされる。
この画像データは、順次メディアドライブ部4からビデオ信号処理部3に伝送され、データ処理/システムコントロール回路31に供給される。
なお、管理情報によりサムネイル画像の生成元として規定される画像データは、特段の指定が無ければ、例えばファイル中における先頭のフレーム(又はフィールド)画像データが指定されているものとされる
【0087】
そして、データ処理/システムコントロール回路31では、供給された画面データについて、先ず、MPEG2ビデオ信号処理回路33を制御してMPEG2フォーマットに従った伸張処理を施し、フィールド画像単位の画像データのレベルにまでデコードしたデータを獲得するようにされる。
【0088】
例えば、上記フィールド画像単位のレベルにまでデコードされた画像データの段階では、通常は、表示画面に対してほぼフルサイズで表示されるだけの画像サイズ(画素数)を有したデータとされる。
そこで、上記フィールド画像単位によるフルサイズの画像データが得られた後は、このフルサイズの画像データについて縮小処理を行って、実際に必要とされるサムネイル画像のサイズが得られるように処理を行うことになる。
このような画像サイズの縮小のためには、例えば元のフルサイズの画像データに対して、適切なタイミングで画素データに対するサンプリングを行い、このサンプリングした画素データによって画像データを再構成するように信号処理を実行すればよい。
【0089】
そして、例えばビデオコントローラ38は、このようにして得られたサムネイル画像データについてのインデックス情報(図7により説明)を生成し、このインデックス情報と共にこのサムネイル画像データをディスクのサムネイルトラックに記録するように制御を実行する。
このようにして、ファイルごとに対応したサムネイル画像データが得られ、ディスクに記録される。
【0090】
なお、本実施の形態としては、これまでの説明から分かるように、画像データ(音声データを含む)の他、音声のみによる音声データ、更には文字情報データなどもファイルとして記録可能とされるが、例えば、音声データ、文字情報データ等、そのファイル内にサムネイル画像の生成元となる画像データが無いような場合には、例えば、予め音声データや文字情報データであることを視覚的に認識できるような絵柄の画像データを用意しておき(例えばビデオコントローラ38のROM内に格納しておいたり、ディスクの所定領域に格納するなどしておけばよい)、この画像データをサムネイル画像として利用するようにすればよいものである。
【0091】
7.スクリプト概要
また、本実施の形態においては、当該ビデオカメラにより記録したファイル(主として録画ファイル)についての、再生順指定や再生時に所要の特殊効果を与えるなどの編集処理を行うことができる。
上記のような編集を行うのにあたり、本実施の形態では、録画ファイルについて所要の再生出力態様を与えることのできる再生制御情報としてのスクリプトを用意し、ビデオカメラにおいては、例えばビデオコントローラ38がこのスクリプトを解釈することで、編集結果に応じた再生出力態様(例えば再生順)を得るようにするものである。また、編集段階においては、スクリプトの内容の更新を行うことで編集処理を実行するように構成されるものである。なお、ここでいう「スクリプト」とは、動画像データ、静止画像データ、音声データ、更には文書データ等を同時タイミングで再生出力するために、所定のプログラム言語により記述された手続き書き構造をいうものとされる。
【0092】
そこで先ず、本実施の形態において再生制御情報として利用されるスクリプトについて概略的に説明する。
【0093】
本実施の形態としては、スクリプトとしてSMIL(Synchronized Multimedia
Integration Language)を採用するものとする。
SMILとは、例えばインターネット上でのテレビ番組放送、プレゼンテーション等を実現するために、W3C(インターネットの標準化団体)で標準化が行われている言語であり、XML(HTMLのスーパーセット)の文法に基づき、時系列的なプレゼンテーション等を実現しようとするものである。
【0094】
先ず、スケジューリングは<seq>,<par>の2つのタグにより表現される。
<seq>は、seqential、つまり直列を意味し、このタグで囲まれた情報は時間順に再生されることになる。
<par>は、parallel、つまり並列を意味し、このタグで囲まれた情報は同期して再生されることになる。
【0095】
ここで、例えばディスクに記録されているとされるファイルにおいて、video1,video2,video3として表される画像データのファイルについて、video1→video2→video3の順に再生するように指定した場合には、
のようにして記述が行われる。
【0096】
また、ファイルvideo1→video2→video3の順に再生すると共に、video1に対しては、音声データのファイルであるaudio1をアフレコトラックとして同時再生させたいときには、
のようにして記述が行われることになる。
【0097】
また、或るファイルと同期再生させるべきファイルについて、この或るファイルが再生されて何秒後の位置から再生させる等の指定を行うための記述も用意されている。
例えば、video1の画像ファイルが表示(再生)されてから5秒後にキャプション(例えば文字情報としての画像)を表示させるような場合には、
のようにして記述が行われることになる。
【0098】
また、例えば静止画ファイルとしてのファイルpicture1を5秒間表示するように指示するのであれば、
<image src=”picture1” dur = ”5s”>
のようにして記述される。
【0099】
また、いわゆるフレームミュートといわれ、或る動画ファイルの一部を抜き出すようにして再生する場合には、「range」を利用する。例えば、タイムコードとしてSMPTE(Society of Motion Picture and Television)の規格を採用しているとして、
<video src=”video1”range=”smpte:10:07:00−10:07:33”>
のようにして記述することができる。
【0100】
また、或るファイルを指定してリピートを行うのには、「repeat」を利用する。例えばvideo1のファイルを10回リピートするのであれば、
<video src = ”video1”repeat = ”10”>
のようにして記述する。
【0101】
そして本実施の形態においては、このような、SMILといわれるスクリプトを利用し、サムネイル表示として所要の表示形態を与えるための表示制御を実行可能に構成されるものである。
このため、例えば本実施の形態のビデオカメラシステムにおいては、このSMILに対応した解釈、及びスクリプトの記述(生成)が行えるように、XMLのサブセットが用意されることになる。これは、例えばビデオコントローラ38が実行すべきプログラムとして、ビデオコントローラ38内のROM等に予め格納したり、或いはディスクのアプリケーションレイヤーに対して記録して、読み出しが行えるようにしておけばよい。
【0102】
本実施の形態においては、このようなスクリプトは、例えば、編集段階(又は録画操作を行っている段階)において、ビデオコントローラ38が生成又は更新を行って、例えばバッファメモリ32内の所定領域に保持しておくものとされる。
そして、このようにしてバッファメモリ32に保持されたスクリプトを、所定の機会、又はタイミングでもってディスクに記録するようにされる。このスクリプトのデータは、図7にて説明した補助データトラック(Auxiliary Data Track)に対して、スクリプトファイルとして格納されることになる。このようにしてディスクにスクリプトが記録されることで、次にこのディスクを新たに装填したときには、このディスクに記録されたスクリプトを読み出し、例えば、バッファメモリ32に対して保持させてこれを参照することで、以前の編集により得られた再生順等に従って編集再生等を行うことが可能となるものである。
【0103】
8.本実施の形態の映像作品の作成機能
8−1.概要
続いて、本実施の形態の映像作品の作成機能(編集機能)について説明する。本実施の形態の映像作品の作成機能にあたっては、編集用のアプリケーションプログラム(入力指示プログラム及び編集プログラム)が用意される。この編集用のアプリケーションプログラムは、或る特定のジャンルの映像作品を編集するためのプログラムとされ、予め設定された脚本に従って映像作品を作成するようにされるものである。
具体的には、先ず映像作品の素材となるソース(録画ファイル)の撮影時において、上記脚本に基づいてガイド機能としてのGUIを表示することで、ユーザに対して適宜、必要とされる入力操作及び撮影を促すようにされる。このGUIに従って行われた入力操作により得られた情報(文字情報を含む)や、撮影により得られた録画ファイル(画像/音声データのファイル)が編集素材情報として扱われる。
そして、実際の編集処理としては、上記脚本構造に従って、上記編集素材情報を利用した編集を行うことで映像作品を作成するものである。但し、本実施の形態では、編集処理に際して、撮影された録画ファイルに直接編集処理を施すのではなく、前述したスクリプトにより録画ファイルの再生順、および各種編集効果(例えばスーパインポーズやBGMの挿入)の指定が行われ、ビデオカメラでは、このスクリプトを解釈して適宜所要の信号処理を行うことで編集再生を行うものである。
【0104】
また、本実施の形態では、この編集用のアプリケーションプログラムは、ディスクに対して1つのファイル(トラック)として記録されているものとされる。そして、この編集用のアプリケーションプログラムのガイド機能によって録画されたファイルや、スクリプトファイルもこの同じディスクに記録されるものである。
つまり、本実施の形態では、或る特定の目的に従った映像作品のための編集用のアプリケーションプログラムをディスクに記録し、この編集に必要な素材としてのデータ、及びスクリプトを記録可能とすることで、この特定のジャンルの映像作品を作成して再生するために特化されたディスクを提供するものである。
なお、編集用のアプリケーションプログラムについては、例えばビデオカメラ側に不揮発性メモリを設け、この不揮発性メモリに対してこれを記憶させておくことも考えられる。つまり、ビデオカメラ自体が、或る特定のジャンルの映像作品を作成するための機能を備えるように構成することが考えられる。
【0105】
8−2.ガイド機能に従った情報入力及び撮影
そこで以降、本実施の形態における映像作品の作成の過程を、1つの具体例に沿って説明していくこととする。
ここでは、具体例としてゴルフコンペの模様を映像作品として作成する場合を例に挙げる。従って、この場合のユーザは、ゴルフコンペ用の編集用プログラムが記録されて、ゴルフコンペの映像作品作成用に特化されたディスクを用意することになる。
また、ここではAさん、Bさん、Cさんの三人のユーザがゴルフコンペを行う場合を例に挙げることとする。以降、「ユーザ」といった場合には、Aさん、Bさん、Cさんのうちの少なくとも何れかのうち当該ビデオカメラを扱う人を指すことになる。
【0106】
先ず、図8〜図10により、ユーザがゴルフコンペを行いながら、編集のための情報入力(操作情報の入力、及び編集素材の撮影)を行う手順例について説明する。また、以降の説明においては、入力操作等に対応するプログラムを逐次必要に応じて示すが、このプログラムは、当該ビデオカメラのマスターコントローラ(ビデオコントローラ38)がJAVA言語を理解可能なシステムを搭載している構成対応している場合のプログラムとする。そこで、このプログラムにおける本例での変数定義及びクラス定義について、先に、ここに示しておく。
変数一覧
int numberofparty;//パーティの人数
String course;//コースの名前
Party party[];//パーティの人数分のメンバーの情報
Track track[];//自由に撮影したトラックの
Hole hole[];//このコースの情報(18ホール)
【0107】
例えばユーザ(Aさん、Bさん、Cさん)は、本実施の形態のビデオカメラ及び、ゴルフコンペ映像作品作成用に特化された本実施の形態のディスク(以降、単に「ゴルフ用ディスク」という)を携帯して目的のゴルフ場に赴くようにされる。
そして、例えばゴルフ場においてコースをラウンドする前の段階で、ビデオカメラにゴルフ用ディスクを装填し、所定操作によってディスクに記録されている編集用アプリケーションプログラムのガイド機能表示を動作させる。このための操作としては、例えば、通常のファイル再生のための所定の操作手順に従って編集用プログラムを選択して再生するようにされる。これにより、編集用プログラムが起動されることになり、例えば最初に編集用プログラムのメニュー画面が表示される。そして、ユーザはこのメニュー画面に対して操作を行って、ガイド機能表示を呼び出すようにされる。
【0108】
これにより、例えば表示部6Aには、編集用プログラムに従って図8に示すガイド表示が行われていくことになる。なお、この図8に示されるガイド表示は、ラウンド前において編集に必要な各種情報を入力するためのものとされる。
【0109】
ここでは、ラウンド前の準備入力のためのガイド表示として、先ず図8(a)に示す表示が行われる。図8(a)のガイド表示は、コースをラウンドする人数を入力するためのものとされる。この場合には、3人であるので、ユーザはこN画面に対して3人であることを入力するための操作を行う。このときの操作手順としては、例えば「2人」「3人」「4人」「5人」のボタンと、「それ以上 人」の入力ウィンドが表示されているので、例えばユーザは、十字/クリックキー310を操作して「3人」のボタンにカーソル(図示せず)を配置させ、この状態で十字/クリックキー310のセンター部分に対するクリック操作を行う。つまり、「3人」のボタンを選択してクリック操作を行う。これにより、ラウンドする人数が3人であるという情報が入力される。この入力操作に応じたプログラムとしては、例えば
numberofparty=3;
のようになる。
なお、以降においても示されるこのようなプログラムの記述は、後述するスクリプトの作成に利用されるために保存されておく必要があるが、例えば逐次、ディスクの所定のディレクトリに対して記録するように構成すればよい。或いは、ビデオカメラ内部のメモリ(例えばバッファメモリ42など)の所定領域に格納して保持しておくようにすることも考えられる。
【0110】
図8(a)のガイド表示に対する入力操作が終了し、例えば「次へ」と表示されているボタンに対してクリック操作を行うと、図8(b)に示すガイド表示に切り替わる。
図8(b)のガイド表示は、メンバー一人一人が抱負を語っている場面の撮影を促すものである。例えばここでは、現在の撮像画像(現在レンズブロック1及びカメラブロック2により得られている画像信号である)が表示されている状態とされたうえで、「1人目の今日の抱負を5秒くらいで撮ってください」などのように、抱負を語るメンバーの撮影を促す文字表示(スーパインポーズ)と、被写体となるメンバーの構図を指定する「撮影指定枠」のインポーズ表示が行われる。この「撮影指定枠」は、変種素材としての被写体について理想的な構図を指定するために表示するものであり、実際の編集再生時には表示はされない(上記文字表示も同様である)。この表示が行われている表示部6Aをモニタしながら、ユーザは、抱負を語る1メンバーの撮影を、そのメンバーが撮影指定枠にほぼちょうど収まるような構図で、5秒程度で行うようにされる。
ここで撮影された録画ファイル(動画像/音声ファイル)は、例えばvideo1とファイル名が付されてディスクに記録されることで保存されると共に、プログラムでは、
party[0].begincomment=video1;
のような形式で1人目のラウンド前のコメントであるという関連付けを行う。
【0111】
ここでは、或る1メンバーの撮影が終了したとすると、ガイド表示として図8(c)に示す表示が行われるものとされる。つまり、今撮影した映像がユーザにとって納得したものであるか否かが問われる。そして、この段階では、「見直す」のボタンに対するクリック操作で、今撮影した画像を再生してチェックすることができ、また、納得のいかない撮影結果だったのであれば、「取り直す」ボタンに対するクリック操作によって、再度、図8(b)に示すガイド表示の状態での撮影を再開することができる。ここで、撮影した画像が結果的にユーザにとって納得のいくものであれば、所定操作により図8(c)のガイド表示を抜けて、図8(d)に示すガイド表示に移行させる。
【0112】
図8(d)に示すガイド表示では、今撮影したメンバーに関する情報として、名前、ハンディなど、実際には予め入力項目として用意された項目に対して文字入力を行うことができるようになっている。本実施の形態では、図6に示したジョグダイヤル311を利用して文字入力を行うことができるようになっている。また、このガイド表示では、メンバーの顔写真が表示されているものとされる。この顔写真の画像は、先に抱負を語った場面を録画したファイルの画像データからサムネイル画像を生成することにより得られる。このような処理は、編集用プログラムにより、自動的に実行されるものとされる。
そして、必要な項目に対する文字入力が終了したら、例えば「OK」ボタンに対するクリック操作を行う。このとき、プログラムとしては、例えば一人目に撮影したメンバーについての文字入力が行われたのであれば、
party[0].name=″Aさん″;
party[0].handycap=20;
のようにして、メンバーの名前、ハンディキャップが登録される。
【0113】
ここで、上記「OK」ボタンに対するクリック操作を行った場合に移行するガイド表示であるが、未だメンバー全員についての抱負を語る場面の撮影が完了していなければ、図8(b)に戻るようにされる。この場合には、メンバーが3人なので、図8(b)→図8(c)→図8(d)により説明した手順をユーザは3回繰り返すようにされる。このようにして、メンバー全員についての抱負を語る場面の撮影が完了した段階では、プログラムとして、
party[1].begincomment=video2;
party[2].begincomment=video3;
のようにして、2人目、3人目のメンバーの抱負を語った録画ファイルがvideo2、video3として登録され、また、図8(d)のガイド表示に対する2人目、3人目のメンバーについての文字入力により、
party[1].name=″Bさん″;
party[1].handycap=8;
party[2].name=″Cさん″;
party[2].handycap=15;
のようにして関連付けが行われる。
【0114】
上記のようにして、図8(b)→図8(c)→図8(d)により説明した手順がメンバー全員分繰り返された後、図8(d)に示す「OK」ボタンが操作された場合には、図8(e)のガイド表示に移行する。
【0115】
図8(e)のガイド表示では、これよりラウンドするコース選択を行うようにされる。
このため、図8(e)に示すガイド表示では、ゴルフ場のコースの候補が表示される。ここに候補として表示されるゴルフ場のコースは、編集用プログラム内にデータベースとして格納されているものとされ、このデータベースには、例えば各コースごとのホール数、ホールごとのヤード数(距離)、パー数等の情報が格納されている。
ユーザは、図8(e)に示すガイド表示上で、例えば十字/クリックキー310を操作することで、これよりラウンドするゴルフ場のコースを選択してクリック操作(決定操作)を行う。ここでは、ゴルフ場のコースとして「柏カントリークラブ」を選択決定したものとする。
これにより、プログラムとしては、
course=″柏カントリークラブ″;
のようにして登録が行われることになる。
【0116】
前述したように、この編集用プログラムはコースのデーターベースを持っており、この場合であれば、上記のようにして柏カントリークラブが登録されたことで、柏カントリークラブの全ホールに対する全長、パー数などのデータにアクセス可能となる。これらのデータベースについては、プログラムとして、
hole[?].par
hole[?].length
のような変数からアクセスができる。
これまでの説明のようにして、コース選択までの入力操作(図8(e))が完了されると、この場合には、例えば図8(f)のガイド表示に示すようにして、「ラウンド前の準備完了です」のようなテロップを表示させ、ユーザに、ラウンド前の準備としての入力操作が全て完了したことを知らせるようにされる。
【0117】
続いて、図9及び図10によりラウンド中のガイド表示と、これに従ったユーザの手順について説明する。
例えば、上記図8に示した入力操作終了後においては、図9(a)に示すようなガイド表示が行われ、第1ホールのティーショットを撮影するように指示が行われる。そして、続いて表示される図9(b)のガイド表示において、被写体となるメンバーを選択するための操作が促される。また、この図9(b)のガイド表示でも、先に抱負を語った場面を録画したファイルの画像データから生成したサムネイル画像を利用して、各メンバーの顔写真を表示している。そして、この各メンバーの顔写真に対してカーソルを移動させて、選択決定操作を行うようにするものである。
【0118】
図9(b)に示すガイド表示に対して選択決定操作が行われると、表示部6Aは図9(c)に示すガイド表示となり、例えば、現在の撮像画像に対して「5秒くらいで撮ってください」というスーパインポーズによる撮像時間の指示と、構図を指定する撮影指示枠が表示される。そして、この状態でユーザはプレーヤがティーショットを行っているところを撮影する(録画操作を行う)ようにされる。また、この場合にも録画操作が終了されると、図9(d)に示すようにして「見直し」「取り直す」「OK」ボタンが提示されるガイド表示が表示されるのは、先に説明した図8(b)→(c)の手順による撮影時の場合と同様である。
【0119】
そして、この場合には図9(d)に示すガイド表示において「OK」ボタンが操作されると、図9(e)のガイド表示に移行し、今撮影したティーショットの腕前がどの程度であったのかを入力することができるようにされる。ここでは、「素晴らしい」「まあまあ」「チョロ」「てんぷら」の4つのボタンが候補として提示されており、ユーザはこれらのボタンから所望のボタンを選択してクリック操作(決定操作)を行うようにされる。
この図9(b)→図9(c)→図9(d)→図9(e)に示すガイド表示表示は、メンバーの人数分(この場合には3回)繰り返されて、各メンバーのティーショットが撮影できるようにされている。
そして、図9(b)→図9(c)→図9(d)→図9(e)のガイド表示に従った手順により、メンバー全員(3人)のティーショットについての撮影とショット評価の入力が完了したとする。
この段階では、3人のメンバーのティーショットを撮影した録画ファイルは、video4,video5,video6と名前が付けられてディスクへの記録が行われている。そして、プログラム上では、
party[0].teeshot=video4;
party[1].teeshot=video5;
party[2].teeshot=video6;
という形式で、各録画ファイルと共に、誰のショットであるかとの関連付けを行うようにされる。
また、図9(e)のガイド表示に対する入力操作に基づき、例えば
party[0].teeshot_quality=OK;
party[1].teeshot_quality=GREAT;
party[2].teeshot_quality=CHORO;
といった形式でショット評価が登録される。この場合には、Aさんのショットについては「まあまあ(OK)」ボタンに対するクリック操作が行われ、Bさんのショットは「素晴らしい(GREAT)」ボタン、Cさんのショットについては「チョロ(CHORO)」ボタンに対するクリック操作が行われた結果が反映されている。
【0120】
上記のようにしてティーショットに関する手順が完了すると、例えば以降は、図9(f)に示すガイド表示が行われる。このガイド表示では、以降はユーザが任意に好みの場面を撮影(ここでは撮像画像の録画行うことと同義である)することを促している。そしてこの場合には、その撮影内容の候補として、風景の撮影に対応する「風景」ボタンと、プレーヤのコメントしている場面の撮影に対応する「コメント」ボタンと、ティーショットよりも以降の任意のショットの撮影に対応する「ショット」ボタンとが用意されている。
ユーザはこれより撮影したいと思う内容に応じて、このボタンのうちの何れかを選択してクリック操作を行うようにされる。
【0121】
上記図9(f)に示すガイド表示のもとで、「風景」ボタンに対するクリック操作を行ったとすれば、例えばガイド表示は図10(a)に示すような、風景の撮影を促す内容のものとなる。ここでは、現在の撮像画像に対して「風景を撮ってください」」というテロップが表示されている。ユーザは、このガイド表示が表示されている表示部6Aを見て撮像画像のモニタをしながら、目的とする風景の撮影を行えばよい。
【0122】
また、図9(f)に示すガイド表示上で「コメント」ボタンに対するクリック操作を行ったとすれば、図10(b)に示すような、プレーヤがコメントしている場面を撮影するためのガイド表示表示が行われる。このガイド表示も、例えば現在の撮像画像に対して「コメントを撮ってください」というテロップと、構図を決めるための撮影指定枠とがインポーズ表示されている。ユーザは、このガイド表示上でモニタしながら、コメントしているユーザを撮影する。
なお、ここでは図示しないが、「コメント」の撮影に際しては、例えば図9(b)に準るようなガイド表示を表示させるなどして、どのプレーヤのコメントの撮影であるのかを指定するための入力操作も行われるものとする。
【0123】
或いは、図9(f)に示すガイド表示上で「ショット」ボタンに対するクリック操作を行ったとすれば、図10(c)に示すガイド表示に移行する。このガイド表示では、これより撮影するショットが行われるホール番号と、そのホールでの打数の入力を促すための表示と、ショットの種類を入力するためのボタン表示(ここでは、「ティー」「アイアン」「トラブル」「パット」ボタンが用意される。また、ここでも図示は省略するが、例えば図9(b)に準ずるガイド表示を出すなどして、どのプレーヤのショットであるのかを指定するための入力操作が促されるものである。
そして、図10(c)のガイド表示に対する入力操作が完了すると、図10(c)に示すようにして、プレーヤのショットを5秒くらいで撮影することを促すテロップと撮影指定枠とが撮像画像にインポーズされたガイド表示が表示され、ユーザはショットの撮影を行うようにされる。
なお、説明の重複を避けるためにここでは省略しているが、この場合にも、プレーヤのショットの撮影が終了したら、例えば図9(d)(e)に示したような見直し、撮り直しのためのガイド表示や、ショットの評価を入力するガイド表示が表示されるようにしてよいものである。
そしてユーザは、プレー中において、必要に応じて上記図9(f)〜図10(d)により説明した手順を繰り返すようにされる。
【0124】
ここで、上記図9(f)〜図10(d)の手順により得られるプログラム内容の例を挙げておく。、
先ず、ショットの撮影を行った場合に対応するものとして、例えば第4ホールの2打目でのAさんのトラブルショットがvideo7として記録されたとすると、例えば、
track[0].track=video7;
track[0].type=SHOT;
track[0].hole=4;
track[0].Shotnumber=2;
track[0].Shottype=TROUBLE;//TROUBLEはトラブルショットを意味する。
track[0].personnumber=0;//party[0]がAさんである。
のような付加情報が登録されることになる。
【0125】
そして、このショットに対するBさんのコメントをvideo8として記録していたとすると、例えば、
track[1].track=video8;
track[1].type=COMMENT;
track[1].personnumber=0;
のようして付加情報が登録されることになる。
【0126】
また、上記Bさんのコメントを撮影した次に、風景をvideo9として撮影していたとすると、
track[2].track=video9;
track[2].type=SCENE;
track[2].hole=4;//何ホール目のときに撮影されたものであるのかが示される
のようして付加情報が登録されることになる。なお、この付加情報には、この風景が何ホール目で撮影されているのかを示す内容が含まれているが、この何ホール目であるのかの情報は、これより以前の撮影状況(例えばこれより以前に撮影されたショットに対応して入力されたホール番号等の情報)から類推して記録することができる。
【0127】
そして、例えば、プレー終了に対応する所定の入力操作(ここでは図示せず)が行われたり、これまでの撮影状況からプレーが終了したことが推測されたような場合には、先ず図10(e)に示すスコア入力のためのガイド表示が行われる。ユーザは、このガイド表示に対して、例えばジョグダイヤル311を操作することで、各メンバーごとスコア数値を入力するようにされる。なお、このようなスコア入力画面は、プレー中においても必要に応じて呼び出せるようにして、適宜スコア入力が可能なように構成してもよいものである。
スコア入力に対応したプログラムとしては、
party[0].score_hole[1]=3;
party[0].score_hole[2]=5;
のようにして記録が行われることになる。
【0128】
そして、メンバー全員のスコア入力が終了したとされると、例えば図10(f)に示すガイド表示が表示される。このガイド表示表示は、プレー後において各メンバーがコメントを行っている場面の撮影を促すためのもので、この場合には、図のようにこれより撮影すべきメンバー(図9(b)のようにメンバーの顔がサムネイル画像として表示されている)を選択するための画面が先ず表示される。
この画面上で、ユーザが被写体となるメンバーを選択するための操作を行うと、例えばガイド表示としては、先に図9(c)に示したような数秒間の撮影を促すガイド表示と、図9(d)に示すような撮影後における確認を促すガイド表示が行われるようにされ、ユーザはこの表示に従って撮影や録画状態の確認、撮り直し等を行うようにされる。そして、同様の手順を踏んで、メンバー全員がコメントを行っている場面を撮影するようにされる。
例えば3人のメンバーのコメントをAさん、Bさん、Cさんの順で撮影し、これらがそれぞれファイル名video10、video11、video12の録画ファイルとして記録されたとすると、プログラムとしては、
party[0].endcomment=video10;
party[1].endcomment=video11;
party[2].endcomment=video12;
のようにして各録画ファイルに対する関連付けが行われるようにされる。
【0129】
これまでの全ての手順の完了を以て、編集素材情報として、映像作品作成のための所要の情報の入力操作に基づくプログラム情報と、及び編集の素材となる録画ファイル(画像/音声情報)が得られることになる。
【0130】
なお、上記図8〜図10に示すガイド表示が行われているときには、実際には、編集用アプリケーションプログラムに格納されている露出制御値に基づいて、当該ビデオカメラ装置のレンズブロックにおけるプログラムAE(Automatic Exposure)機能に対する補正が行われている状態にあるものとされる。
つまり、編集用アプリケーションプログラムとして設定されている脚本に従えば、ガイド表示の下で編集素材を集めるための撮影はどのような状況で行われるのかは容易に想定し得るものである。例えばゴルフコンペであれば、状況としては屋外にて撮影されることになる。
そこで、予測される撮影状況に適したAEに対する補正値を予め編集用アプリケーションプログラムに用意し、実際のガイド表示に従った撮影時にはこの補正値により自動的にAE補正を行うようにされる。例えばゴルフコンペに対応する場合には、屋外での撮影に最適とされるAEの補正値を編集用アプリケーションプログラムに用意し、この補正によってプログラムAEを制御することになる。これにより、例えば、ユーザが特にAEのプログラム変更等の操作を行わなくとも、AEプログラムがほぼ最適な状態を維持するように制御され、結果的には良好な画質の編集素材としての録画ファイルを得ることが可能になるものである。
【0131】
8−3.編集再生(映像作品としての再生)
そして、本実施の形態のビデオカメラ装置においては、編集用のアプリケーションプログラムの下で設定されている脚本に従って、上記のようにして得られた入力情報を利用して、録画ファイルを素材とする映像作品を作成するための編集処理を行う。この編集処理は、各録画ファイルの再生順を含む再生タイミングや、再生された録画ファイルに対するスーパインポーズなどを指定するスクリプトを構成するという処理により実現される。そして、このようにして得られたスクリプトを解釈して録画ファイルの再生及び、特殊効果の付与等のための画像処理を実行することで、映像作品としての再生が行われる。なお、作成されたスクリプトは、これに対応する編集用アプリケーションプログラムが格納されているディスクの補助データトラック(Auxiliary Data Track)に記録されることで保存が行われるようにされる。
【0132】
そこで、先ず、図8〜図10により説明した手順応じて記述されたスクリプトにより作成される映像作品の再生態様例について、図11〜図13を参照して説明する。なお、以降述べる映像作品の再生態様例に対応する記述内容、及びスクリプトの生成方法については後述する。
【0133】
例えば、ユーザは、ゴルフ場で撮影に使用していたゴルフ編集用ディスク(この段階では、編集素材となる録画ファイルや映像作品の編集のためのスクリプトは既に記録されている状態にある)をビデオカメラに装填して、再生のための操作を行うようにされる。
この操作に応答して、ビデオカメラではディスクからスクリプトの読み出しを行い、このスクリプトの解釈を行いながら録画ファイルの再生及び画像/音声信号処理を行うことで、次に示すような映像作品の再生を実現する。
【0134】
この場合、先ず最初には、図11(a)に示すようなオープニングタイトルが効果音の出力と共に表示される。
そして、続いては、図11(b)に示すようにしてメンバー紹介の画像が表示される。ここでは、メンバーの顔写真がその名前と共に表示されている。このメンバーの顔写真は、図9(b)のガイド表示で利用されたものを利用するようにすればよい。つまり、図9(b)のガイド表示に利用されたサムネイル画像は、現場での入力操作及び撮影時においてディスクのサムネイルトラックに対して記録が行われていたものである。
【0135】
続いては、例えば図11(c)に示すようにして、Aさんが抱負を語る場面が動画(video1として記録された録画ファイル)により表示される。この際には、video1の録画ファイルを再生しているのであるから、音声によりAさんが抱負を語る音声が同期して出力される。また、ここでは「今日の意気込みを語るAさん」のようにして文字表示(スーパインポーズ表示Simp)が行われる。このメンバーが抱負を語る場面の表示は、Aさんに続いて、同様にしてBさん、Cさんについても行われる(video2,video3の再生)。
【0136】
この後は、各メンバーのティーショットの場面が表示される。例えばここでは、上記図11(c)に示した各メンバーの抱負のコメント場面の表示の後において、図11(d)に示すようにして、Aさんがティーショットをしている場面が表示された状態が示されている(video4)。ここでは、「1H 300yd par5」のようにしてそのホールの情報を示すスーパインポーズ表示Simpと、「Aさんティーショット!」いうその場面を説明するスーパインポーズ表示Simpが行われている。更には、素晴らしいショットであることを効果的に説明する「GREAT」の文字によるスーパインポーズ表示Simpが行われている。例えばこの「GREAT」のスーパインポーズ表示Simpは、図9(e)に示したガイド表示従った入力操作に応じて表示されるものであるが、このように、本実施の形態では、例えば編集効果として、このようなデザインのスーパインポーズ表示Simpが自動的に表示されるように構成されるものである。このようなティーショットの場面の表示も、メンバー全員分について順に行われるものである(video5,6)。なお、この際も録画ファイルを再生していることで基本的な表示が得られている以上、このとき同時に記録された音声を再生出力しても構わないものであり、これは容易に実現可能である。
【0137】
この後は、例えばティーショット後において現場で任意に撮影された録画ファイルの画像音声が、何らかの所要の編集効果が与えられて出力される。
この場合には、図11(d)に示した各メンバーのティーショット場面の表示後において、図12(a)に示すようにして、Aさんのトラブルショットの場面(video7として記録されたもの)が表示される。
ここでは、スーパインポーズ表示Simpとしてホールの情報を示す内容と、Aさんがトラブルショット中にあることを現在のスコアと共に示す内容とが挿入されている。
【0138】
続いては、例えば図12(b)に示すように、video8を再生することで、トラブルショット後のコメントをしているAさんの動画が表示され、このときのコメントの音声も出力される。また、ここではスーパインポーズ表示Simpとして、例えば「コメントするAさん」のように現在の状況を説明するものと、「4H終了現在のスコア+8」などのようにプレーの進行過程及びスコアを示すものとが表示されている。
【0139】
また、この場合には、上記図12(b)に続いて、ユーザがvideo9として撮影した風景として、或るホールのグリーンを撮影した動画像(又は静止画像)が図12(c)に示すようにして表示される。この場合には、編集用アプリケーションプログラムで用意したBGMが適当に選択されて音声として出力されている。このときには、音声出力としてはBGMだけでもよいし、このvideo9の録画ファイルから再生して得られた音声に対して、BGMを合成して出力するようにしても構わない。
【0140】
そして、このような表示が行われ、ゲーム終了までの映像出力が行われたとすると、表示画面としては例えば図13(a)に示すように。これまでの各メンバーの成績を示すスコアが表示される。このスコア表示は、図10(e)に示したスコア入力操作により得られた情報に基づいて得られるものである。
【0141】
そして、スコア表示が終了すると、エンディングタイトルとして、例えば図13(b)に示すような形態による表示が行われる。ここでは、例えば編集用アプリケーションプログラムで用意した、にっこりと笑っているキャラクタの画像が表示されていると共に、「というわけで、今回は、」「Bさん優勝!」という、優勝者を効果的に示すスーパインポーズ表示Simpが表示されている。この優勝者の特定は、スクリプトの作成方法でも後述するが、図10(e)に示したスコア入力操作により得られた各メンバーのスコアを参照することで行われるものである。
このエンディングタイトルの表示の終了を以て、映像作品としての再生が終了する。
【0142】
8−4.スクリプトの内容
続いて、上記図11〜図13に示す映像作品としての表示を実現するためのスクリプトの内容を示す。
前述したように、本実施の形態のビデオカメラでは、図8〜図10に示したようなガイド表示に従って得られた入力情報と、録画ファイルとして記録された編集素材としてのファイルを組み合わせて使用することで、スクリプトファイルと呼ばれるメタ情報を構成する。このスクリプトファイルの構築は、ガイド表示に従った情報入力及び撮影が終了した後の所要の機会(実際には直後であることが好ましい)において、編集用アプリケーションプログラムが実行されている下で、例えばビデオコントローラ38が、内部に搭載されているXMLのサブセットを利用して実行するものとされる。
ここでは、SMIL文法に基づき、スーパインポーズにJAVA A431ppletを用いた例を示す。
【0143】
なお、上記スクリプトにおけるsuperimposeアプレットにより指定されたテキストをスーパインポーズさせるための画像処理としては、例えば次のようにして実行すればよい。
【0144】
1つには、ビデオコントローラ38及びデータ処理/システムコントロール回路31により実現されるキャラクタジェネレータ及びオンスクリーンディスプレイの機能を利用するものである。つまり、ビデオコントローラ38では、解釈を行ったスクリプトが、superimposeアプレットにより指定されたテキストを表示すべきものであった場合には、この指定されたテキストの文字/シンボル情報を発生させる。そして、この発生された文字/シンボル等が再生されている録画ファイルの画像上にて所定の位置に表示されるように、データ処理/システムコントロール回路31に対する制御を実行するものである。
【0145】
また、図11(a)の「柏CCゴルフコンペ」や図11(d)の「GREAT」などのようにデザイン化が施されたスーパインポーズ表示Simpの文字については、上記画像処理に従ってその画像データを生成することも可能であるが、例えば、上記のような特殊なデザインのものについては、予め編集用アプリケーションプログラムのデータとして、所要のディレクトリにファイルとして記録しておくようにして、この画像データを必要に応じて読み出して、録画ファイル(video)の再生画像に重畳するように処理を行えば(このような画像処理はデータ処理/システムコントロール回路31にて行われれる)、ビデオコントローラ38及びデータ処理/システムコントロール回路31の処理負担が軽くなる。
【0146】
なお、例えば上記スーパインポーズ処理は、先に図8〜図10に示した、撮像画像を背景としているガイド表示におけるテロップの表示や、撮影指定枠の表示を実現する場合にも準用される。
つまり、ビデオコントローラ38は、編集用アプリケーションプログラムが用意したテロップや撮影指定枠の画像データファイルをディスクから読み出して、ビデオ信号処理部3に供給するためのを制御処理を実行する。ビデオ信号処理部3では、例えばこの供給された画像データファイルについてデコード処理を施す。
そして、データ処理/システムコントロール回路31においては、ビデオコントローラ38の制御に従って、デコードされたテロップや撮影指定枠の画像データが、カメラブロックから供給される撮像画像上の所要の位置に表示されるように画像合成処理を行う。そして、この画像データを表示部6Aに表示出力するようにされる。
【0147】
8−5.スクリプトの生成方法
続いて、本実施の形態の編集用アプリケーションプログラムが起動されている環境のもとで得られるスクリプトの生成方法について説明する。
ここでは、具体例として上記した、図11〜図13に示す映像作品としての表示を実現するためのスクリプト内容を生成する場合を例に挙げ、各スクリプトのセクションについて、入力した変数やその他のセットの情報からどのようにウイザードが生成されていくかを見ていくことにする。また、ここではパラメーターの算出方法をC++言語で示すこととする。
セクション1(図11(a))
course=coursename;//ユーザーの選択したコースに従う
date=getdate();//セット(例えばビデオコントローラ38)が備えるカレンダー機能からdateを受け取る。
セクション8(図13(a))
予め入力されたスコアをscore.txtというファイルに変換してディスクに記録する。
セクション9(図13(b))
先ず合計スコアが最小のメンバーを探索する。それがi番目の人の場合
video=party[i].endcomment;
topcaption=″というわけで、今回は″;
bottomcaption″value=party[i].name+″さん優勝″;
スクリプトはこのような演算を実行することで、図8〜図10により説明した入力操作により得られる入力情報、及び撮像画像の録画ファイルから導き出すことができるものである。
【0148】
8−6.処理動作
続いて、これまで説明した編集動作を実現するための処理動作例について、図13及び図14のフローチャートを参照して説明する。なお、図13及び図14に示す処理動作は、例えばビデオコントローラ38がマスターコントローラとして機能したうえで、必要に応じて、データ処理/システムコントロール回路31、ドライバコントローラ46及びカメラコントローラ25が制御処理(或いは信号処理)を実行することにより実現される。また、この処理は、編集用アプリケーションプログラムが起動されている環境のもとで実行される処理動作となる。
【0149】
図14に示す処理動作は、例えば図8〜図10に示したガイド表示と、このガイド表示に従って行われた情報入力(撮像画像の録画を含む)に基づいてスクリプトを生成するまでの処理が示されている。
先ず、ユーザの操作部7に対する所定操作によって、編集用アプリケーションプログラムのガイド機能表示を動作させるための指示が行われたとすると、ビデオコントローラ38は、ステップS101に進んで、装填されているディスクから編集用アプリケーションプログラムを読み出すための制御処理を実行する。
そして、続くステップS102において、例えばビデオコントローラ38内部のRAMを利用して、編集用アプリケーションプログラムを起動させるための処理を実行する。
【0150】
次のステップS103においては、編集用アプリケーションプログラムに含まれている、当該ビデオカメラ装置の撮像光学系に対する露出制御値を参照し、この露出制御値に基づいて、レンズブロック1におけるAE(Automatic Exposure)機能に対する露光補正を行うための制御を実行する。この処理は、例えばビデオコントローラ38がカメラコントローラ25に対してAE補正のための制御を実行するように指示する。カメラコントローラ25では上記露出制御値に基づいてAEの補正が適切に行われるようにレンズブロック1に対する制御を実行することになる。
【0151】
そして、次のステップS104において、起動された編集用アプリケーションプログラムに従い、ガイド表示を行うための制御処理を開始する。これにより、以降は例えば表示部6Aに対してガイド表示が行われることになる。
【0152】
ステップS105は、ガイド表示により促される指示に従って逐次行われた入力操作、及び撮影(録画)により得られるコンテンツ(入力情報のことであり、ここでは操作入力情報、及び録画ファイルとされる)を保存するための処理が実行される。
つまり、例えば図8〜図10にて説明したように、ユーザはガイド表示ごとに促される情報の入力に従って、所要の入力操作又は録画を行うようにされるが、これらの入力操作により得られた情報及び、録画により得られた録画ファイルを編集素材として保持する処理を実行するものである。ここでは、操作入力により得られた入力情報(操作入力情報)は、例えばビデオコントローラ38内部のRAMに保持するようにされているものとする。また、撮影により得られた録画ファイルについては、ディスクのフォルダ内のディレクトリに対してファイル(トラック)として記録を行うことになる。
そして、例えば、ガイド表示に従った情報入力が全て行われたとされる(つまりガイド表示の終了に至る)と、ステップS106に進むようにされる。
【0153】
ステップS106においては、保持されたコンテンツを編集用アプリケーションプログラムとして予め設定されている脚本に従って再構成するための処理が実行される。つまりは、図8〜図10による説明に並行して記述したプログラム内容を設定するものである。ここでは、このステップS105の処理が、ガイド表示の終了後に実行されるものとしているが、例えば実際には、ステップS105の処理として、コンテンツの獲得(操作入力情報の保持、及び録画ファイルの記録)が行われるごとに、ステップS106の処理が実行されるようにしてもよいものである。
【0154】
上記ステップS106の処理が終了されると、ビデオコントローラ38はステップS107に進み、上記のようにして再構成されたコンテンツの内容を利用し、編集用アプリケーションプログラムにより予め設定されている脚本に従ってスクリプトを生成するための処理を実行する。これにより、例えば先に示したような記述内容によるスクリプトが得られる。
【0155】
そして、次のステップS108では、上記のようにして生成されたスクリプトを、スクリプトファイルとしてディスクの補助データトラックに記録するための制御処理を実行して、これまでの処理を終了するようにされる。
これまでの処理により、ディスクには予め記録されていた編集用アプリケーションプログラムに加え、編集素材となる録画ファイル、及び編集内容を指定するための記述がされたスクリプトファイルが記録されることになる。
【0156】
続いて、上記のようにして得られたディスクを利用した編集再生、つまり編集素材となる録画ファイルを基として映像作品を再生するための処理動作について図15のフローチャートを参照して説明する。
【0157】
例えば映像作品の再生を開始させるための所要の操作が操作部に対して行われたとすると、ビデオコントローラ38は、この図15に示す処理に移行する。
この図に示す処理においては、先ずステップS201においてディスクに記録されているスクリプトを読み出すことが行われる。ここで読み出されるべきスクリプトとは、事前の編集用アプリケーションプログラムの実行に従って作成された、映像作品再生ための内容が記述されたスクリプトである。
ディスクから読み出されたスクリプトは、例えばバッファメモリ32の所定領域に対して格納される。また、ビデオコントローラ38内部のRAMの記憶容量に余裕あれば、この内部RAMに対して格納するように構成することも考えられる。
【0158】
そしてステップS202では、上記のようにしてディスクから読み出されたスクリプトファイルについての解釈を開始し、続くステップS203の処理として、解釈されたスクリプトの記述内容に従った再生処理を実行する。つまり、スクリプトの記述に従って必要とされる所要の録画ファイル(及びBGM用の音声トラックなどのファイル)をディスクから読み出して、これを画像/音声として出力するための再生処理が実行されるように、所要の機能回路部に対する制御を実行する。また、これと共に、例えば<applet>タグ等に対応した、所要の文字やシンボルのスーパインポーズ表示が行われるようにするための画像信号処理や、BGMの出力などのための音声信号処理等を実行する。
このステップS203の処理によって、例えば図11〜図13に示した映像作品としての画像/音声の再生出力態様が得られることになるものである。
【0159】
そして、ステップS204の処理として、スクリプトの解釈の終了が行われたとされると、これまでの処理を終了することになる。つまり、映像作品の再生が最後まで行われた状態で、これまでの再生動作が終了されることになる。なお、この図には示していないが、例えば停止操作が行われれば、映像作品の再生はその時点で終了され、また、一時停止操作が行われれば、一時停止操作が行われていた時点で表示されていた画像が表示された状態を維持し、スクリプト解釈の進行も一時停止されるように制御処理が実行されるものである。
【0160】
なお、上記実施の形態は、ゴルフコンペに対応する映像作品を作成するための編集処理を実現するための構成について説明したが、これはあくまでも一例であり、他の目的に従った映像作品を作成する場合も、これまで説明した構成に従って実現することが可能である。
【0161】
また、上記実施の形態として示したガイド表示や、映像作品として仕上がった状態での各種編集効果の与え方などは、実際に応じて適宜変更可能である。
また、本実施の形態において採用されるスクリプトの言語としては、SMILに限定されるものではなく、他の言語が採用する構成を採っても構わないものである。
【0162】
また、例えば、上記実施の形態として図8〜図10に示した編集操作例は、あくまでも一例であって、一般のユーザによっても簡易とされるような操作形態であれば、他の操作形態や他の表示形態が採られても構わない。一例として、表示部6Aがタッチパネルとしての機能を有するように構成して、図8〜図10による説明に準ずるような操作を、表示部6Aに対して指や何らかのポインティングデバイスを用いてポインティングするようにして行うようにすることも考えられる。
【0163】
更に、本実施の形態のビデオカメラとしては、ビデオ記録再生部位として、MD−DATA2に基づくディスク記録再生装置としたが、ビデオ記録再生部位としては、本実施の形態としての構成の他、他の種類のディスク状記録媒体に対応する記録再生装置とされても構わない。
更に、動画像データを圧縮するために本実施の形態では、MPEG2方式を採用するものとして説明したが、例えば他の動画像データの圧縮符号化が可能な方式が採用されて構わない。また、静止画データ及び音声データについての圧縮方式も、本実施の形態として例示したもの(JPEG,ATRAC2等)に限定される必要は特にない。
【0164】
【発明の効果】
以上説明したように本発明は、編集処理のためのプログラム(編集用アプリケーションプログラム)として、編集のために必要となる情報の入力を促すためのガイド機能としてのGUIを実現するもの(入力指示プログラム)を用意し、このガイド表示に従って、入力操作による所要の入力情報の入力、及び撮像画像(音声も含む)のファイルの記録媒体への記録を行うと、上記プログラム(編集プログラム)に従った編集処理として、上記入力操作により得られた入力情報に基づいて、撮像画像のファイルについて所要の再生出力態様を与えるためのスクリプトを生成して記録媒体に記録するようにされる。そして、再生時においては、このスクリプトの記述内容に従った編集効果を与えながら上記撮像画像のファイルの再生を行うようにされる。
つまり、ユーザは、自分がビデオカメラなどにより撮影して得た画像、音声などのソースに対して特に複雑な編集処理を施すことなく、撮影時において、ガイド表示に従った入力操作や撮影を行うだけで、結果的に相応に高度な品質の編集が与えられた映像作品等を作成することができるという効果を有している。
【0165】
そして、上記発明に対応する記録媒体として、画像情報及び音声情報、上記ガイド機能を有する編集プログラム、及びスクリプトファイルが記録される各記録領域を設定したものを提供することで、ユーザが目的とする編集作業と編集再生は、本発明による1つの記録媒体で賄うことができる。つまり、或る目的に従った編集プログラムが記録されている1つの記録媒体をこれに対応する記録再生装置により記録再生することで、編集のための入力操作や撮影などの作業と、作成されたスクリプトに基づく編集再生とを行うことができる。これにより、編集に際してのユーザの作業の手間が省かれる他、編集された映像ソースのライブラリ管理も容易なものとすることができる。
【図面の簡単な説明】
【図1】本実施の形態の記録装置に対応するディスクのトラック構造を示す概念図である。
【図2】本実施の形態の記録装置に対応するディスクのトラック部分を拡大して示す概念図である。
【図3】本実施の形態の記録装置に対応するディスクのスペックを示す説明図である。
【図4】本発明の実施の形態としての記録装置を備えて構成されるビデオカメラの外観を示す正面図、背面図及び側面図である。
【図5】本発明の実施の形態としてのビデオカメラの内部構成を示すブロック図である。
【図6】本実施の形態のビデオカメラにおいて、メディアドライブ部のMD−DATA2ブロックに対応する機能回路部とデッキ部とを示すブロック図である。
【図7】本実施の形態としての編集機能に対応するディスク構造例を示す概念図である。
【図8】本実施の形態において、映像作品の作成(編集処理)に必要とされる情報入力を促すためのガイド表示の表示形態例を示すである。
【図9】本実施の形態において、映像作品の作成(編集処理)に必要とされる情報入力を促すためのガイド表示の表示形態例を示すである。
【図10】本実施の形態において、映像作品の作成(編集処理)に必要とされる情報入力を促すためのガイド表示の表示形態例を示す説明図である。
【図11】映像作品としての再生例を示す説明図である。
【図12】映像作品としての再生例を示す説明図である。
【図13】映像作品としての再生例を示す説明図である。
【図14】ガイド表示に従った情報入力の獲得と、スクリプトの生成を実現するための処理動作を示すフローチャートである。
【図15】スクリプトに基づく映像作品の再生動作を実現するための処理動作を示すフローチャートである。
【符号の説明】
1 レンズブロック、2 カメラブロック、3 ビデオ信号処理部、4 メディアドライブ部、5 デッキ部、6 表示/画像/音声入出力部、6A 表示部、7 操作部、8 外部インターフェイス、9 電源ブロック、11 光学系、12 モータ部、22 サンプルホールド/AGC回路、23 A/Dコンバータ、24 タイミングジェネレータ、25 カメラコントローラ、31 データ処理/システムコントロール回路、32 バッファメモリ、33 ビデオ信号処理回路、34 メモリ、35 動き検出回路、36 メモリ、37 音声圧縮エンコーダ/デコーダ、38 ビデオコントローラ、41 MD−DATA2エンコーダ/デコーダ、42 バッファメモリ、43 二値化回路、44 RF信号処理回路、45 サーボ回路、46 ドライバコントローラ、51 ディスク、52 スピンドルモータ、53 光学ヘッド、54 磁気ヘッド、55 スレッドモータ、61 ビデオD/Aコンバータ、62 表示コントローラ、63 コンポジット信号処理回路、64 A/Dコンバータ、65 D/Aコンバータ、66 アンプ、101 RFアンプ、103 AGC/クランプ回路、104 イコライザ/PLL回路、105 ビタビデコーダ、106 RLL(1,7)復調回路、107 マトリクスアンプ、108 ADIPバンドパスフィルタ、109 A/Bトラック検出回路、110 ADIPデコーダ、111 CLVプロセッサ、112 サーボプロセッサ、113 サーボドライバ、114 データバス、115 スクランブル/EDCエンコード回路、116 ECC処理回路、117 デスクランブル/EDCデコード回路、118 RLL(1,7)変調回路、119 磁気ヘッド駆動回路、120 レーザドライバ、121 転送クロック発生回路、201 カメラレンズ、202マイクロフォン、203ディスクスロット、204 ビューファインダ、205 スピーカ、300 メインダイヤル、301 レリーズキー、304 ズームキー、305 イジェクトキー、306 再生キー、307 停止キー、308,309 サーチキー、310 十字/クリックキー、311 ジョグダイヤル、401 サムネイル画像、402 ポインタ、403 グループタブ、404グループ囲み枠、Ldランド、NWG ノンウォブルドグルーブ、WG ウォブルドグルーブ、Tr・A,Tr・B トラック、Simp スーパインポーズ表示[0001]
BACKGROUND OF THE INVENTION
The present invention relates to a recording / reproducing apparatus capable of recording / reproducing video and audio, a recording / reproducing method, and a recording medium corresponding to such a recording / reproducing apparatus and method.
[0002]
[Prior art]
In recent years, portable video camera devices in which an image pickup apparatus equipped with a CCD or the like and a recording / reproducing apparatus capable of recording / reproducing video and audio are widely used as consumer products.
[0003]
In addition, with the spread of such video cameras, the user can not only simply play and watch the video source recorded by shooting, but can also enjoy the viewing by editing the recorded video source. The desire to finish as a work is also getting stronger.
[0004]
[Problems to be solved by the invention]
However, at present, when a general user wants to edit, there is no other way than purchasing and using a dedicated editing device or using image processing software on a personal computer. In addition to being able to get as expected, there is an economic burden.
[0005]
Moreover, even if editing is performed using the editing equipment and image processing software as described above, there is an aspect that it cannot always be said that a high-quality work can be produced. In other words, it is usually the case that a general user does not know well about editing know-how.
[0006]
[Means for Solving the Problems]
In view of the above-described problems, an object of the present invention is to make it possible for a user such as a general video camera to obtain a video work of appropriate quality by a simple editing operation.
[0007]
For this reason, at least an input instruction program for realizing display of a user interface image for instructing input of editing material information, an image in accordance with a script set in advance using the editing material information acquired by the input instruction program, and An edit program for performing an edit process for audio output, a script file that is described in a predetermined program language and defines a reproduction output mode for images and audio, a record in which image information and audio information are recorded As a recording / reproducing apparatus capable of recording or reproducing corresponding to a medium, display control means for performing display output of a user interface image according to an input instruction program reproduced from the recording medium, and an instruction displayed on the user interface image The operation to enter the required information is performed according to the contents. An operation means, an imaging means for obtaining a captured image, an image recording means for recording the captured image obtained by the imaging means as the image information on the recording medium in accordance with the instruction content displayed on the user interface image, According to the sound collecting means for collecting the sound, the sound recording means for recording the sound collected by the sound collecting means as sound information on the recording medium according to the instruction by the user interface image, and the editing program reproduced from the recording medium As editing processing, the information input by the operating means and the image information and sound information recorded on the recording medium by the image recording means and the sound recording means are used as editing material information, and image and sound output in accordance with the script are performed. A script file that automatically generates a script file for editing and records it on a recording medium. In accordance with the description contents of the editing script file reproduced from the generation / recording means and the recording medium, the reproduction of the image information recorded on the recording medium, the audio information, and the required image / audio signal processing are executed. The reproduction means adapted to output images and sounds is provided.
[0008]
In addition, as a recording / playback method, based on an input instruction program for realizing display of a user interface image for instructing input of editing material information, display control processing for displaying and outputting the user interface image, and display by a user interface image Input information acquisition processing for acquiring information input by an operation performed according to the instruction content to be performed, and an image captured by the imaging unit according to the instruction content displayed on the user interface image as the image information as the recording medium Using the image recording process for recording, the voice recording process for recording the voice picked up by the sound pickup means on the recording medium as voice information in accordance with the instruction by the user interface image, and the editing material information acquired by the input instruction program Image and sound in accordance with a preset script The information obtained by the input information acquisition process, the image recording process, and the image information and audio information recorded on the recording medium by the audio recording process are used as editing material information in accordance with an editing program that implements an editing process for performing Script file generation / recording process for automatically generating and recording an editing script file in which a description for obtaining image and sound output in accordance with the script is obtained, and an editing script reproduced from the recording medium The image information and the sound information recorded on the recording medium are reproduced according to the description content of the file, and the reproduction process for executing the required image / audio signal processing and outputting the image and sound is executed. did.
[0009]
Further, as a recording medium, at least a recording area in which an input instruction program for realizing display of a user interface image for instructing input of editing material information can be recorded, and editing material information acquired by the input instruction program are used. And an editing program for performing an editing process for outputting an image and sound according to a preset script, and a recording area in which recording is possible, and an instruction content displayed on the user interface image The editing material information is defined as a recording area in which image information, audio information, and character information can be recorded, and a reproduction output mode for images and audio described in a predetermined program language. It is generated under the editing process of the program and uses the editing material information to output images and sounds according to the script. A recording region where the script file is recorded with a description contents for realizing was decided to set the recording area recorded.
[0010]
According to the above configuration, a GUI (Graphical User Interface) as a guide function for prompting input of input information necessary for editing according to the editing program is displayed, and the user performs input operation, shooting / recording, etc. according to this guide. To be. Then, as an editing process according to the input operation so far, a script for automatically giving various editing effects (reproduction output mode) to the image / sound source recorded and recorded as input information so far is automatically generated. . That is, the editing process is automatically performed using the information obtained by the input operation performed by the user under the guide function and the editing material obtained by photographing / recording.
[0011]
DETAILED DESCRIPTION OF THE INVENTION
Hereinafter, an image processing apparatus according to an embodiment of the present invention will be described. The image processing apparatus according to this embodiment is mounted on a portable video camera in which a camera apparatus unit and a recording / reproducing apparatus unit capable of recording and reproducing images (still images or moving images) and audio are integrated. Take the case as an example. Further, the recording / reproducing apparatus unit mounted on the video camera of this example is configured to record and reproduce data corresponding to a so-called mini-disc known as a kind of magneto-optical disc.
The description will be given in the following order.
1. Disc format
2. Appearance structure of video camera
3. Internal configuration of the video camera
4). Configuration of media drive
5). Example of disk structure corresponding to this embodiment
6). Thumbnail image generation processing
7). Script overview
8). Editing processing of this embodiment
8-1. Information input according to the guide function
8-2. Editing process
[0012]
1. Disc format
The recording / reproducing apparatus unit mounted on the video camera of this example corresponds to a format called MD data which records / reproduces data corresponding to a mini-disc (magneto-optical disc). As this MD data format, two types of formats called MD-DATA1 and MD-DATA2 have been developed. The video camera of this example is capable of recording at a higher density than MD-DATA1. It is assumed that recording and reproduction are performed in accordance with the format. First, the disk format of MD-DATA2 will be described.
[0013]
1 and 2 conceptually show an example of a track structure of a disk as MD-DATA2. FIGS. 2A and 2B are a cross-sectional view and a plan view, respectively, showing an enlarged portion surrounded by a broken line A in FIG.
As shown in these figures, there are two types of grooves (grooves), a wobbled groove WG provided with wobble (meandering) and a non-wobbled groove NWG provided with no wobble in advance on the disk surface. It is formed. The wobbled groove WG and the non-wobbled groove NWG exist in a double spiral shape on the disk so as to form a land Ld therebetween.
[0014]
In the MD-DATA2 format, the land Ld is used as a track. Since the wobbled groove WG and the non-wobbled groove NWG are formed as described above, the track Tr.A, Tr. The two tracks B are independently formed in a double spiral (double spiral) shape.
The track Tr · A is a track in which the wobbled groove WG is positioned on the outer peripheral side of the disk and the non-wobbled groove NWG is positioned on the inner peripheral side of the disk.
On the other hand, the track Tr · B is a track in which the wobbled groove WG is located on the inner circumference side of the disk and the non-wobbled groove NWG is located on the outer circumference side of the disk.
That is, it can be considered that the wobble is formed only on one side on the outer peripheral side of the disk with respect to the track Tr · A, and the wobble is formed only on one side on the inner peripheral side of the disk with respect to the track Tr · B. .
In this case, the track pitch is the distance between the centers of the adjacent tracks Tr · A and Tr · B, and the track pitch is 0.95 μm as shown in FIG.
[0015]
Here, the wobble formed in the groove as the wobbled groove WG is formed based on a signal in which a physical address on the disk is encoded by FM modulation + biphase modulation. Therefore, it is possible to extract the physical address on the disc by demodulating the reproduction information obtained from the wobbling given to the wobbled groove WG at the time of recording and reproduction.
Further, the address information as the wobbled groove WG is valid for the tracks Tr · A and Tr · B in common. In other words, the track Tr · A located on the inner periphery across the wobbled groove WG and the track Tr · B located on the outer periphery share the address information by wobbling given to the wobbled groove WG. .
Such an addressing method is also called an interlace addressing method. By adopting this interlace addressing method, for example, it is possible to reduce the track pitch while suppressing crosstalk between adjacent wobbles. The method of recording addresses by forming wobbles on the groove is also referred to as the ADIP (Address In Pregroove) method.
[0016]
Further, as described above, it is possible to identify which of the tracks Tr · A and Tr · B sharing the same address information is being traced as follows.
For example, when the 3-beam method is applied and the main beam is tracing the track (land Ld), the remaining two side beams trace the grooves located on both sides of the track being traced by the main beam. It is possible to make it.
[0017]
FIG. 2B shows a state where the main beam spot SPm is tracing the track Tr · A as a specific example. In this case, of the two side beam spots SPs1 and SPs2, the inner side side beam spot SPs1 traces the non-wobbled groove NWG, and the outer side side beam spot SPs2 traces the wobbled groove WG. become.
On the other hand, although not shown, if the main beam spot SPm is tracing the track Tr · B, the side beam spot SPs1 traces the wobbled groove WG and the side beam spot SPs2 is non-wobbled groove. NWG will be traced.
As described above, when the main beam spot SPm traces the track Tr · A and the track Tr · B, the groove to be traced by the side beam spots SPs1, SPs2 is necessarily a wobbled groove. The WG and the non-wobbled groove NWG are interchanged.
[0018]
As a detection signal obtained by the photodetector by reflection of the side beam spots SPs1 and SPs2, different waveforms are obtained depending on which one of the wobbled groove WG and the non-wobbled groove NWG is traced. Based on, for example, it is determined which of the current side beam spots SPs1 and SPs2 is tracing the wobbled groove WG (or the non-wobbled groove NWG), so that the main beam is track Tr · A, Tr · Which of B is traced can be identified.
[0019]
FIG. 3 is a diagram showing the main specifications of the MD-DATA2 format having the track structure as described above in comparison with the MD-DATA1 format.
First, the MD-DATA1 format has a track pitch of 1.6 μm and a pit length of 0.59 μm / bit. The laser wavelength λ is 780 nm, and the aperture ratio NA of the optical head is 0.45.
As a recording method, a groove recording method is adopted. That is, the groove is used as a track for recording and reproduction.
As an addressing method, a single spiral groove (track) is formed, and a wobbled groove in which wobbles as address information are formed on both sides of the groove is used.
[0020]
An EFM (8-14 conversion) system is adopted as a recording data modulation system. As an error correction method, ACIRC (Advanced Cross Interleave Reed-Solomon Code) is adopted, and a convolution type is adopted for data interleaving. For this reason, the data redundancy is 46.3%.
[0021]
Further, in the MD-DATA1 format, CLV (Constant Linear Velocity) is adopted as a disk drive system, and the linear velocity of CLV is set to 1.2 m / s.
The standard data rate at the time of recording / playback is 133 kB / s, and the recording capacity is 140 MB.
[0022]
On the other hand, the MD-DATA2 format that can be supported by the video camera of this example is that the track pitch is 0.95 μm and the pit length is 0.39 μm / bit, both of which are shorter than the MD-DATA1 format. I understand. For example, in order to realize the above pit length, the laser spot λ = 650 nm and the aperture ratio NA = 0.52 of the optical head are used to narrow the beam spot diameter at the in-focus position and widen the band as the optical system. .
[0023]
As described with reference to FIGS. 1 and 2, the land recording method is adopted as the recording method, and the interlace addressing method is adopted as the address method. As a recording data modulation method, an RLL (1, 7) method (RLL: Run Length Limited) adapted to high-density recording is adopted, an error correction method is an RS-PC method, and data interleaving is used. Block complete type is adopted. As a result of adopting each of the above methods, the data redundancy can be suppressed to 19.7%.
[0024]
Even in the MD-DATA2 format, CLV is adopted as the disk drive system, but the linear velocity is 2.0 m / s, and the standard data rate at the time of recording and reproduction is 589 kB / s. . As a recording capacity, 650 MB can be obtained, and when compared with the MD-DATA1 format, a recording density of more than four times is realized.
For example, when moving images are recorded in the MD-DATA2 format, when moving image data is compression-encoded by MPEG2, 15 minutes to 17 minutes in time depending on the bit rate of the encoded data. Can be recorded. Further, assuming that only audio signal data is recorded, when audio data is subjected to compression processing by ATRAC (Adaptve Transform Acoustic Coding) 2, recording can be performed for about 10 hours.
[0025]
2. Appearance structure of video camera
6A, 6B, and 6C are a side view, a plan view, and a rear view showing an example of the appearance of the video camera of this example.
As shown in these drawings, in the
[0026]
Further, a
The reproduced sound is output from the
The indicator 206 is lit during, for example, a recording operation, and indicates to the user that the video camera is recording.
[0027]
A
Further, a
[0028]
Furthermore, each part of the
The main dial 300 is an operator for setting on / off of the video camera, recording operation, and reproduction operation. As shown in the figure, when the main dial is in the “OFF” position, the power is turned off, and when the main dial is rotated to the “STBY” position, the power is turned on and the recording operation is on standby. Further, by turning to the position “PB”, the power is turned on and the standby state of the reproduction operation is set.
[0029]
The
[0030]
A zoom key 304 is an operator for operating a zoom state (telephoto side to wide side) related to image shooting.
The
A reproduction / pause key 306, a stop key 307, and
[0031]
The cross / click key 310 is used by the user to move the pointer display in the horizontal and vertical directions on a thumbnail display screen described later. In this case, a click operation can be performed by pressing the central portion of the key.
The jog dial 311 is a key for performing a required selection operation or input operation by performing a rotation operation under each operation mode. For example, under the character input mode, it is possible to select a character to be input by rotating the jog dial 311. When confirming the input character, for example, a pressing operation (click operation) may be performed on the jog dial 311.
[0032]
Note that the appearance of the video camera shown in FIG. 6 is merely an example, and may be changed as appropriate according to usage conditions or the like actually required for the video camera of this example. Of course, there are various types of operation elements, operation methods, and connection terminals with external devices.
[0033]
3. Internal configuration of the video camera
FIG. 4 is a block diagram showing an example of the internal configuration of the video camera of this example.
In the
[0034]
The
The CCD (Charge Coupled Device) 21 of the
[0035]
Signal processing timing in the
The
For example, in the case of autofocus control, the
[0036]
At the time of recording, the video
Further, at the time of reproduction, user reproduction data (read data from the disk 51) supplied from the
[0037]
In this example, MPEG (Moving Picture Experts Group) 2 is used for moving images and JPEG (Joint Photographic Coding Experts Group) is used for still images as compression / decompression processing methods for image signal data (image data). It shall be adopted. Further, it is assumed that ATRAC (Adaptve Transform Acoustic Coding) 2 is adopted as the audio signal data compression / decompression processing method.
[0038]
The data processing / system control circuit 31 of the video
The video controller 38 executes control processing for the entire video
[0039]
As a basic operation during recording in the video
[0040]
In the MPEG2 video
The image signal data (compressed image data) compressed and encoded by the MPEG2 video
As is well known, the MPEG2 format supports both a constant speed (CBR) and a variable speed (VBR) as the so-called encoding bit rate (data rate). The video
[0041]
For example, when image compression processing by VBR is performed, for example, if the
In the MPEG2 video
[0042]
The audio collected by the
The audio compression encoder /
[0043]
As described above, the compressed image data and the compressed audio signal data can be stored in the
The compressed image data and compressed audio signal data stored in the
Such data writing and reading control with respect to the
[0044]
The operation during reproduction in the video
During reproduction, compressed image data and compressed audio signal data (user reproduction data) read from the
In the data processing / system control circuit 31, for example, the input compressed image data and compressed audio signal data are temporarily stored in the
[0045]
In the MPEG2 video
The audio compression encoder /
[0046]
In the display / image / audio input /
The
In addition to the reproduced image and the captured image, as described above, a message display using characters, characters, or the like for notifying the user of a required message according to the operation of the device is also performed. Such a message display should be output from the data processing / system control circuit 31 to the video D /
[0047]
The composite
[0048]
In the display / image / audio input /
[0049]
In the
[0050]
The MD-DATA2 encoder /
[0051]
At the time of reproduction, the digital reproduction signal read from the
Also in this case, if necessary, the reproduction data is temporarily stored in the
It should be noted that, for example, even when the servo is disconnected due to a disturbance or the like during playback of the
[0052]
The RF
The generated servo control signals are supplied to the
[0053]
In this example, an encoder /
The
[0054]
The deck unit 5 is a part composed of a mechanism for driving the
[0055]
In the deck unit 5, the loaded
The
[0056]
A magnetic head 54 is disposed at a position facing the
Although not shown, the deck unit 5 is provided with a thread mechanism that is driven by a
[0057]
The
[0058]
The
For example, when an external digital image device and the video camera of this example are connected via the I / F terminal T3, an image (sound) captured by the video camera can be recorded on the external digital image device. . In addition, image (sound) data or the like reproduced by an external digital image device can be recorded on the
[0059]
The
During the recording operation, the video controller 38 causes the indicator 206 to perform a light emission operation.
[0060]
4). Configuration of media drive
Next, as a configuration of the
[0061]
Information (photocurrent obtained by detecting the laser reflected light by the photodetector) detected by the data reading operation of the
The
The binarized RF signal is supplied to the MD-DATA2 encoder /
The equalizer /
[0062]
The frequency of the clock CLK corresponds to the current disk rotation speed. Therefore, the CLV processor 111 receives the clock CLK from the equalizer /
[0063]
The
This reproduced data is input to the RLL (1, 7)
[0064]
The data stream obtained by the demodulation processing in the RLL (1, 7)
The data stream developed on the
The data that has been processed so far is used as reproduction data DATAp. The reproduction data DATAp is transferred from the descramble /
[0065]
For example, the transfer clock generation circuit 121 appropriately transmits a crystal clock when performing data transmission between the
Further, a clock having a required frequency to be supplied to each functional circuit unit of the
[0066]
Detection information (photocurrent) read from the
In the matrix amplifier 107, necessary detection processing is performed on the input detection information, whereby a tracking error signal TE, a focus error signal FE, and groove information (absolute address information recorded as a wobbled groove WG on the disk 51) GFM. Are extracted and supplied to the
[0067]
The groove information GFM band-limited by the
In the A / B
[0068]
The CLV processor 111 receives the clock CLK from the equalizer /
[0069]
The
The
By supplying such a servo drive signal to the deck unit 5, focus control and tracking control for the
[0070]
When a recording operation is performed on the
[0071]
In the scramble / EDC encode circuit 115, for example, the recording data DATAAr is written and expanded in the
The recording data DATAr that has been processed so far is read from the
[0072]
The RLL (1, 7)
[0073]
By the way, in the MD-DATA2 format, a so-called laser strobe magnetic field modulation method is adopted as a recording method for the disk. The laser strobe magnetic field modulation method is a recording method in which a magnetic field modulated by recording data is applied to a disk recording surface, and laser light to be irradiated onto the disk is pulsed in synchronization with the recording data.
In such a laser strobe magnetic field modulation method, the formation process of the pit edge recorded on the disc does not depend on the transient characteristics such as the magnetic field reversal speed and is determined by the irradiation timing of the laser pulse.
Therefore, for example, compared with a simple magnetic field modulation method (a method in which a laser beam is constantly irradiated onto a disk and a magnetic field modulated by recording data is applied to a disk recording surface), a laser strobe magnetic field modulation method is used. In this case, it is possible to easily reduce the jitter of the recording pit. That is, the laser strobe magnetic field modulation method is an advantageous recording method for high density recording.
[0074]
The magnetic
[0075]
5). Example of disk structure corresponding to this embodiment
Next, a structural example of the
FIG. 7 conceptually shows a structural example of the
[0076]
In the
For example, a magneto-optical recording area in which magneto-optical recording / reproduction is possible is formed on the outer periphery of the pre-mastered area where the PTOC is recorded. First, the RTOC region is provided for a section of a predetermined size in the innermost circumference. In this RTOC, for example, basic information necessary for managing data recorded on a disc is recorded.
For example, in the case of this example, tracks (which may be synonymous with files) and folders (a structure for grouping and managing tracks), which will be described later, are managed as data recorded on the disc at the time of recording and reproduction. Information for storing is stored.
Note that the contents of the U-TOC in the management area are sequentially rewritten in accordance with, for example, data recording results to date and editing processing results such as deletion of tracks (files) and folders.
[0077]
A data area for recording user data is provided on the outer peripheral side of the RTOC. In the present embodiment, this data area is managed as a volume folder (Volume Folder) placed in one root folder. In the present embodiment, a volume is defined as a complete set of user data, and is defined as having only one volume on one disk. The data contained in this volume is stored as folders and tracks below the volume folder, except for data managed by the PTOC and RTOC.
[0078]
In the volume folder, first, a volume index track (Volume Index Track) of a predetermined size (for example, 12 clusters) is placed at a physically innermost position (management track priority area near the RTOC).
For example, if the PTOC and RTOC are the main management information, the volume index track is defined as an area in which the sub management information is recorded. The track index file is a track (file), a folder, and auxiliary data (Auxiliary Data). And a table in which information for managing the property, title, and packet data forming the track is recorded.
[0079]
In addition, as a track recorded so that at least the first cluster is located in the management track priority area near the RTOC, a thumbnail track (Thumbnail
Picture Track) can be placed as an option.
In this embodiment, it is possible to have one still image reduced by a predetermined resolution as a thumbnail image in association with each file recorded on the disc. The thumbnail image is handled as a representative image for making the file visually recognizable.
The thumbnail track is recorded with index information indicating the association with the file (track) recorded on the disc and the storage position of the thumbnail image. The data length of the thumbnail track can be arbitrarily expanded according to the number of thumbnail images stored.
[0080]
For example, image / sound data recorded by a user by shooting or the like is managed in units of files, and is placed in a volume folder as a track under a volume folder or in a folder under a volume folder. become. In the disc of this embodiment, in addition to moving image data, still image data, audio data, text files such as documents can be stored as files (tracks).
FIG. 7 shows a state in which a certain file is expressed as one track and this track is stored in a certain folder. As described above, the folder is a structure for managing tracks or folders in a group.
Therefore, in the structure below the volume folder, an arbitrary number of tracks or folders are stored within a range defined by the maximum number of items that can be stored in the volume folder and the maximum number of levels of the hierarchical structure of the folder.
[0081]
In the volume folder, an auxiliary data track (Auxiliary Data Track) storing auxiliary data (Auxiliary Data) is arranged.
The information to be stored in the auxiliary data track is arbitrary depending on, for example, the application that is actually applied.
In the present embodiment, script information as reproduction control information is stored.
[0082]
By the way, the information stored in the PTOC, RTOC, or even the volume index track, which is the above-described management information (these information are collectively referred to as “management information” in the present embodiment) is, for example, When the disc is loaded, it is read out and held in a predetermined area of the buffer memory 42 (or buffer memory 32) of the
[0083]
It should be noted that the example of the disk structure shown in this figure is merely an example, and the physical positional relationship of each area on the disk may be changed according to actual use conditions and the structure for storing data. It may be changed.
[0084]
6). Thumbnail image generation processing
The thumbnail images stored in the thumbnail track shown in FIG. 7 can be generated by the video camera of the present embodiment. Here, the thumbnail image generation processing will be described. Here, a case where a thumbnail image for an image file once recorded on the disc is generated will be described.
[0085]
As described above, for example, the management information (PTOC, RTOC, volume index track) recorded on the
[0086]
Then, the
The image data is sequentially transmitted from the
Note that the image data defined as the thumbnail image generation source by the management information is, for example, the first frame (or field) image data in the file, unless otherwise specified.
[0087]
Then, the data processing / system control circuit 31 first controls the MPEG2 video
[0088]
For example, in the stage of the image data decoded to the level of the field image unit, the data is usually data having an image size (number of pixels) that can be displayed almost at full size on the display screen.
Therefore, after the full-size image data in the field image unit is obtained, the full-size image data is reduced so that the actually required thumbnail image size is obtained. It will be.
In order to reduce the image size, for example, the original full-size image data is sampled at appropriate timing with respect to the pixel data, and the signal is used to reconstruct the image data based on the sampled pixel data. What is necessary is just to perform a process.
[0089]
Then, for example, the video controller 38 generates index information (described with reference to FIG. 7) for the thumbnail image data obtained in this way, and records the thumbnail image data together with the index information on the thumbnail track of the disc. Execute control.
In this way, thumbnail image data corresponding to each file is obtained and recorded on the disc.
[0090]
In this embodiment, as can be understood from the above description, in addition to image data (including audio data), audio data based only on audio, and character information data can be recorded as a file. For example, when there is no image data as a thumbnail image generation source in the file, such as voice data and character information data, for example, it can be visually recognized in advance as voice data or character information data. Image data of such a pattern is prepared (for example, stored in the ROM of the video controller 38 or stored in a predetermined area of the disk), and this image data is used as a thumbnail image. This is what you should do.
[0091]
7). Script overview
Further, in the present embodiment, editing processing such as designation of reproduction order and giving a required special effect at the time of reproduction can be performed on a file (mainly a recorded file) recorded by the video camera.
In performing the editing as described above, in this embodiment, a script as reproduction control information capable of giving a required reproduction output mode for a recorded file is prepared. By interpreting the script, a reproduction output mode (for example, reproduction order) corresponding to the editing result is obtained. In the editing stage, the editing process is executed by updating the contents of the script. The “script” here refers to a procedure writing structure described in a predetermined program language for reproducing and outputting moving image data, still image data, audio data, and document data at the same time. It is supposed to be.
[0092]
First of all, a script used as reproduction control information in this embodiment will be schematically described.
[0093]
In the present embodiment, as a script, SMIL (Synchronized Multimedia
Integration Language) shall be adopted.
SMIL is a language that is standardized by W3C (Internet standardization organization) to realize, for example, television program broadcasts and presentations on the Internet, and is based on the grammar of XML (superset of HTML). It is intended to realize time-series presentations.
[0094]
First, scheduling is expressed by two tags <seq> and <par>.
<Seq> means “sequential”, that is, serial, and information surrounded by the tags is reproduced in time order.
<Par> means parallel, that is, parallel, and the information enclosed by the tags is reproduced synchronously.
[0095]
Here, for example, in the file recorded on the disc, when it is specified that the image data files represented as video1, video2, and video3 are reproduced in the order of video1 → video2 → video3,
The description is as follows.
[0096]
Also, when the file video1 → video2 → video3 is reproduced in the order, and the audio1 audio1 file is desired to be simultaneously reproduced as an after-record track for the video1,
The description is performed as follows.
[0097]
Also, a description is provided for designating that a file to be reproduced in synchronization with a certain file is to be reproduced from a position after a certain number of seconds after the certain file is reproduced.
For example, when a caption (for example, an image as character information) is displayed 5 seconds after a video1 image file is displayed (reproduced),
The description is performed as follows.
[0098]
For example, if an instruction is given to display the file picture1 as a still image file for 5 seconds,
<Image src = “picture1” dur = “5s”>
It is described as follows.
[0099]
Also, so-called frame mute is used, and “range” is used when reproducing a part of a certain moving image file. For example, assuming that the standard of SMPTE (Society of Motion Picture and Television) is adopted as the time code,
<Video src = "video1" range = "smpte: 10: 07: 00-10: 007: 33">
It can be described as follows.
[0100]
In addition, “repeat” is used to designate a certain file and repeat. For example, if you want to repeat a video1 file 10 times,
<Video src = “video1” repeat = “10”>
Describe as follows.
[0101]
In this embodiment, such a script called SMIL is used so that display control for giving a required display form as a thumbnail display can be executed.
Therefore, for example, in the video camera system of the present embodiment, a subset of XML is prepared so that interpretation corresponding to this SMIL and script description (generation) can be performed. For example, this may be stored in advance in a ROM or the like in the video controller 38 as a program to be executed by the video controller 38, or may be recorded on the application layer of the disc so that it can be read out.
[0102]
In the present embodiment, such a script is generated or updated by the video controller 38 in, for example, an editing stage (or a recording operation stage) and held in a predetermined area in the
The script held in the
[0103]
8). Function for creating a video work in this embodiment
8-1. Overview
Next, the video work creation function (editing function) of this embodiment will be described. An editing application program (an input instruction program and an editing program) is prepared for the video work creation function of the present embodiment. The application program for editing is a program for editing a video work of a specific genre, and creates a video work according to a preset script.
Specifically, first, when shooting a source (recording file) that is a material of a video work, a GUI as a guide function is displayed based on the above script, so that an input operation required for the user is appropriately performed. And urged to shoot. Information (including character information) obtained by an input operation performed in accordance with this GUI and a recording file (image / audio data file) obtained by photographing are handled as editing material information.
As an actual editing process, a video work is created by performing editing using the editing material information according to the script structure. However, in the present embodiment, in the editing process, the recorded recording file is not directly subjected to the editing process, but the recording file playback order and various editing effects (for example, superimpose and BGM are inserted by the script described above). The video camera interprets the script and performs appropriate signal processing to perform editing and reproduction.
[0104]
In the present embodiment, the editing application program is recorded as one file (track) on the disc. A file recorded by the guide function of the editing application program and a script file are also recorded on the same disk.
In other words, in this embodiment, an editing application program for a video work in accordance with a specific purpose is recorded on a disk, and data and scripts as materials necessary for the editing can be recorded. Thus, a disc specialized for creating and reproducing a video work of this specific genre is provided.
As for the application program for editing, for example, a non-volatile memory may be provided on the video camera side and stored in the non-volatile memory. That is, it is conceivable that the video camera itself is configured to have a function for creating a video work of a specific genre.
[0105]
8-2. Information input and shooting according to the guide function
Therefore, hereinafter, the process of creating a video work in the present embodiment will be described along one specific example.
Here, a case where a golf competition pattern is created as a video work is taken as an example. Therefore, the user in this case prepares a disc specialized to create a video work for a golf competition in which an editing program for a golf competition is recorded.
Here, a case where three users, Mr. A, Mr. B, and Mr. C, perform a golf competition is taken as an example. Hereinafter, the term “user” refers to a person who handles the video camera among at least one of Mr. A, Mr. B, and Mr. C.
[0106]
First, with reference to FIGS. 8 to 10, an example of a procedure in which a user performs information input for editing (operation information input and editing material shooting) while performing a golf competition will be described. In the following description, programs corresponding to input operations and the like are sequentially shown as necessary. This program is equipped with a system that enables the master controller (video controller 38) of the video camera to understand the JAVA language. It is a program when it corresponds to the configuration. Therefore, the variable definition and class definition in this example in this program are shown here first.
Variable list
int numberofparty; // number of parties
String course; // name of the course
Party party []; // Information of members for the number of parties
Track track []; //
Hole hole []; // Information on this course (18 holes)
[0107]
For example, a user (Mr. A, Mr. B, and Ms. C) can use the video camera of the present embodiment and the disc of the present embodiment specialized for creating a golf competition video work (hereinafter simply referred to as “golf disc”). ) And go to the target golf course.
Then, for example, at a stage before rounding the course at a golf course, a golf disc is loaded into the video camera, and the guide function display of the editing application program recorded on the disc is operated by a predetermined operation. As an operation for this, for example, an editing program is selected and reproduced in accordance with a predetermined operation procedure for normal file reproduction. As a result, the editing program is started. For example, the editing program menu screen is displayed first. Then, the user operates the menu screen to call up the guide function display.
[0108]
Thus, for example, the guide display shown in FIG. 8 is performed on the
[0109]
Here, as a guide display for preparatory input before the round, first, the display shown in FIG. 8A is performed. The guide display in FIG. 8A is for inputting the number of people who round the course. In this case, since there are three people, the user performs an operation to input that there are three people on this N screen. As the operation procedure at this time, for example, buttons “2”, “3”, “4”, “5” and an input window of “more” are displayed. The
number of parity = 3;
become that way.
The description of such a program, which will be shown later, needs to be saved in order to be used for creating a script to be described later. For example, the program description is sequentially recorded in a predetermined directory on the disk. What is necessary is just to comprise. Alternatively, it may be possible to store and store the data in a predetermined area of a memory (for example, the buffer memory 42) inside the video camera.
[0110]
When the input operation with respect to the guide display in FIG. 8A is finished and, for example, a click operation is performed on the button displayed as “Next”, the display is switched to the guide display shown in FIG.
The guide display in FIG. 8B prompts photographing of a scene where each member talks about his aspirations. For example, here, the current captured image (the image signal currently obtained by the
The recorded video file (moving image / audio file) captured here is saved by being recorded on a disk with, for example, video1 and a file name,
party [0]. begincomment = video1;
In such a form, association is made that the comment is the comment before the first round.
[0111]
Here, when shooting of one member is finished, the display shown in FIG. 8C is performed as a guide display. That is, it is asked whether or not the video that has just been taken is satisfactory to the user. At this stage, you can play back and check the image you just shot by clicking on the “Review” button. If the result is not satisfactory, click on the “Review” button. By the operation, photographing in the guide display state shown in FIG. 8B can be resumed. Here, if the captured image is satisfactory to the user as a result, the guide display of FIG. 8C is exited by a predetermined operation and the guide display shown in FIG.
[0112]
In the guide display shown in FIG. 8 (d), as information about the member who has just photographed, characters can be input to items that are actually prepared as input items such as name and handy. . In the present embodiment, characters can be input using the jog dial 311 shown in FIG. In this guide display, it is assumed that the member's face photo is displayed. This face photo image is obtained by generating a thumbnail image from image data of a file that records a scene in which an aspiration was previously made. Such processing is automatically executed by the editing program.
Then, when the character input for the necessary items is completed, for example, a click operation on the “OK” button is performed. At this time, as a program, for example, if the character input for the first member photographed is performed,
party [0]. name = “Mr. A”;
party [0]. handycap = 20;
In this way, the member's name and handicap are registered.
[0113]
Here, the guide display is shifted to when the click operation on the “OK” button is performed, but if the shooting of the scene to talk about the aspirations of all the members has not been completed, the process returns to FIG. To be. In this case, since there are three members, the user repeats the procedure described in FIG. 8B → FIG. 8C → FIG. 8D three times. In this way, when the shooting of the scene to talk about the aspirations of all members is completed, as a program,
party [1]. begincomment = video2;
party [2]. begincomment = video3;
In this way, the recorded files that talk about the aspirations of the second and third members are registered as video2 and video3, and by inputting characters for the second and third members on the guide display in FIG. ,
party [1]. name = “Mr. B”;
party [1]. handycap = 8;
party [2]. name = “Mr. C”;
party [2]. handycap = 15;
Association is performed as follows.
[0114]
As described above, after the procedure described with reference to FIG. 8B → FIG. 8C → FIG. 8D is repeated for all the members, the “OK” button shown in FIG. 8D is operated. If it is, the guide display in FIG.
[0115]
In the guide display of FIG. 8 (e), a course to be rounded is selected.
For this reason, in the guide display shown in FIG.8 (e), the candidate of the course of a golf course is displayed. The course of the golf course displayed as a candidate here is assumed to be stored as a database in the editing program. In this database, for example, the number of holes for each course, the number of yards (distance) for each hole, Information such as the number of pars is stored.
On the guide display shown in FIG. 8E, the user operates the cross / click key 310, for example, to select a course of the golf course to be rounded and perform a click operation (decision operation). Here, “柏 country club” is selected and determined as the course of the golf course.
Thereby, as a program,
course = “柏 Country Club”;
Registration is performed as described above.
[0116]
As described above, this editing program has a database of courses. In this case, when the 柏 Country Club is registered as described above, the total length, par Data such as numbers can be accessed. About these databases, as a program,
hole [? ]. par
hole [? ]. length
Can be accessed from variables such as
When the input operation up to course selection (FIG. 8E) is completed as described above, in this case, for example, as shown in the guide display of FIG. A telop such as “Preparation is complete” is displayed so that the user is informed that all input operations as preparation before the round have been completed.
[0117]
Subsequently, a guide display during a round and a user procedure according to the guide display will be described with reference to FIGS. 9 and 10.
For example, after the input operation shown in FIG. 8 is completed, a guide display as shown in FIG. 9A is performed, and an instruction is given to take a tee shot of the first hole. Then, in the subsequent guide display of FIG. 9B, an operation for selecting a member to be a subject is prompted. Also, in the guide display of FIG. 9B, the face photograph of each member is displayed by using the thumbnail image generated from the image data of the file in which the scene where the aspiration was told is recorded. Then, the selection decision operation is performed by moving the cursor with respect to the face photograph of each member.
[0118]
When the selection determination operation is performed on the guide display shown in FIG. 9B, the
[0119]
In this case, when the “OK” button is operated in the guide display shown in FIG. 9D, the display shifts to the guide display shown in FIG. You will be able to enter what happened. Here, four buttons of “great”, “good”, “choro”, and “tempura” are presented as candidates, and the user selects a desired button from these buttons and performs a click operation (decision operation). To be.
The guide display shown in FIG. 9 (b) → FIG. 9 (c) → FIG. 9 (d) → FIG. 9 (e) is repeated for the number of members (in this case, three times), Tea shots can be taken.
Then, according to the procedure according to the guide display of FIG. 9 (b) → FIG. 9 (c) → FIG. 9 (d) → FIG. 9 (e), shooting and evaluation of the tee shots of all members (three people) are performed. Assume that input is complete.
At this stage, the recording files obtained by shooting the tee shots of the three members are named video4, video5, and video6 and recorded on the disc. And on the program,
party [0]. teeshot = video4;
party [1]. teeshot = video5;
party [2]. teeshot = video6;
In this format, each shot file is associated with who the shot is.
Further, based on the input operation for the guide display of FIG.
party [0]. teeshot_quality = OK;
party [1]. teeshot_quality = GREAT;
party [2]. teeshot_quality = CHORO;
The shot evaluation is registered in the format. In this case, a click operation is performed on the “OK” button for Mr. A's shot, the “GREAT” button for Mr. B's shot, and “CHORO” for Mr. C's shot. The result of the click operation on the "" button is reflected.
[0120]
When the procedure related to the tee shot is completed as described above, for example, the guide display shown in FIG. In this guide display, the user is then prompted to arbitrarily shoot a desired scene (synonymous with recording a captured image here). In this case, as a candidate for the shooting content, a “landscape” button corresponding to the shooting of the landscape, a “comment” button corresponding to the shooting of the scene commented by the player, and any later than the tee shot And a “shot” button corresponding to the shooting of the next shot.
The user selects one of these buttons and performs a click operation according to the content he / she wants to shoot.
[0121]
If a click operation is performed on the “landscape” button under the guide display shown in FIG. 9F, for example, the guide display has a content for encouraging shooting of the landscape as shown in FIG. It becomes. Here, a telop “Please take a landscape” is displayed for the current captured image. The user may shoot a target landscape while watching the captured image while viewing the
[0122]
If a click operation is performed on the “comment” button on the guide display shown in FIG. 9F, a guide display for shooting a scene where the player is commenting as shown in FIG. 10B. Display is performed. Also in this guide display, for example, a telop “Please take a comment” on the current captured image and a shooting designation frame for determining the composition are displayed in an impose manner. The user takes a picture of the commenting user while monitoring on the guide display.
Although not shown here, when shooting a “comment”, for example, a guide display similar to that shown in FIG. 9B is displayed to specify which player's comment is to be shot. An input operation is also performed.
[0123]
Alternatively, if a click operation on the “shot” button is performed on the guide display shown in FIG. 9F, the display shifts to the guide display shown in FIG. In this guide display, a hole number where a shot to be shot is to be taken, a display for prompting the user to input the number of shots in that hole, and a button display for inputting the type of shot (here, “tee”, “iron” “Problem” and “Pat” buttons are prepared, and although not shown here, for example, a guide display according to FIG. The input operation is prompted.
When the input operation for the guide display in FIG. 10C is completed, as shown in FIG. 10C, a telop that prompts the player to take a shot in about 5 seconds and a shooting designation frame are captured images. The implied guide display is displayed, and the user is allowed to take a shot.
Although omitted here for the sake of avoiding duplication of explanation, in this case as well, when the shooting of the player's shot is completed, for example, the review and re-shooting as shown in FIGS. For this purpose, a guide display for inputting a shot evaluation or a guide display for inputting a shot evaluation may be displayed.
The user repeats the procedure described with reference to FIGS. 9 (f) to 10 (d) as necessary during play.
[0124]
Here, an example of the contents of the program obtained by the procedure of FIG. 9 (f) to FIG. 10 (d) will be given. ,
First, as a case corresponding to the case where a shot was taken, for example, suppose that Mr. A's trouble shot at the second shot of the fourth hole was recorded as video7.
track [0]. track = video7;
track [0]. type = SHOT;
track [0]. hole = 4;
track [0]. Shotnumber = 2;
track [0]. Shottype = TROUBLE; // TROUBLE means trouble shot.
track [0]. personnumber = 0; // party [0] is Mr. A.
Such additional information is registered.
[0125]
And if B's comment on this shot was recorded as video8, for example,
track [1]. track = video8;
track [1]. type = COMMENT;
track [1]. personnumber = 0;
The additional information is registered as described above.
[0126]
Also, if you shoot the comment of Mr. B above and then shoot the scenery as video9,
track [2]. track = video9;
track [2]. type = SCENE;
track [2]. hole = 4; // Indicates how many holes were taken
The additional information is registered as described above. Note that this additional information includes information indicating the number of holes in which this landscape was shot. The information about the number of holes in this additional information indicates the shooting situation before this (for example, this It is possible to record by analogy from information such as a hole number input corresponding to a shot taken earlier.
[0127]
Then, for example, when a predetermined input operation (not shown here) corresponding to the end of play is performed, or when it is estimated that play has ended from the shooting situation so far, first, FIG. Guide display for score input shown in e) is performed. In response to this guide display, for example, the user operates the jog dial 311 to input a score value for each member. In addition, such a score input screen may be configured so that a score can be input as appropriate so that it can be called as necessary even during play.
As a program that supports score input,
party [0]. score_hole [1] = 3;
party [0]. score_hole [2] = 5;
Recording is performed as described above.
[0128]
Then, when the score input for all the members is completed, for example, a guide display shown in FIG. 10F is displayed. This guide display is for encouraging shooting of scenes in which each member is commenting after playing. In this case, the member to be shot as shown in the figure (as shown in FIG. 9B). First, a screen for selecting a member's face is displayed as a thumbnail image is displayed.
When the user performs an operation for selecting a member to be a subject on this screen, for example, as a guide display, a guide display that prompts shooting for several seconds as shown in FIG. Guide display for prompting confirmation after photographing as shown in FIG. 9D is performed, and the user confirms photographing, recording state, and re-taking according to this display. The same procedure is followed to shoot a scene where all members are commenting.
For example, if the comments of three members are taken in the order of Mr. A, Mr. B, Mr. C, and these are recorded as recorded files with file names video10, video11, and video12, respectively,
party [0]. endcomment = video10;
party [1]. endcomment = video11;
party [2]. endcomment = video12;
In this way, association with each recording file is performed.
[0129]
Upon completion of all the procedures so far, program information based on the input operation of necessary information for creating a video work and a recording file (image / audio information) serving as editing material are obtained as editing material information. It will be.
[0130]
When the guide display shown in FIGS. 8 to 10 is performed, the program AE (in the lens block of the video camera device is actually based on the exposure control value stored in the editing application program. It is assumed that the correction for the Automatic Exposure) function is being performed.
That is, according to the script set as the editing application program, it is possible to easily assume under what circumstances the shooting for collecting the editing material under the guide display is performed. For example, if it is a golf competition, it will be photographed outdoors as a situation.
Therefore, a correction value for AE suitable for the predicted shooting situation is prepared in the editing application program in advance, and AE correction is automatically performed with this correction value when shooting according to the actual guide display. For example, when dealing with a golf competition, an AE correction value that is optimal for outdoor shooting is prepared in an editing application program, and the program AE is controlled by this correction. As a result, for example, even if the user does not perform an operation such as changing the AE program, the AE program is controlled so as to maintain an almost optimal state. It is possible to obtain.
[0131]
8-3. Edit playback (playback as a video work)
Then, in the video camera device of the present embodiment, according to the script set up under the application program for editing, the video using the recording file as the material using the input information obtained as described above Perform editing to create a work. This editing process is realized by a process of configuring a script for designating a reproduction timing including the reproduction order of each recorded file, a superimpose for the reproduced recorded file, and the like. Then, by interpreting the script obtained in this manner and executing image processing for reproducing the recorded file and applying special effects, reproduction as a video work is performed. The created script is saved by being recorded on an auxiliary data track on the disk in which the editing application program corresponding to the script is stored.
[0132]
Therefore, first, an example of a reproduction mode of a video work created by a script described according to the procedure described with reference to FIGS. 8 to 10 will be described with reference to FIGS. In addition, description contents corresponding to a reproduction example of a video work described below and a script generation method will be described later.
[0133]
For example, a user plays a video of a golf editing disc used for shooting at a golf course (at this stage, a recording file serving as an editing material and a script for editing a video work are already recorded). The camera is loaded into a camera and a playback operation is performed.
In response to this operation, the video camera reads the script from the disk, interprets the script, plays the recorded file, and performs image / audio signal processing. Realize.
[0134]
In this case, first, the opening title as shown in FIG. 11A is displayed together with the output of the sound effect.
Subsequently, the member introduction image is displayed as shown in FIG. Here, the member's face photo is displayed along with its name. What is necessary is just to use what was used by the guide display of FIG.9 (b) for this member's face photograph. That is, the thumbnail image used for the guide display in FIG. 9B is recorded on the thumbnail track of the disc at the time of the input operation and shooting at the site.
[0135]
Subsequently, for example, as shown in FIG. 11C, the scene where Mr. A talks about his aspiration is displayed as a moving image (recorded file recorded as video1). At this time, since the
[0136]
After this, the scene of each member's tee shot is displayed. For example, here, after the comment scene of the aspiration of each member shown in FIG. 11 (c) is displayed, the scene where A is taking a tee shot is displayed as shown in FIG. 11 (d). The state is shown (video 4). Here, a superimpose display Sim indicating the information of the hole and a superimpose display Sim explaining the scene “Mr. A's tee shot!” Are performed like “1H 300 yd par5”. Furthermore, a superimpose display “Simp” is displayed using characters “GREAT” to effectively explain the great shot. For example, the “GREAT” superimpose display “Simp” is displayed in accordance with the input operation in accordance with the guide display shown in FIG. 9 (e). As an effect, the superimpose display “Simp” of such a design is automatically displayed. Such tee shot scenes are also displayed in order for all members (videos 5 and 6). At this time, as long as the basic display is obtained by playing the recorded file, the recorded audio may be played back at the same time, which can be easily realized. It is.
[0137]
Thereafter, for example, an image and sound of a recording file arbitrarily shot on site after the tee shot is output with some required editing effect.
In this case, after displaying the tee shot scene of each member shown in FIG. 11 (d), as shown in FIG. 12 (a), the scene of Mr. A's trouble shot (recorded as video7) Is displayed.
Here, the contents indicating hole information and the contents indicating that Mr. A is in a trouble shot together with the current score are inserted as the superimpose display Sim.
[0138]
Subsequently, for example, as shown in FIG. 12B, by playing
[0139]
Also, in this case, following FIG. 12B, a moving image (or still image) in which a green of a certain hole is captured as a landscape captured by the user as
[0140]
If such display is performed and video output until the end of the game is performed, the display screen is, for example, as shown in FIG. A score indicating the performance of each member so far is displayed. This score display is obtained based on information obtained by the score input operation shown in FIG.
[0141]
When the score display is completed, a display in the form as shown in FIG. 13B is performed as an ending title. Here, for example, an image of a smiling character prepared by an editing application program is displayed, and the winners “That ’s why this time” and “Mr. B won!” A superimpose display Sim shown is displayed. The winner is identified by referring to the score of each member obtained by the score input operation shown in FIG. 10E, as will be described later in the script creation method.
With the end of the display of the ending title, the playback as a video work ends.
[0142]
8-4. Script contents
Next, the contents of a script for realizing the display as the video work shown in FIGS.
As described above, in the video camera of this embodiment, the input information obtained according to the guide display as shown in FIGS. 8 to 10 and the file as the editing material recorded as the recording file are used in combination. In this way, meta information called a script file is configured. This script file is constructed under the condition that an application program for editing is being executed at a required opportunity (in practice, preferably immediately after) after the information input and shooting according to the guide display are completed. It is assumed that the video controller 38 executes using a subset of XML mounted therein.
Here, based on the SMIL grammar, an example is shown in which JAVA A431plapple is used for the superimpose.
[0143]
The image processing for superimposing the text designated by the superimpose applet in the script may be executed as follows, for example.
[0144]
One is to use the function of the character generator and on-screen display realized by the video controller 38 and the data processing / system control circuit 31. That is, the video controller 38 generates character / symbol information of the designated text when the interpreted script is to display the text designated by the superimpose applet. Then, the control for the data processing / system control circuit 31 is executed so that the generated characters / symbols and the like are displayed at a predetermined position on the image of the recording file being reproduced.
[0145]
In addition, with respect to the characters of the superimpose display Sim designed as “柏 CC golf competition” in FIG. 11A and “GREAT” in FIG. Although it is possible to generate data, for example, in the case of a special design as described above, this image is recorded in advance as a file in a required directory as data of an editing application program. If processing is performed so that data is read out as necessary and superimposed on a playback image of a recorded file (video) (such image processing is performed by the data processing / system control circuit 31), the video controller 38 In addition, the processing load on the data processing / system control circuit 31 is reduced.
[0146]
Note that, for example, the superimpose processing is applied mutatis mutandis to the case of realizing the display of a telop in the guide display with the captured image as the background and the display of the photographing designation frame shown in FIGS.
That is, the video controller 38 executes control processing for reading out the telop prepared by the editing application program and the image data file of the shooting designation frame from the disk and supplying them to the video
In the data processing / system control circuit 31, the decoded telop and image data of the designated shooting frame are displayed at a required position on the captured image supplied from the camera block under the control of the video controller 38. The image composition processing is performed. The image data is displayed on the
[0147]
8-5. Script generation method
Next, a description will be given of a script generation method obtained under an environment in which the editing application program of this embodiment is activated.
Here, as a specific example, the case of generating the script contents for realizing the display as the video work shown in FIGS. 11 to 13 is taken as an example, and the input variables and other sets are set for each script section. Let's look at how wizards are generated from the information of the above. Here, the parameter calculation method is shown in C ++ language.
Section 1 (Figure 11 (a))
course = coursesen; // Follow the course selected by the user
date = getdate (); // Date is received from a calendar function provided in the set (for example, the video controller 38).
Section 8 (Figure 13 (a))
The score input in advance is score. It is converted into a file called txt and recorded on the disc.
Section 9 (Figure 13 (b))
First, the member with the lowest total score is searched. If it is the i th person
video = party [i]. endcomment;
topcaption = ”, so this time,“;
bottomcaption "value = party [i] .name +" wins ";
The script can be derived from the input information obtained by the input operation described with reference to FIGS. 8 to 10 and the recorded file of the captured image by executing such calculation.
[0148]
8-6. Processing action
Next, a processing operation example for realizing the editing operation described so far will be described with reference to the flowcharts of FIGS. 13 and 14. The processing operation shown in FIG. 13 and FIG. 14 is performed by the data controller / system control circuit 31, the
[0149]
The processing operation shown in FIG. 14 shows processing until a script is generated based on, for example, the guide display shown in FIGS. 8 to 10 and information input (including recording of a captured image) performed according to the guide display. Has been.
First, when an instruction for operating the guide function display of the editing application program is given by a predetermined operation on the
Then, in the subsequent step S102, for example, processing for starting an editing application program is executed using the RAM in the video controller 38, for example.
[0150]
In the next step S103, the exposure control value for the imaging optical system of the video camera device included in the editing application program is referred to, and based on this exposure control value, the AE (Automatic Exposure) in the
[0151]
Then, in the next step S104, control processing for performing guide display is started in accordance with the started editing application program. Thereby, after that, for example, guide display is performed on the
[0152]
Step S105 stores the input operation sequentially performed according to the instruction prompted by the guide display and the content (input information, here, the operation input information and the recording file) obtained by photographing (recording). The process for performing is performed.
That is, for example, as described with reference to FIGS. 8 to 10, the user performs a required input operation or recording in accordance with the input of information prompted for each guide display, which is obtained by these input operations. A process for holding information and a recording file obtained by recording as an editing material is executed. Here, it is assumed that input information (operation input information) obtained by operation input is held in, for example, a RAM inside the video controller 38. In addition, a recording file obtained by shooting is recorded as a file (track) in a directory in a disk folder.
Then, for example, if all information input according to the guide display is performed (that is, the guide display ends), the process proceeds to step S106.
[0153]
In step S106, processing for reconfiguring the held content according to a script preset as an editing application program is executed. That is, the program contents described in parallel with the description with reference to FIGS. 8 to 10 are set. Here, the process of step S105 is assumed to be executed after the end of the guide display. However, in practice, for example, as the process of step S105, content acquisition (holding of operation input information and recording of a recording file) is performed. The process of step S106 may be executed every time the process is performed.
[0154]
When the processing of step S106 is completed, the video controller 38 proceeds to step S107, uses the content of the content reconstructed as described above, and executes a script according to the script preset by the editing application program. Execute the process to generate. As a result, for example, a script having the description contents as described above is obtained.
[0155]
In the next step S108, control processing for recording the script generated as described above as a script file on the auxiliary data track of the disc is executed, and the processing so far is terminated. .
Through the processing so far, in addition to the editing application program recorded in advance, a recording file serving as editing material and a script file in which a description for designating editing contents is recorded are recorded.
[0156]
Next, editing and playback using the disc obtained as described above, that is, processing operation for playing back a video work based on a recording file serving as editing material will be described with reference to the flowchart of FIG.
[0157]
For example, if a required operation for starting reproduction of a video work is performed on the operation unit, the video controller 38 proceeds to the process shown in FIG.
In the process shown in this figure, a script recorded on the disk is first read in step S201. Here, the script to be read is a script that is created in accordance with the execution of the editing application program in advance and describes the contents for reproducing the video work.
The script read from the disk is stored in a predetermined area of the
[0158]
Then, in step S202, interpretation of the script file read from the disk as described above is started, and playback processing according to the description content of the interpreted script is executed as processing in step S203. In other words, a necessary recording file (and a file such as a BGM audio track) required in accordance with the script description is read from the disk, and a reproduction process for outputting this as an image / audio is executed. Control for a required functional circuit unit is executed. At the same time, for example, image signal processing for superimpose display of required characters and symbols corresponding to the <applet> tag, audio signal processing for BGM output, etc. Execute.
By the processing in step S203, for example, the image / sound reproduction output mode as the video work shown in FIGS. 11 to 13 is obtained.
[0159]
Then, if it is determined that the interpretation of the script has been completed as the processing in step S204, the processing so far is terminated. In other words, the playback operation so far is finished in a state where the video work has been played to the end. Although not shown in this figure, for example, if a stop operation is performed, the playback of the video work is terminated at that time, and if a pause operation is performed, the pause operation is performed. Control processing is executed so that the displayed image is maintained and the progress of script interpretation is also temporarily stopped.
[0160]
In the above embodiment, the configuration for realizing the editing process for creating the video work corresponding to the golf competition has been described. However, this is merely an example, and the video work according to other purposes is created. In this case, it can be realized according to the configuration described so far.
[0161]
Moreover, the guide display shown as the said embodiment, how to give various edit effects in the state finished as a video work, etc. can be changed suitably according to actuality.
Further, the script language employed in the present embodiment is not limited to SMIL, and a configuration employed by another language may be employed.
[0162]
Further, for example, the editing operation examples shown in FIGS. 8 to 10 as the above-described embodiment are merely examples, and other operation modes and the like can be used as long as the operation modes can be simplified by general users. Other display forms may be adopted. As an example, the
[0163]
Further, the video camera of the present embodiment is a disc recording / reproducing apparatus based on MD-DATA2 as a video recording / reproducing part. However, the video recording / reproducing part is not limited to the configuration of the present embodiment, and other parts. It may be a recording / reproducing apparatus corresponding to the type of disc-shaped recording medium.
Further, in the present embodiment, the MPEG2 system has been described for compressing moving image data. However, for example, a method capable of compressing and encoding other moving image data may be employed. Further, the compression method for still image data and audio data is not particularly limited to those exemplified as the present embodiment (JPEG, ATRAC2, etc.).
[0164]
【The invention's effect】
As described above, the present invention realizes a GUI as a guide function for prompting input of information necessary for editing as an editing process program (editing application program) (input instruction program) ), And according to this guide display, input the required input information by input operation and record the captured image (including audio) on the recording medium, then edit according to the above program (editing program) As a process, based on the input information obtained by the input operation, a script for giving a required reproduction output mode for the captured image file is generated and recorded on the recording medium. At the time of reproduction, the captured image file is reproduced while providing an editing effect according to the description content of the script.
That is, the user performs an input operation or shooting according to the guide display at the time of shooting without performing particularly complicated editing processing on the source of images, sounds, and the like obtained by shooting with a video camera or the like. As a result, it is possible to create a video work or the like that has been given a high-quality editing as a result.
[0165]
Then, as a recording medium corresponding to the above-mentioned invention, it is an object of the user to provide a recording medium in which image information and audio information, an editing program having the above guide function, and each recording area in which a script file is recorded are set. Editing and editing / playback can be covered by a single recording medium according to the present invention. In other words, a recording medium on which an editing program according to a certain purpose is recorded is recorded and reproduced by a recording / reproducing apparatus corresponding to the recording medium. Editing and playback based on a script can be performed. As a result, the user's work during editing can be saved, and library management of the edited video source can be facilitated.
[Brief description of the drawings]
FIG. 1 is a conceptual diagram showing a track structure of a disc corresponding to the recording apparatus of the present embodiment.
FIG. 2 is an enlarged conceptual view showing a track portion of a disk corresponding to the recording apparatus of the present embodiment.
FIG. 3 is an explanatory diagram showing disk specifications corresponding to the recording apparatus of the present embodiment;
FIGS. 4A and 4B are a front view, a rear view, and a side view showing an external appearance of a video camera that includes the recording apparatus according to the embodiment of the invention. FIGS.
FIG. 5 is a block diagram showing an internal configuration of a video camera as an embodiment of the present invention.
FIG. 6 is a block diagram showing a functional circuit unit and a deck unit corresponding to the MD-DATA2 block of the media drive unit in the video camera of the present embodiment.
FIG. 7 is a conceptual diagram showing an example of a disk structure corresponding to an editing function as the present embodiment.
FIG. 8 shows an example of a display form of a guide display for prompting information input required for creating (editing) a video work in the present embodiment.
FIG. 9 shows an example of a display form of a guide display for prompting input of information required for creating (editing) a video work in the present embodiment.
FIG. 10 is an explanatory diagram showing a display form example of a guide display for prompting information input necessary for creating (editing) a video work in the present embodiment.
FIG. 11 is an explanatory diagram showing an example of reproduction as a video work.
FIG. 12 is an explanatory diagram showing an example of reproduction as a video work.
FIG. 13 is an explanatory diagram showing an example of reproduction as a video work.
FIG. 14 is a flowchart showing processing operations for realizing acquisition of information input and generation of a script according to a guide display.
FIG. 15 is a flowchart showing a processing operation for realizing a playback operation of a video work based on a script.
[Explanation of symbols]
1 lens block, 2 camera block, 3 video signal processing unit, 4 media drive unit, 5 deck unit, 6 display / image / audio input / output unit, 6A display unit, 7 operation unit, 8 external interface, 9 power supply block, 11 Optical system, 12 motor section, 22 sample hold / AGC circuit, 23 A / D converter, 24 timing generator, 25 camera controller, 31 data processing / system control circuit, 32 buffer memory, 33 video signal processing circuit, 34 memory, 35 Motion detection circuit, 36 memory, 37 audio compression encoder / decoder, 38 video controller, 41 MD-DATA2 encoder / decoder, 42 buffer memory, 43 binarization circuit, 44 RF signal processing circuit, 45 servo circuit, 46 driver controller, 51 Disc, 52 spindle motor, 53 optical head, 54 magnetic head, 55 thread motor, 61 video D / A converter, 62 display controller, 63 composite signal processing circuit, 64 A / D converter, 65 D / A converter, 66 amplifier, 101 RF amplifier, 103 AGC / clamp circuit, 104 equalizer / PLL circuit, 105 Viterbi decoder, 106 RLL (1, 7) demodulation circuit, 107 matrix amplifier, 108 ADIP bandpass filter, 109 A / B track detection circuit, 110 ADIP Decoder, 111 CLV processor, 112 servo processor, 113 servo driver, 114 data bus, 115 scramble / EDC encoding circuit, 116 ECC processing circuit, 117 descrambling / EDC decoding Circuit, 118 RLL (1, 7) modulation circuit, 119 magnetic head drive circuit, 120 laser driver, 121 transfer clock generation circuit, 201 camera lens, 202 microphone, 203 disk slot, 204 viewfinder, 205 speaker, 300 main dial, 301 Release Key, 304 Zoom Key, 305 Eject Key, 306 Play Key, 307 Stop Key, 308, 309 Search Key, 310 Cross / Click Key, 311 Jog Dial, 401 Thumbnail Image, 402 Pointer, 403 Group Tab, 404 Group Box, Ld land, NWG non-wobbled groove, WG wobbled groove, Tr / A, Tr / B track, Sim superimpose display
Claims (3)
上記記録媒体から再生した入力指示プログラムに従って、上記ユーザインターフェイス画像の表示出力を行う表示制御手段と、
上記ユーザインターフェイス画像にて表示される指示内容に従って、所要の情報を入力するための操作が行われる操作手段と、
撮像画像を得る撮像手段と、
上記ユーザインターフェイス画像にて表示される指示内容に従って、上記撮像手段により得た撮像画像を上記画像情報として上記記録媒体に対して記録する画像記録手段と、
音声を収音する収音手段と、
上記ユーザインターフェイス画像による指示に従って上記収音手段により収音された音声を上記音声情報として上記記録媒体に記録する音声記録手段と、
上記記録媒体から再生した上記編集プログラムに従った編集処理として、上記操作手段により入力された情報と、上記画像記録手段と上記音声記録手段により記録媒体に記録された画像情報、音声情報とを編集素材情報として利用し、上記脚本に従った画像及び音声出力が得られるための記述がされた編集用スクリプトファイルを自動的に生成して上記記録媒体に記録するスクリプトファイル生成/記録手段と、
上記記録媒体から再生した上記編集用スクリプトファイルの記述内容に従って、上記記録媒体に記録されている画像情報、音声情報についての再生、及び所要の画像/音声信号処理を実行して、画像及び音声出力を行うようにされた再生手段と、
を備えていることを特徴とする記録再生装置。At least an input instruction program for realizing display of a user interface image for instructing input of editing material information, and an image and audio output in accordance with a preset script using the editing material information acquired by the input instruction program Corresponding to an editing program for performing editing processing, a script file which is described in a predetermined program language and defines a reproduction output mode for images and sound, and a recording medium on which image information and sound information are recorded As a recording / reproducing apparatus that can perform recording or reproduction,
Display control means for performing display output of the user interface image according to the input instruction program reproduced from the recording medium;
In accordance with the instruction content displayed in the user interface image, an operation means for performing an operation for inputting required information;
An imaging means for obtaining a captured image;
Image recording means for recording a captured image obtained by the imaging means on the recording medium as the image information in accordance with the instruction content displayed on the user interface image;
Sound collection means for collecting sound;
Sound recording means for recording the sound collected by the sound collecting means according to the instruction by the user interface image on the recording medium as the sound information;
As editing processing according to the editing program reproduced from the recording medium, the information input by the operating means, and the image information and audio information recorded on the recording medium by the image recording means and the audio recording means are edited. Script file generation / recording means for automatically generating and recording an editing script file in which a description for obtaining image and sound output according to the script is obtained and recorded on the recording medium, as material information;
According to the description contents of the editing script file reproduced from the recording medium, reproduction of image information and audio information recorded on the recording medium and necessary image / audio signal processing are executed, and image and audio output is performed. Playback means adapted to perform,
A recording / reproducing apparatus comprising:
上記ユーザインターフェイス画像にて表示される指示内容に応じて行われた操作により入力された情報を獲得する入力情報獲得処理と、
上記ユーザインターフェイス画像にて表示される指示内容に従って、撮像手段により撮像した画像を上記画像情報として上記記録媒体に対して記録する画像記録処理と、
上記ユーザインターフェイス画像による指示に従って収音手段により収音された音声を上記音声情報として上記記録媒体に記録する音声記録処理と、
上記入力指示プログラムにより獲得した編集素材情報を利用して予め設定された脚本に従った画像及び音声出力を行うための編集処理を実現する編集プログラムに従って、上記入力情報獲得処理により得た情報と、上記画像記録処理と上記音声記録処理により記録媒体に記録された画像情報、音声情報とを編集素材情報として利用し、上記脚本に従った画像及び音声出力が得られるための記述がされた編集用スクリプトファイルを自動的に生成して上記記録媒体に記録するスクリプトファイル生成/記録処理と、
上記記録媒体から再生した上記編集用スクリプトファイルの記述内容に従って、上記記録媒体に記録されている画像情報、音声情報についての再生、及び所要の画像/音声信号処理を実行して、画像及び音声出力を行う再生処理と、
を実行可能に構成されていることを特徴とする記録再生方法。A display control process for performing display output of the user interface image based on an input instruction program for realizing display of a user interface image for instructing input of editing material information;
An input information acquisition process for acquiring information input by an operation performed according to the instruction content displayed in the user interface image;
In accordance with the instruction content displayed on the user interface image, an image recording process for recording an image captured by the imaging unit on the recording medium as the image information;
A sound recording process for recording the sound collected by the sound collecting means according to the instruction by the user interface image as the sound information on the recording medium;
Information obtained by the input information acquisition process according to an editing program that implements an editing process for performing image and audio output according to a preset script using the editing material information acquired by the input instruction program; Editing for which the image information and audio information recorded on the recording medium by the image recording process and the audio recording process are used as editing material information and described to obtain an image and audio output according to the script. Script file generation / recording processing for automatically generating a script file and recording it on the recording medium;
According to the description contents of the editing script file reproduced from the recording medium, reproduction of image information and audio information recorded on the recording medium and necessary image / audio signal processing are executed, and image and audio output is performed. Playback process to perform
The recording / reproducing method is characterized in that it is configured to be executable.
編集素材情報の入力を指示するユーザインターフェイス画像の表示を実現する入力指示プログラムが記録可能とされる記録領域と、
この入力指示プログラムにより獲得した編集素材情報を利用して予め設定された脚本に従った画像及び音声出力を行うための編集処理を実現する編集プログラムが記録可能とされる記録領域と、
上記ユーザインターフェイス画像にて表示される指示内容に応じて得られたとされる編集素材情報として、画像情報、音声情報、文字情報が記録可能とされる記録領域と、
所定のプログラム言語により記述されて画像及び音声についての再生出力態様を規定するものであって、上記編集プログラムの編集処理のもとで生成され、上記編集素材情報を利用することで上記脚本に従った画像及び音声出力を実現するための記述内容を有するスクリプトファイルが記録される記録領域と、
が設定されていることを特徴とする記録媒体。at least,
A recording area in which an input instruction program for realizing display of a user interface image for instructing input of editing material information can be recorded;
A recording area in which an editing program that realizes an editing process for performing image and audio output in accordance with a preset script using the editing material information acquired by the input instruction program can be recorded;
As editing material information obtained according to the instruction content displayed in the user interface image, a recording area in which image information, audio information, and character information can be recorded;
It is described in a predetermined program language and defines the reproduction output mode for images and sounds. A recording area in which a script file having a description content for realizing image and audio output is recorded;
Is set.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP21758698A JP3988266B2 (en) | 1998-07-31 | 1998-07-31 | Recording / reproducing apparatus, recording / reproducing method, and recording medium |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP21758698A JP3988266B2 (en) | 1998-07-31 | 1998-07-31 | Recording / reproducing apparatus, recording / reproducing method, and recording medium |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2000048543A JP2000048543A (en) | 2000-02-18 |
JP3988266B2 true JP3988266B2 (en) | 2007-10-10 |
Family
ID=16706617
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP21758698A Expired - Fee Related JP3988266B2 (en) | 1998-07-31 | 1998-07-31 | Recording / reproducing apparatus, recording / reproducing method, and recording medium |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP3988266B2 (en) |
Families Citing this family (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP3667191B2 (en) * | 2000-03-22 | 2005-07-06 | 株式会社ソニー・コンピュータエンタテインメント | STREAM DATA REPRODUCING DEVICE AND METHOD, AND RECORDING MEDIUM |
US20050206751A1 (en) * | 2004-03-19 | 2005-09-22 | East Kodak Company | Digital video system for assembling video sequences |
WO2006093184A1 (en) * | 2005-03-01 | 2006-09-08 | Pioneer Corporation | Video edition device, video edition method, and computer program for performing video edition |
JP6093289B2 (en) * | 2013-12-10 | 2017-03-08 | 株式会社フレイ・スリー | Video processing apparatus, video processing method, and program |
-
1998
- 1998-07-31 JP JP21758698A patent/JP3988266B2/en not_active Expired - Fee Related
Also Published As
Publication number | Publication date |
---|---|
JP2000048543A (en) | 2000-02-18 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP4348821B2 (en) | Editing device, editing method | |
US8244104B2 (en) | System for creating content using content project data | |
JP3982072B2 (en) | Image processing apparatus and display method | |
JP4592844B2 (en) | Data reproducing apparatus and data reproducing method | |
JPH08273304A (en) | Recording medium in which data provided with navigation data is recorded, device and method for reproducing data according to navigation data, device and method for recording data provided with navigation data in recording medium and system for transferring data through communication system on the basis of navigation data | |
JP2001157154A (en) | Recording or reproducing device and reproducing device | |
JP4269465B2 (en) | Image display system and image display method | |
JP3988266B2 (en) | Recording / reproducing apparatus, recording / reproducing method, and recording medium | |
JP4820485B2 (en) | Image processing device | |
JP4178679B2 (en) | Recording / reproducing apparatus and image display method | |
JP4423698B2 (en) | Thumbnail display device | |
JP4114317B2 (en) | Editing device | |
JPH11339446A (en) | Recording/reproducing apparatus | |
JP2001069387A (en) | Recorder and recording method | |
JPH11273230A (en) | Recording medium, recording and reproducing device and its method | |
JP2000217055A (en) | Image processor | |
JP2000215648A (en) | Recording device | |
JP2002135709A (en) | Editing device, recording and reproducing device, editing method, and recording medium | |
JPH11195288A (en) | Editing device and disk recording medium | |
JP2000236466A (en) | Recording device and reproducing device | |
JPH11219525A (en) | Disk shaped recording medium, recorder and reproducer | |
JPH11213524A (en) | Recording and reproducing device | |
JP2000069330A (en) | Video camera system | |
JPH11205719A (en) | Image processing unit | |
JP2875237B2 (en) | Optical disc reproducing apparatus, reproducing method, recording method and recording apparatus |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20050301 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20070626 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20070709 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20100727 Year of fee payment: 3 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20100727 Year of fee payment: 3 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20110727 Year of fee payment: 4 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20120727 Year of fee payment: 5 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20130727 Year of fee payment: 6 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
LAPS | Cancellation because of no payment of annual fees |