Nothing Special   »   [go: up one dir, main page]

JP3982072B2 - Image processing apparatus and display method - Google Patents

Image processing apparatus and display method Download PDF

Info

Publication number
JP3982072B2
JP3982072B2 JP20923498A JP20923498A JP3982072B2 JP 3982072 B2 JP3982072 B2 JP 3982072B2 JP 20923498 A JP20923498 A JP 20923498A JP 20923498 A JP20923498 A JP 20923498A JP 3982072 B2 JP3982072 B2 JP 3982072B2
Authority
JP
Japan
Prior art keywords
group
display
image
data
thumbnail
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Lifetime
Application number
JP20923498A
Other languages
Japanese (ja)
Other versions
JP2000041209A5 (en
JP2000041209A (en
Inventor
高 川上
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Sony Corp
Original Assignee
Sony Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Sony Corp filed Critical Sony Corp
Priority to JP20923498A priority Critical patent/JP3982072B2/en
Publication of JP2000041209A publication Critical patent/JP2000041209A/en
Publication of JP2000041209A5 publication Critical patent/JP2000041209A5/ja
Application granted granted Critical
Publication of JP3982072B2 publication Critical patent/JP3982072B2/en
Anticipated expiration legal-status Critical
Expired - Lifetime legal-status Critical Current

Links

Images

Landscapes

  • Processing Or Creating Images (AREA)
  • Studio Circuits (AREA)
  • Television Signal Processing For Recording (AREA)
  • Studio Devices (AREA)

Description

【0001】
【発明の属する技術分野】
本発明は、例えば或る記録媒体に記録されたファイルを代表する代表画像を、1画面に対して複数表示させるための画像処理を行う画像処理装置、及び表示方法に関するものである。
【0002】
【従来の技術】
現在、パーソナルコンピュータでは、例えばハードディスクなどの記憶装置に記録されている各種ファイルを管理するのに、いわゆるデスクトップ画面上で行われるようなGUI(Graphical User Interface)による管理形態を採っている。これは、基本的には、記録媒体に記録されているファイルをアイコン化して表示するものである。一般には、このアイコンを選択してクリックすると、そのアイコンに対応するファイルについての再生(例えば表示や音声出力等)が行われるようになっている。
そして、パーソナルコンピュータのGUIでは、ユーザが選択した任意の複数のファイルを1つのフォルダに纏めるようにし、更にフォルダを階層化して管理することも行われている。周知のように、このフォルダは、ユーザの操作により展開されて、内部に纏められているとされる各ファイルをユーザが把握できるように表示させることができ、逆に、この状態から、そのフォルダを閉じた状態で表示させる(このときファイルはフォルダ内部に格納されているものとして見なされる)ことも出来るようになっている。
また、フォルダが階層化されている場合、例えば或る子のフォルダから、その親のフォルダ(1つ上の階層のフォルダ)に移行する必要のある場合には、一般には子のフォルダが展開されている画像上で親のフォルダに移行するためのキーが表示されているので、このキーをクリック操作することなどによって、親のフォルダに移行することができるようになっている。
【0003】
そして、ビデオカメラなどにおいて、記録媒体に記録した動画像や静止画等の画像データのファイル等を検索するためのGUI(Graphical User Interface)の形態を考えた場合、上記したようなパーソナルコンピュータで採用されているGUIとしてのファイル管理形態を応用することが考えられる。。
つまり、記録媒体に記録されているファイルを、例えばサムネイル画像などによりアイコン化して表示するようにする。「サムネイル画像」とは、例えば記録媒体に記録されているファイルごとに代表となるような、静止画或いは動画による代表画面を、1画面内において、通常よりも縮小した形態で表示した画像のことをいう。また、本明細書では、このようにしてサムネイル画像を提示する表示を「サムネイル表示」ともいうことにする。このようなサムネイル表示画像上において、ユーザが所定操作によって、所望のアイコン(サムネイル画像)に対してクリック操作などを行えば、そのクリックされたアイコンに対応するファイルの再生が行われるようにされる。
そして、複数のファイルのアイコンをフォルダ化して1つに纏められるようにしたうえで、これらのフォルダについて階層化構造が得られるようにするものである。
【0004】
【発明が解決しようとする課題】
ところで、上記したようなパーソナルコンピュータのGUIでは、例えば或る1つのフォルダと、このフォルダの親、又は子との関係が1目では把握しづらいという問題がある。
例えば、或る1つのフォルダのみが表示されている状態から、その親フォルダを参照しようとした場合について考えてみると、この場合には先ず、親フォルダを表示させるためのキー表示に対して操作を行うことになる。この操作により、親フォルダは展開された状態で画面上に表示されることになるが、パーソナルコンピュータのGUI画面では、一般には、この親フォルダと、先から表示されていた子のフォルダとが同一画面上で並列的に表示されるため、やはりフォルダ間の親子関係が一目では把握しにくい状態となっている。
【0005】
このようなGUIを、前述したビデオカメラなどにより記録されたファイルの検索画面に応用したとすると、例えばパーソナルコンピュータの操作に或る程度慣れているユーザならばいざ知らず、普段パーソナルコンピュータを扱うことの無いような家電製品のユーザにとっては、フォルダの親子関係の概念を理解するのが難しいことになる。
従って、例えばビデオカメラのような、一般の家電品に近いような製品のGUIとしてはパーソナルコンピュータに不慣れなユーザにとっても見易く、扱いやすいGUI画面を構築することが望まれる。
【0006】
【課題を解決するための手段】
そこで本発明は、記録媒体に記録された複数の画像データの代表画像データを上記記録媒体から読み出すとともに上記代表画像データの表示制御データを上記記録媒体から読み出す読出手段と、上記読出手段によって読み出された上記代表画像データの表示を行う場合にグループ画像のまとめ表示か展開表示のいずれが指示されているかを判別する判別手段と、上記判別手段によって、まとめ表示が指示されていると判別された場合には、上記表示制御データに基づいてグループ定義がされた代表画像に対してはグループに属す代表画像のうちの1の画像を表示するとともに代表画像グループに属すことを示す表示を行い、展開表示が指示されていると判別された場合には、上記表示制御データに基づいてグループに属す代表画像を展開するようにすべて表示するとともに、上記展開表示されたグループに属す代表画像が所定の囲み枠でグループに属すことを示す表示を行う表示制御手段とを備えて構成することとした。
【0007】
本発明の表示方法は、記録媒体に記録された複数の画像データの代表画像データを上記記録媒体から読み出すとともに上記代表画像データの表示制御データを上記記録媒体から読み出し、上記代表画像データの表示を行う場合にグループ画像のまとめ表示か展開表示のいずれが指示されているかを判別し、まとめ表示が指示されている場合には、上記表示制御データに基づいてグループ定義がされた代表画像に対してはグループに属す代表画像のうちの1の画像を表示するとともに代表画像グループに属すことを示す表示を行い、展開表示が指示されている場合には、上記表示制御データに基づいてグループに属す代表画像を展開するようにすべて表示するとともに、上記展開表示されたグループに属す代表画像が所定の囲み枠でグループに属すことを示す表示を行う。
【0008】
【発明の実施の形態】
以下、本発明の実施の形態の画像処理装置について説明していく。本実施の形態の画像処理装置としては、カメラ装置部と画像(静止画又は動画)及び音声の記録再生が可能な記録再生装置部とが一体化された可搬型のビデオカメラに搭載されている場合を例にあげる。また、本例のビデオカメラに搭載される記録再生装置部は、光磁気ディスクの一種として知られている、いわゆるミニディスクに対応してデータを記録再生する構成を採るものとされる。
説明は次の順序で行う。
1.ディスクフォーマット
2.ビデオカメラの外観構成
3.ビデオカメラの内部構成
4.メディアドライブ部の構成
5.本実施の形態に対応するディスク構造例
6.サムネイル画像生成処理
7.スクリプト
8.サムネイル表示
9.本実施の形態のサムネイル表示
【0009】
1.ディスクフォーマット
本例のビデオカメラに搭載される記録再生装置部は、ミニディスク(光磁気ディスク)に対応してデータの記録/再生を行う、MDデータといわれるフォーマットに対応しているものとされる。このMDデータフォーマットとしては、MD−DATA1とMD−DATA2といわれる2種類のフォーマットが開発されているが、本例のビデオカメラは、MD−DATA1よりも高密度記録が可能とされるMD−DATA2のフォーマットに対応して記録再生を行うものとされている。そこで、先ずMD−DATA2のディスクフォーマットについて説明する。
【0010】
図1及び図2は、MD−DATA2としてのディスクのトラック構造例を概念的に示している。図2(a)(b)は、それぞれ図1の破線Aで括った部分を拡大して示す断面図及び平面図である。
これらの図に示すように、ディスク面に対してはウォブル(蛇行)が与えられたウォブルドグルーブWGと、ウォブルが与えられていないノンウォブルドグルーブNWGとの2種類のグルーブ(溝)が予め形成される。そして、これらウォブルドグルーブWGとノンウォブルドグルーブNWGは、その間にランドLdを形成するようにしてディスク上において2重のスパイラル状に存在する。
【0011】
MD−DATA2フォーマットでは、ランドLdがトラックとして利用されるのであるが、上記のようにしてウォブルドグルーブWGとノンウォブルドグルーブNWGが形成されることから、トラックとしてもトラックTr・A,Tr・Bの2つのトラックがそれぞれ独立して、2重のスパイラル(ダブルスパイラル)状に形成されることになる。
トラックTr・Aは、ディスク外周側にウォブルドグルーブWGが位置し、ディスク内周側にノンウォブルドグルーブNWGが位置するトラックとなる。
これに対してトラックTr・Bは、ディスク内周側にウォブルドグルーブWGが位置し、ディスク外周側にノンウォブルドグルーブNWGが位置するトラックとなる。
つまり、トラックTr・Aに対してはディスク外周側の片側のみにウォブルが形成され、トラックTr・Bとしてはディスク内周側の片側のみにウォブルが形成されるようにしたものとみることができる。
この場合、トラックピッチは、互いに隣接するトラックTr・AとトラックTr・Bの各センター間の距離となり、図2(b)に示すようにトラックピッチは0.95μmとされている。
【0012】
ここで、ウォブルドグルーブWGとしてのグルーブに形成されたウォブルは、ディスク上の物理アドレスがFM変調+バイフェーズ変調によりエンコードされた信号に基づいて形成されているものである。このため、記録再生時においてウォブルドグルーブWGに与えられたウォブリングから得られる再生情報を復調処理することで、ディスク上の物理アドレスを抽出することが可能となる。
また、ウォブルドグルーブWGとしてのアドレス情報は、トラックTr・A,Tr・Bに対して共通に有効なものとされる。つまり、ウォブルドグルーブWGを挟んで内周に位置するトラックTr・Aと、外周に位置するトラックTr・Bは、そのウォブルドグルーブWGに与えられたウォブリングによるアドレス情報を共有するようにされる。
なお、このようなアドレッシング方式はインターレースアドレッシング方式ともいわれる。このインターレースアドレッシング方式を採用することで、例えば、隣接するウォブル間のクロストークを抑制した上でトラックピッチを小さくすることが可能となるものである。また、グルーブに対してウォブルを形成することでアドレスを記録する方式については、ADIP(Adress In Pregroove) 方式ともいう。
【0013】
また、上記のようにして同一のアドレス情報を共有するトラックTr・A,Tr・Bの何れをトレースしているのかという識別は次のようにして行うことができる。
例えば3ビーム方式を応用し、メインビームがトラック(ランドLd)をトレースしている状態では、残る2つのサイドビームは、上記メインビームがトレースしているトラックの両サイドに位置するグルーブをトレースしているようにすることが考えられる。
【0014】
図2(b)には、具体例として、メインビームスポットSPmがトラックTr・Aをトレースしている状態が示されている。この場合には、2つのサイドビームスポットSPs1,SPs2のうち、内周側のサイドビームスポットSPs1はノンウォブルドグルーブNWGをトレースし、外周側のサイドビームスポットSPs2はウォブルドグルーブWGをトレースすることになる。
これに対して、図示しないが、メインビームスポットSPmがトラックTr・Bをトレースしている状態であれば、サイドビームスポットSPs1がウォブルドグルーブWGをトレースし、サイドビームスポットSPs2がノンウォブルドグルーブNWGをトレースすることになる。
このように、メインビームスポットSPmが、トラックTr・Aをトレースする場合とトラックTr・Bをトレースする場合とでは、サイドビームスポットSPs1,SPs2がトレースすべきグルーブとしては、必然的にウォブルドグルーブWGとノンウォブルドグルーブNWGとで入れ替わることになる。
【0015】
サイドビームスポットSPs1,SPs2の反射によりフォトディテクタにて得られる検出信号としては、ウォブルドグルーブWGとノンウォブルドグルーブNWGの何れをトレースしているのかで異なる波形が得られることから、上記検出信号に基づいて、例えば、現在サイドビームスポットSPs1,SPs2のうち、どちらがウォブルドグルーブWG(あるいはノンウォブルドグルーブNWG)をトレースしているのかを判別することにより、メインビームがトラックTr・A,Tr・Bのどちらをトレースしているのかが識別できることになる。
【0016】
図3は、上記のようなトラック構造を有するMD−DATA2フォーマットのの主要スペックをMD−DATA1フォーマットと比較して示す図である。
先ず、MD−DATA1フォーマットとしては、トラックピッチは1.6μm、ピット長は0.59μm/bitとなる。また、レーザ波長λ=780nmとされ、光学ヘッドの開口率NA=0.45とされる。
記録方式としては、グルーブ記録方式を採っている。つまり、グルーブをトラックとして記録再生に用いるようにしている。
アドレス方式としては、シングルスパイラルによるグルーブ(トラック)を形成したうえで、このグルーブの両側に対してアドレス情報としてのウォブルを形成したウォブルドグルーブを利用する方式を採るようにされている。
【0017】
記録データの変調方式としてはEFM(8−14変換)方式を採用している。また、誤り訂正方式としてはACIRC(Advanced Cross Interleave Reed-Solomon Code) が採用され、データインターリーブには畳み込み型を採用している。このため、データの冗長度としては46.3%となる。
【0018】
また、MD−DATA1フォーマットでは、ディスク駆動方式としてCLV(Constant Linear Verocity)が採用されており、CLVの線速度としては、1.2m/sとされる。
そして、記録再生時の標準のデータレートとしては、133kB/sとされ、記録容量としては、140MBとなる。
【0019】
これに対して、本例のビデオカメラが対応できるMD−DATA2フォーマットとしては、トラックピッチは0.95μm、ピット長は0.39μm/bitとされ、共にMD−DATA1フォーマットよりも短くなっていることが分かる。そして、例えば上記ピット長を実現するために、レーザ波長λ=650nm、光学ヘッドの開口率NA=0.52として、合焦位置でのビームスポット径を絞ると共に光学系としての帯域を拡げている。
【0020】
記録方式としては、図1及び図2により説明したように、ランド記録方式が採用され、アドレス方式としてはインターレースアドレッシング方式が採用される。また、記録データの変調方式としては、高密度記録に適合するとされるRLL(1,7)方式(RLL;Run Length Limited)が採用され、誤り訂正方式としてはRS−PC方式、データインターリーブにはブロック完結型が採用される。そして、上記各方式を採用した結果、データの冗長度としては、19.7%にまで抑制することが可能となっている。
【0021】
MD−DATA2フォーマットにおいても、ディスク駆動方式としてはCLVが採用されるのであるが、その線速度としては2.0m/sとされ、記録再生時の標準のデータレートとしては589kB/sとされる。そして、記録容量としては650MBを得ることができ、MD−DATA1フォーマットと比較した場合には、4倍強の高密度記録化が実現されたことになる。
例えば、MD−DATA2フォーマットにより動画像の記録を行うとして、動画像データについてMPEG2による圧縮符号化を施した場合には、符号化データのビットレートにも依るが、時間にして15分〜17分の動画を記録することが可能とされる。また、音声信号データのみを記録するとして、音声データについてATRAC(Adaptve Transform Acoustic Coding) 2による圧縮処理を施した場合には、時間にして10時間程度の記録を行うことができる。
【0022】
2.ビデオカメラの外観構成
図6(a)(b)(c)は、本例のビデオカメラの外観例を示す側面図、平面図及び背面図である。
これらの図に示すように、本例のビデオカメラの本体200には、撮影を行うための撮像レンズや絞りなどを備えたカメラレンズ201が表出するようにして設けられ、また、例えば、本体200の上面部においては、撮影時において外部の音声を収音するための左右一対のマイクロフォン202が設けられている。つまり、このビデオカメラでは、カメラレンズ201により撮影した画像の録画と、マイクロフォン202により収音したステレオ音声の録音を行うことが可能とされている。
【0023】
また、本体200の側面側には、表示部6A、スピーカ205、インジケータ206が備えられている。表示部6Aは、撮影画像、及び内部の記録再生装置により再生された画像等を表示出力する部位とされる。なお、表示部6Aとして実際に採用する表示デバイスとしては、ここでは特に限定されるものではないが、例えば液晶ディスプレイ等が用いられればよい。また、表示部6Aには、機器の動作に応じて所要のメッセージをユーザに知らせるための文字やキャラクタ等によるメッセージ表示等も行われるものとされる。
スピーカ205からは録音した音声の再生時に、その再生音声が出力される他、例えばビープ音等による所要のメッセージ音声の出力等も行われる。
またインジケータ206は、例えば記録動作中に発光され、ユーザーにビデオカメラが記録動作中であることを示す。
【0024】
本体200の背面側には、ビューファインダ204が設けられており、記録動作中及びスタンバイ中において、カメラレンズ201から取り込まれる画像及びキャラクタ画像等が表示される。ユーザーはこのビューファインダ204をみながら撮影を行うことができる。
さらにディスクスロット203、ビデオ出力端子T1、ヘッドフォン/ライン端子T2、I/F端子T3が設けられる。ディスクスロット203は、本例のビデオカメラが対応する記録媒体としてのディスクが挿入、あるいは排出されるためのスロット部分とされる。ビデオ出力端子T1は、外部の映像機器に対して再生画像信号等を出力する端子、ヘッドフォン/ライン端子T2は外部の音声機器やヘッドホンに対して再生音声信号を出力する端子である。I/F端子T3は、例えば外部のデータ機器とデータ伝送を行うためのインターフェイスの入出力端子とされる。
【0025】
さらに、本体200の各部には、ユーザー操作のための各種の操作子(300、301、及び304〜311)が設けられる。
メインダイヤル300は、ビデオカメラのオン/オフ、記録動作、再生動作を設定する操作子である。メインダイヤルが図示するように「OFF」の位置にあるときは電源オフとされており、「STBY」の位置に回動されることで、電源オンとなって記録動作のスタンバイ状態となる。また、「PB」の位置に回動されることで、電源オンとなって再生動作のスタンバイ状態となる。
【0026】
レリーズキー301は、記録スタンバイ状態にある際において、記録開始や記録シャッタの操作子として機能する。
【0027】
ズームキー304は、画像撮影に関してのズーム状態(テレ側〜ワイド側)を操作する操作子である。
イジェクトキー305は、ディスクスロット203内に装填されているディスクを排出させるための操作子である。
再生/一時停止キー306、停止キー307、サーチキー308,309は、ディスクに対する再生時の各種操作のために用意されている。
【0028】
十字/クリックキー310は、ユーザが、後述するサムネイル表示画面上でポインタ表示を左右上下方向に移動させるために用いられる。また、この場合には、このキーの中央部分を押圧操作することで、クリック操作を行うことが出来るようになっているものとされる。
ジョグダイヤル311は、各操作モードの下で回転操作を行うことで所要の選択操作や入力操作を行うためのキーとされる。例えば文字入力モードとされている状態の下では、このジョグダイヤル311を回転操作することで、入力すべき文字を選択することが可能となる。入力文字を確定する場合には、例えば上記十字/クリックキー310を用いてクリック操作を行うようにされればよい。
【0029】
なお、図6に示すビデオカメラの外観はあくまでも一例であって、実際に本例のビデオカメラに要求される使用条件等に応じて適宜変更されて構わないものである。もちろん操作子の種類や操作方式、さらに外部機器との接続端子類などは各種多様に考えられる。
【0030】
3.ビデオカメラの内部構成
図4は、本例のビデオカメラの内部構成例を示すブロック図である。
この図に示すレンズブロック1においては、例えば実際には撮像レンズや絞りなどを備えて構成される光学系11が備えられている。上記図6に示したカメラレンズ201は、この光学系11に含まれる。また、このレンズブロック1には、光学系11に対してオートフォーカス動作を行わせるためのフォーカスモータや、上記ズームキー304の操作に基づくズームレンズの移動を行うためのズームモータなどが、モータ部12として備えられる。
【0031】
カメラブロック2には、主としてレンズブロック1により撮影した画像光をデジタル画像信号に変換するための回路部が備えられる。
このカメラブロック2のCCD(Charge Coupled Device) 21に対しては、光学系11を透過した被写体の光画像が与えられる。CCD21においては上記光画像について光電変換を行うことで撮像信号を生成し、サンプルホールド/AGC(Automatic Gain Control)回路22に供給する。サンプルホールド/AGC回路22では、CCD21から出力された撮像信号についてゲイン調整を行うと共に、サンプルホールド処理を施すことによって波形整形を行う。サンプルホールド/AGC回路2の出力は、ビデオA/Dコンバータ23に供給されることで、デジタルとしての画像信号データに変換される。
【0032】
上記CCD21、サンプルホールド/AGC回路22、ビデオA/Dコンバータ23における信号処理タイミングは、タイミングジェネレータ24にて生成されるタイミング信号により制御される。タイミングジェネレータ24では、後述するデータ処理/システムコントロール回路31(ビデオ信号処理回部3内)にて信号処理に利用されるクロックを入力し、このクロックに基づいて所要のタイミング信号を生成するようにされる。これにより、カメラブロック2における信号処理タイミングを、ビデオ信号処理部3における処理タイミングと同期させるようにしている。
カメラコントローラ25は、カメラブロック2内に備えられる上記各機能回路部が適正に動作するように所要の制御を実行すると共に、レンズブロック1に対してオートフォーカス、自動露出調整、絞り調整、ズームなどのための制御を行うものとされる。
例えばオートフォーカス制御であれば、カメラコントローラ25は、所定のオートフォーカス制御方式に従って得られるフォーカス制御情報に基づいて、フォーカスモータの回転角を制御する。これにより、撮像レンズはジャストピント状態となるように駆動されることになる。
【0033】
ビデオ信号処理部3は、記録時においては、カメラブロック2から供給されたデジタル画像信号、及びマイクロフォン202により集音したことで得られるデジタル音声信号について圧縮処理を施し、これら圧縮データをユーザ記録データとして後段のメディアドライブ部4に供給する。さらにカメラブロック2から供給されたデジタル画像信号とキャラクタ画像により生成した画像をビューファインダドライブ部207に供給し、ビューファインダ204に表示させる。
また、再生時においては、メディアドライブ部4から供給されるユーザ再生データ(ディスク51からの読み出しデータ)、つまり圧縮処理された画像信号データ及び音声信号データについて復調処理を施し、これらを再生画像信号、再生音声信号として出力する。
【0034】
なお本例において、画像信号データ(画像データ)の圧縮/伸張処理方式としては、動画像についてはMPEG(Moving Picture Experts Group)2を採用し、静止画像についてはJPEG(Joint Photographic Coding Experts Group) を採用しているものとする。また、音声信号デーのタ圧縮/伸張処理方式には、ATRAC(Adaptve Transform Acoustic Coding) 2を採用するものとする。
【0035】
ビデオ信号処理部3のデータ処理/システムコントロール回路31は、主として、当該ビデオ信号処理部3における画像信号データ及び音声信号データの圧縮/伸張処理に関する制御処理と、ビデオ信号処理部3を経由するデータの入出力を司るための処理を実行する。
また、データ処理/システムコントロール回路31を含むビデオ信号処理部3全体についての制御処理は、ビデオコントローラ38が実行するようにされる。このビデオコントローラ38は、例えばマイクロコンピュータ等を備えて構成され、カメラブロック2のカメラコントローラ25、及び後述するメディアドライブ部4のドライバコントローラ46と、例えば図示しないバスライン等を介して相互通信可能とされている。
【0036】
ビデオ信号処理部3における記録時の基本的な動作として、データ処理/システムコントロール回路31には、カメラブロック2のビデオA/Dコンバータ23から供給された画像信号データが入力される。データ処理/システムコントロール回路31では、入力された画像信号データを例えば動き検出回路35に供給する。動き検出回路35では、例えばメモリ36を作業領域として利用しながら入力された画像信号データについて動き補償等の画像処理を施した後、MPEG2ビデオ信号処理回路33に供給する。
【0037】
MPEG2ビデオ信号処理回路33においては、例えばメモリ34を作業領域として利用しながら、入力された画像信号データについてMPEG2のフォーマットに従って圧縮処理を施し、動画像としての圧縮データのビットストリーム(MPEG2ビットストリーム)を出力するようにされる。また、MPEG2ビデオ信号処理回路33では、例えば動画像としての画像信号データから静止画としての画像データを抽出してこれに圧縮処理を施す際には、JPEGのフォーマットに従って静止画としての圧縮画像データを生成するように構成されている。なお、JPEGは採用せずに、MPEG2のフォーマットによる圧縮画像データとして、正規の画像データとされるIピクチャ(Intra Picture) を静止画の画像データとして扱うことも考えられる。
MPEG2ビデオ信号処理回路33により圧縮符号化された画像信号データ(圧縮画像データ)は、例えば、バッファメモリ32に対して所定の転送レートにより書き込まれて一時保持される。
なおMPEG2のフォーマットにおいては、周知のようにいわゆる符号化ビットレート(データレート)として、一定速度(CBR;Constant Bit Rate)と、可変速度(VBR;Variable Bit Rate)の両者がサポートされており、ビデオ信号処理部3ではこれらに対応できるものとしている。
【0038】
例えばVBRによる画像圧縮処理を行う場合には、例えば、動き検出回路35において、画像データをマクロブロック単位により前後数十〜数百フレーム内の範囲で動き検出を行って、動きありとされればこの検出結果を動きベクトル情報としてMPEG2ビデオ信号処理回路33に伝送する。
MPEG2ビデオ信号処理回路33では、圧縮符号化後の画像データをある所要のデータレートとするように、上記動きベクトル情報をはじめとする所要の情報を利用しながら、マクロブロックごとの量子化係数を決定していくようにされる。
【0039】
音声圧縮エンコーダ/デコーダ37には、A/Dコンバータ64(表示/画像/音声入出力部6内)を介して、例えばマイクロフォン202により集音された音声がデジタルによる音声信号データとして入力される。
音声圧縮エンコーダ/デコーダ37では、前述のようにATRAC2のフォーマットに従って入力された音声信号データに対する圧縮処理を施す。この圧縮音声信号データもまた、データ処理/システムコントロール回路31によってバッファメモリ32に対して所定の転送レートによる書き込みが行われ、ここで一時保持される。
【0040】
上記のようにして、バッファメモリ32には、圧縮画像データ及び圧縮音声信号データが蓄積可能とされる。バッファメモリ32は、主として、カメラブロック2あるいは表示/画像/音声入出力部6とバッファメモリ32間のデータ転送レートと、バッファメモリ32とメディアドライブ部4間のデータ転送レートの速度差を吸収するための機能を有する。
バッファメモリ32に蓄積された圧縮画像データ及び圧縮音声信号データは、記録時であれば、順次所定タイミングで読み出しが行われて、メディアドライブ部4のMD−DATA2エンコーダ/デコーダ41に伝送される。ただし、例えば再生時においてバッファメモリ32に蓄積されたデータの読み出しと、この読み出したデータをメディアドライブ部4からデッキ部5を介してディスク51に記録するまでの動作は、間欠的に行われても構わない。
このようなバッファメモリ32に対するデータの書き込み及び読み出し制御は、例えば、データ処理/システムコントロール回路31によって実行される。
【0041】
ビデオ信号処理部3における再生時の動作としては、概略的に次のようになる。
再生時には、ディスク51から読み出され、MD−DATA2エンコーダ/デコーダ41(メディアドライブ部4内)の処理によりMD−DATA2フォーマットに従ってデコードされた圧縮画像データ、圧縮音声信号データ(ユーザ再生データ)が、データ処理/システムコントロール回路31に伝送されてくる。
データ処理/システムコントロール回路31では、例えば入力した圧縮画像データ及び圧縮音声信号データを、一旦バッファメモリ32に蓄積させる。そして、例えば再生時間軸の整合が得られるようにされた所要のタイミング及び転送レートで、バッファメモリ32から圧縮画像データ及び圧縮音声信号データの読み出しを行い、圧縮画像データについてはMPEG2ビデオ信号処理回路33に供給し、圧縮音声信号データについては音声圧縮エンコーダ/デコーダ37に供給する。
【0042】
MPEG2ビデオ信号処理回路33では、入力された圧縮画像データについて伸張処理を施して、データ処理/システムコントロール回路31に伝送する。データ処理/システムコントロール回路31では、この伸張処理された画像信号データを、ビデオD/Aコンバータ61(表示/画像/音声入出力部6内)に供給する。
音声圧縮エンコーダ/デコーダ37では、入力された圧縮音声信号データについて伸張処理を施して、D/Aコンバータ65(表示/画像/音声入出力部6内)に供給する。
【0043】
表示/画像/音声入出力部6においては、ビデオD/Aコンバータ61に入力された画像信号データは、ここでアナログ画像信号に変換され、表示コントローラ62及びコンポジット信号処理回路63に対して分岐して入力される。
表示コントローラ62では、入力された画像信号に基づいて表示部6Aを駆動する。これにより、表示部6Aにおいて再生画像の表示が行われる。また、表示部6Aにおいては、ディスク51から再生して得られる画像の表示だけでなく、当然のこととして、レンズブロック1及びカメラブロック2からなるカメラ部位により撮影して得られた撮像画像も、ほぼリアルタイムで表示出力させることが可能である。
また、再生画像及び撮像画像の他、前述のように、機器の動作に応じて所要のメッセージをユーザに知らせるための文字やキャラクタ等によるメッセージ表示も行われるものとされる。このようなメッセージ表示は、例えばビデオコントローラ38の制御によって、所要の文字やキャラクタ等が所定の位置に表示されるように、データ処理/システムコントロール回路31からビデオD/Aコンバータ61に出力すべき画像信号データに対して、所要の文字やキャラクタ等の画像信号データを合成する処理を実行するようにすればよい。
【0044】
コンポジット信号処理回路63では、ビデオD/Aコンバータ61から供給されたアナログ画像信号についてコンポジット信号に変換して、ビデオ出力端子T1に出力する。例えば、ビデオ出力端子T1を介して、外部モニタ装置等と接続を行えば、当該ビデオカメラで再生した画像を外部モニタ装置により表示させることが可能となる。
【0045】
また、表示/画像/音声入出力部6において、音声圧縮エンコーダ/デコーダ37からD/Aコンバータ65に入力された音声信号データは、ここでアナログ音声信号に変換され、ヘッドフォン/ライン端子T2に対して出力される。また、D/Aコンバータ65から出力されたアナログ音声信号は、アンプ66を介してスピーカSPに対しても分岐して出力され、これにより、スピーカSPからは、再生音声等が出力されることになる。
【0046】
メディアドライブ部4では、主として、記録時にはMD−DATA2フォーマットに従って記録データをディスク記録に適合するようにエンコードしてデッキ部5に伝送し、再生時においては、デッキ部5においてディスク51から読み出されたデータについてデコード処理を施すことで再生データを得て、ビデオ信号処理部3に対して伝送する。
【0047】
このメディアドライブ部4のMD−DATA2エンコーダ/デコーダ41は、記録時においては、データ処理/システムコントロール回路31から記録データ(圧縮画像データ+圧縮音声信号データ)が入力され、この記録データについて、MD−DATA2フォーマットに従った所定のエンコード処理を施し、このエンコードされたデータを一時バッファメモリ42に蓄積する。そして、所要のタイミングで読み出しを行いながらデッキ部5に伝送する。
【0048】
再生時においては、ディスク51から読み出され、RF信号処理回路44、二値化回路43を介して入力されたデジタル再生信号について、MD−DATA2フォーマットに従ったデコード処理を施して、再生データとしてビデオ信号処理部3のデータ処理/システムコントロール回路31に対して伝送する。
なお、この際においても、必要があれば再生データを一旦バッファメモリ42に蓄積し、ここから所要のタイミングで読み出したデータをデータ処理/システムコントロール回路31に伝送出力するようにされる。このような、バッファメモリ42に対する書き込み/読み出し制御はドライバコントローラ46が実行するものとされる。
なお、例えばディスク51の再生時において、外乱等によってサーボ等が外れて、ディスクからの信号の読み出しが不可となったような場合でも、バッファメモリ42に対して読み出しデータが蓄積されている期間内にディスクに対する再生動作を復帰させるようにすれば、再生データとしての時系列的連続性を維持することが可能となる。
【0049】
RF信号処理回路44には、ディスク51からの読み出し信号について所要の処理を施すことで、例えば、再生データとしてのRF信号、デッキ部5に対するサーボ制御のためのフォーカスエラー信号、トラッキングエラー信号等のサーボ制御信号を生成する。RF信号は、上記のように二値化回路43により2値化され、デジタル信号データとしてMD−DATA2エンコーダ/デコーダ41に入力される。
また、生成された各種サーボ制御信号はサーボ回路45に供給される。サーボ回路45では、入力したサーボ制御信号に基づいて、デッキ部5における所要のサーボ制御を実行する。
【0050】
なお、本例においては、MD−DATA1フォーマットに対応するエンコーダ/デコーダ47を備えており、ビデオ信号処理部3から供給された記録データを、MD−DATA1フォーマットに従ってエンコードしてディスク51に記録すること、或いは、ディスク51からの読み出しデータがMD−DATA1フォーマットに従ってエンコードされているものについては、そのデコード処理を行って、ビデオ信号処理部3に伝送出力することも可能とされている。つまり本例のビデオカメラとしては、MD−DATA2フォーマットとMD−DATA1フォーマットとについて互換性が得られるように構成されている。
ドライバコントローラ46は、メディアドライブ部4を総括的に制御するための機能回路部とされる。
【0051】
デッキ部5は、ディスク51を駆動するための機構からなる部位とされる。ここでは図示しないが、デッキ部5においては、装填されるべきディスク51が着脱可能とされ、ユーザの作業によって交換が可能なようにされた機構(ディスクスロット203(図6参照))を有しているものとされる。また、ここでのディスク51は、MD−DATA2フォーマット、あるいはMD−DATA1フォーマットに対応する光磁気ディスクであることが前提となる。
【0052】
デッキ部5においては、装填されたディスク51をCLVにより回転駆動するスピンドルモータ52によって、CLVにより回転駆動される。このディスク51に対しては記録/再生時に光学ヘッド53によってレーザ光が照射される。
光学ヘッド53は、記録時には記録トラックをキュリー温度まで加熱するための高レベルのレーザ出力を行ない、また再生時には磁気カー効果により反射光からデータを検出するための比較的低レベルのレーザ出力を行なう。このため、光学ヘッド53には、ここでは詳しい図示は省略するがレーザ出力手段としてのレーザダイオード、偏光ビームスプリッタや対物レンズ等からなる光学系、及び反射光を検出するためのディテクタが搭載されている。光学ヘッド53に備えられる対物レンズとしては、例えば2軸機構によってディスク半径方向及びディスクに接離する方向に変位可能に保持されている。
【0053】
また、ディスク51を挟んで光学ヘッド53と対向する位置には磁気ヘッド54が配置されている。磁気ヘッド54は記録データによって変調された磁界をディスク51に印加する動作を行なう。
また、図示しないが、デッキ部5においては、スレッドモータ55により駆動されるスレッド機構が備えられている。このスレッド機構が駆動されることにより、上記光学ヘッド53全体及び磁気ヘッド54はディスク半径方向に移動可能とされている。
【0054】
操作部7は図6に示した各操作子300〜311等に相当し、これらの操作子によるユーザの各種操作情報は例えばビデオコントローラ38に供給される。ビデオコントローラ38は、ユーザー操作に応じた必要な動作が各部において実行されるようにするための操作情報、制御情報をカメラコントローラ25、ドライバコントローラ46に対して供給する。
【0055】
外部インターフェイス8は、当該ビデオカメラと外部機器とでデータを相互伝送可能とするために設けられており、例えば図のようにI/F端子T3とビデオ信号処理部間に対して設けられる。なお、外部インターフェイス8としてはここでは特に限定されるものではないが、例えばIEEE1394等が採用されればよい。
例えば、外部のデジタル画像機器と本例のビデオカメラをI/F端子T3を介して接続した場合、ビデオカメラで撮影した画像(音声)を外部デジタル画像機器に録画したりすることが可能となる。また、外部デジタル画像機器にて再生した画像(音声)データ等を、外部インターフェイス8を介して取り込むことにより、MD−DATA2(或いはMD−DATA1)フォーマットに従ってディスク51に記録するといったことも可能となる。更には、例えばキャプションの挿入などに利用する文字情報としてのファイルも取り込んで記録することが可能となる。
【0056】
電源ブロック9は、内蔵のバッテリにより得られる直流電源あるいは商用交流電源から生成した直流電源を利用して、各機能回路部に対して所要のレベルの電源電圧を供給する。電源ブロック9による電源オン/オフは、上述したメインダイヤル300の操作に応じてビデオコントローラ38が制御する。
また記録動作中はビデオコントローラ38はインジケータ206の発光動作を実行させる。
【0057】
4.メディアドライブ部の構成
続いて、図4に示したメディアドライブ部4の構成として、MD−DATA2に対応する機能回路部を抽出した詳細な構成について、図5のブロック図を参照して説明する。なお、図5においては、メディアドライブ部4と共にデッキ部5を示しているが、デッキ部5の内部構成については図4により説明したため、ここでは、図4と同一符号を付して説明を省略する。また、図5に示すメディアドライブ部4において図4のブロックに相当する範囲に同一符号を付している。
【0058】
光学ヘッド53のディスク51に対するデータ読み出し動作によりに検出された情報(フォトディテクタによりレーザ反射光を検出して得られる光電流)は、RF信号処理回路44内のRFアンプ101に供給される。
RFアンプ101では入力された検出情報から、再生信号としての再生RF信号を生成し、二値化回路43に供給する。二値化回路43は、入力された再生RF信号について二値化を行うことにより、デジタル信号化された再生RF信号(二値化RF信号)を得る。
この二値化RF信号はMD−DATA2エンコーダ/デコーダ41に供給され、まずAGC/クランプ回路103を介してゲイン調整、クランプ処理等が行われた後、イコライザ/PLL回路104に入力される。
イコライザ/PLL回路104では、入力された二値化RF信号についてイコライジング処理を施してビタビデコーダ105に出力する。また、イコライジング処理後の二値化RF信号をPLL回路に入力することにより、二値化RF信号(RLL(1,7)符号列)に同期したクロックCLKを抽出する。
【0059】
クロックCLKの周波数は現在のディスク回転速度に対応する。このため、CLVプロセッサ111では、イコライザ/PLL回路104からクロックCLKを入力し、所定のCLV速度(図3参照)に対応する基準値と比較することにより誤差情報を得て、この誤差情報をスピンドルエラー信号SPEを生成するための信号成分として利用する。また、クロックCLKは、例えばRLL(1,7)復調回路106をはじめとする、所要の信号処理回路系における処理のためのクロックとして利用される。
【0060】
ビタビデコーダ105は、イコライザ/PLL回路104から入力された二値化RF信号について、いわゆるビタビ復号法に従った復号処理を行う。これにより、RLL(1,7)符号列としての再生データが得られることになる。
この再生データはRLL(1,7)復調回路106に入力され、ここでRLL(1,7)復調が施されたデータストリームとされる。
【0061】
RLL(1,7)復調回路106における復調処理により得られたデータストリームは、データバス114を介してバッファメモリ42に対して書き込みが行われ、バッファメモリ42上で展開される。
このようにしてバッファメモリ42上に展開されたデータストリームに対しては、先ず、ECC処理回路116により、RS−PC方式に従って誤り訂正ブロック単位によるエラー訂正処理が施され、更に、デスクランブル/EDCデコード回路117により、デスクランブル処理と、EDCデコード処理(エラー検出処理)が施される。
これまでの処理が施されたデータが再生データDATApとされる。この再生データDATApは、転送クロック発生回路121にて発生された転送クロックに従った転送レートで、例えばデスクランブル/EDCデコード回路117からビデオ信号処理部3のデータ処理/システムコントロール回路31に対して伝送されることになる。
【0062】
転送クロック発生回路121は、例えば、クリスタル系のクロックをメディアドライブ部4とビデオ信号処理部3間のデータ伝送や、メディアドライブ部4内における機能回路部間でのデータ伝送を行う際に、適宜適正とされる周波数の転送クロック(データ転送レート)を発生するための部位とされる。
また、当該ビデオカメラの動作状態に応じて、メディアドライブ部4及びビデオ信号処理部3の各機能回路部に供給すべき所要の周波数のクロックを発生する。
【0063】
光学ヘッド53によりディスク51から読み出された検出情報(光電流)は、マトリクスアンプ107に対しても供給される。
マトリクスアンプ107では、入力された検出情報について所要の演算処理を施すことにより、トラッキングエラー信号TE、フォーカスエラー信号FE、グルーブ情報(ディスク51にウォブルドグルーブWGとして記録されている絶対アドレス情報)GFM等を抽出しサーボ回路45に供給する。即ち抽出されたトラッキングエラー信号TE、フォーカスエラー信号FEはサーボプロセッサ112に供給され、グルーブ情報GFMはADIPバンドパスフィルタ108に供給される。
【0064】
ADIPバンドパスフィルタ108により帯域制限されたグルーブ情報GFMは、A/Bトラック検出回路109、ADIPデコーダ110、及びCLVプロセッサ111に対して供給される。
A/Bトラック検出回路109では、例えば図2(b)にて説明した方式などに基づいて、入力されたグルーブ情報GFMから、現在トレースしているトラックがトラックTR・A,TR・Bの何れとされているのかについて判別を行い、このトラック判別情報をドライバコントローラ46に出力する。また、ADIPデコーダ110では、入力されたグルーブ情報GFMをデコードしてディスク上の絶対アドレス情報であるADIP信号を抽出し、ドライバコントローラ46に出力する。ドライバコントローラ46では、上記トラック判別情報及びADIP信号に基づいて、所要の制御処理を実行する。
【0065】
CLVプロセッサ111には、イコライザ/PLL回路104からクロックCLKと、ADIPバンドパスフィルタ108を介したグルーブ情報GFMが入力される。CLVプロセッサ111では、例えばグルーブ情報GFMに対するクロックCLKとの位相誤差を積分して得られる誤差信号に基づき、CLVサーボ制御のためのスピンドルエラー信号SPEを生成し、サーボプロセッサ112に対して出力する。なお、CLVプロセッサ111が実行すべき所要の動作はドライバコントローラ46によって制御される。
【0066】
サーボプロセッサ112は、上記のようにして入力されたトラッキングエラー信号TE、フォーカスエラー信号FE、スピンドルエラー信号SPE、ドライバコントローラ46からのトラックジャンプ指令、アクセス指令等に基づいて各種サーボ制御信号(トラッキング制御信号、フォーカス制御信号、スレッド制御信号、スピンドル制御信号等)を生成し、サーボドライバ113に対して出力する。
サーボドライバ113では、サーボプロセッサ112から供給されたサーボ制御信号に基づいて所要のサーボドライブ信号を生成する。ここでのサーボドライブ信号としては、二軸機構を駆動する二軸ドライブ信号(フォーカス方向、トラッキング方向の2種)、スレッド機構を駆動するスレッドモータ駆動信号、スピンドルモータ52を駆動するスピンドルモータ駆動信号となる。
このようなサーボドライブ信号がデッキ部5に対して供給されることで、ディスク51に対するフォーカス制御、トラッキング制御、及びスピンドルモータ52に対するCLV制御が行われることになる。
【0067】
ディスク51に対して記録動作が実行される際には、例えば、ビデオ信号処理部3のデータ処理/システムコントロール回路31からスクランブル/EDCエンコード回路115に対して記録データDATArが入力されることになる。このユーザ記録データDATArは、例えば転送クロック発生回路121にて発生された転送クロック(データ転送レート)に同期して入力される。
【0068】
スクランブル/EDCエンコード回路115では、例えば記録データDATArをバッファメモリ42に書き込んで展開し、データスクランブル処理、EDCエンコード処理(所定方式によるエラー検出符号の付加処理)を施す。この処理の後、例えばECC処理回路116によって、バッファメモリ42に展開させている記録データDATArに対してRS−PC方式によるエラー訂正符号を付加するようにされる。
ここまでの処理が施された記録データDATArは、バッファメモリ42から読み出されて、データバス114を介してRLL(1,7)変調回路118に供給される。
【0069】
RLL(1,7)変調回路118では、入力された記録データDATArについてRLL(1,7)変調処理を施し、このRLL(1,7)符号列としての記録データを磁気ヘッド駆動回路119に出力する。
【0070】
ところで、MD−DATA2フォーマットでは、ディスクに対する記録方式として、いわゆるレーザストローブ磁界変調方式を採用している。レーザストローブ磁界変調方式とは、記録データにより変調した磁界をディスク記録面に印加すると共に、ディスクに照射すべきレーザ光を記録データに同期してパルス発光させる記録方式をいう。
このようなレーザストローブ磁界変調方式では、ディスクに記録されるピットエッジの形成過程が磁界の反転速度等の過渡特性に依存せず、レーザパルスの照射タイミングによって決定される。
このため、例えば単純磁界変調方式(レーザ光をディスクに対して定常的に照射すると共に記録データにより変調した磁界をディスク記録面に印加するようにした方式)と比較して、レーザストローブ磁界変調方式では、記録ピットのジッタをきわめて小さくすることが容易に可能とされる。つまり、レーザストローブ磁界変調方式は、高密度記録化に有利な記録方式とされるものである。
【0071】
メディアドライブ部4の磁気ヘッド駆動回路119では、入力された記録データにより変調した磁界が磁気ヘッド54からディスク51に印加されるように動作する。また、RLL(1,7)変調回路118からレーザドライバ120に対しては、記録データに同期したクロックを出力する。レーザドライバ120は、入力されたクロックに基づいて、磁気ヘッド54により磁界として発生される記録データに同期させたレーザパルスがディスクに対して照射されるように、光学ヘッド53のレーザダイオードを駆動する。この際、レーザダイオードから発光出力されるレーザパルスとしては、記録に適合する所要のレーザパワーに基づくものとなる。このようにして、本例のメディアドライブ部4により上記レーザストローブ磁界変調方式としての記録動作が可能とされる。
【0072】
5.本実施の形態に対応するディスク構造例
次に、本実施の形態に対応するディスク51の構造例について説明する。
図7は、本実施の形態に対応するとされるディスク51の構造例を概念的に示している。なお、この図に示すディスク51の物理フォーマットについては、先に図1及び図2により説明した通りである。
【0073】
ディスク51においては、例えば、管理情報エリアとしてPTOC、及びRTOCの領域が設けられる。PTOCは、例えばディスク最内周のプリマスタードエリア(ピットエリア)において、ピット形態により所要の管理情報が記録される。このPTOCの内容は書き換えが不可とされている。
例えば、上記PTOCが記録されるプリマスタードエリアの外周には、光磁気記録再生が可能とされる光磁気記録領域が形成される。そして、先ずその最内周における所定サイズの区間に対して上記RTOCの領域が設けられるものとされる。このRTOCは、例えばディスクに記録されたデータを管理するのに必要な基本的な情報が記録される。
例えば本例の場合であれば、ディスクに記録されたデータとして、後述するトラック(ファイルと同義の場合有り)、及びフォルダ(トラックをグループ化して管理するための構造)を記録再生時において管理するための情報が格納される。
なお、管理エリアにおけるU−TOCの内容は、例えば、これまでのディスクに対するデータの記録結果や、トラック(ファイル)、フォルダの削除等の編集処理結果に従って逐次書き換えが行われるものとされる。
【0074】
上記RTOCの外周側に対しては、ユーザデータが記録されるためのデータエリアが設けられる。本実施の形態では、このデータエリアは、1つのルートフォルダ内に置かれたボリュームフォルダ(Volume Folder)として管理される。本実施の形態においてボリューム(Volume)とは、ユーザデータの完全な集合として定義され、1枚のディスクにはただ1つのボリュームが存在するものとして規定される。そして、このボリューム内に含まれるデータは、上記PTOC、RTOCで管理されるものを除いて、ボリュームフォルダ以下のフォルダ及びトラックとして格納されることになる。
【0075】
ボリュームフォルダ内においては、先ず、物理的に最内周側の位置(RTOC近傍の管理トラッ優先領域)において、所定サイズ(例えば12クラスタ)のボリュームインデックストラック(Volume Index Track)が置かれる。
このボリュームインデックストラックは、例えば上記PTOC、RTOCが主的管理情報とすれば、いわば副管理情報が記録される領域として規定されるもので、トラック(ファイル)、フォルダ、及び補助データ(Auxiliary Data)に関すプロパティ、タイトル、及びトラックを形成するパケットデータを管理するための情報が記録されるテーブルを有する。
【0076】
また、少なくとも最初の1クラスタがRTOC近傍の管理トラック優先領域に位置するようにして記録されるトラックとして、サムネイルトラック(Thumbnail
Picture Track)がオプションとして配置可能とされている。
本実施の形態においては、ディスクに記録された各ファイルごとに対応付けして、所定解像度による1枚の静止画像をサムネイル画像として有することが可能とされている。サムネイル画像は、ファイルを視覚的に認識可能とするための代表画像として扱われる。
サムネイルトラックには、ディスクに記録されているファイル(トラック)との対応付けと、サムネイル画像の格納位置とが示されるインデックス情報と共に記録される。サムネイルトラックのデータ長は、格納されるサムネイル画像数等に応じて任意に拡張可能とされる。
【0077】
そして、例えばユーザが撮影等によって記録した画像/音声データはファイル単位で管理され、ボリュームフォルダ内において、トラックとしてボリュームフォルダの下に置かれる、或いは、ボリュームフォルダ以下に置かれるフォルダ内に置かれることになる。
図7では、或る1ファイルが1トラックとして表現された上で、このトラックが或る1つのフォルダ内に格納されている状態が示されている。フォルダは、上述のように、トラック又はフォルダを1グループにまとめて管理するための構造である。
従ってボリュームフォルダ以下の構造においては、ボリュームフォルダ内に格納可能な最大件数と、フォルダの階層構造の最大段数により規定される範囲内で、任意の数のトラック又はフォルダが格納されることになる。
【0078】
また、ボリュームフォルダ内には、補助データ(Auxiliary Data)が格納される補助データトラック(Auxiliary Data Track)が配置される。
補助データトラックに格納されるべき情報としては、例えば、実際に適用されるアプリケーションによって任意とされる。
本実施の形態においては、再生制御情報としてのスクリプトの情報が格納されることになる。
【0079】
ところで、上記した管理情報であるPTOC,RTOC、また更にはボリュームインデックストラックに格納された情報(これらの情報を総称しても、本実施の形態では「管理情報」ということにする)は、例えば、ディスク装填時において読み出されて、例えば、メディアドライブ部4のバッファメモリ42(又はバッファメモリ32)の所定領域に保持される。そして、データ記録時や編集時においては、その記録結果や編集結果に応じてバッファメモリに保持されているこれら管理情報について書き換えを行うようにし、その後、所定の機会、タイミングでもって、バッファメモリに保持されている管理情報の内容に基づいて、ディスク51の管理情報を書き換える(更新する)ようにされる(但し、PTOCについては更新は行われない)。
【0080】
なお、この図に示すディスク構造例はあくまでも一例であって、ディスク上での各エリアの物理的位置関係は、実際の使用条件等に応じて変更されて構わないし、データが格納される構造も変更されてかまないものである。
【0081】
6.サムネイル画像生成処理
上記図7に示したサムネイルトラックに格納されるサムネイル画像は、本実施の形態のビデオカメラにより生成することが可能とされるが、ここで、サムネイル画像の生成処理について説明しておく。なお、ここでは一旦ディスクに記録された画像ファイルについてのサムネイル画像を生成する場合について説明する。
【0082】
前述のように、例えばディスク51に記録されている管理情報(PTOC、RTOC、ボリュームインデックストラック)は、ディスク装填時などの所定のタイミングで読み出されて、バッファメモリ42(或いはバッファメモリ32)に対して格納されているものとされる。
【0083】
そして、ドライバコントローラ46は、例えばバッファメモリ42に格納されている管理情報を参照して、これよりサムネイル画像を生成すべきファイルについて、サムネイル画像として指定されている画像データが記録されているディスク上のアドレスを求め、このアドレスにアクセスしてディスクに対する読み出し動作を実行させることで、サムネイル画像の生成元としての画像データを得るようにされる。
この画像データは、順次メディアドライブ部4からビデオ信号処理部3に伝送され、データ処理/システムコントロール回路31に供給される。
なお、管理情報によりサムネイル画像の生成元として規定される画像データは、特段の指定が無ければ、例えばファイル中における先頭のフレーム(又はフィールド)画像データが指定されているものとされる
【0084】
そして、データ処理/システムコントロール回路31では、供給された画面データについて、先ず、MPEG2ビデオ信号処理回路33を制御してMPEG2フォーマットに従った伸張処理を施し、フィールド画像単位の画像データのレベルにまでデコードしたデータを獲得するようにされる。
【0085】
例えば、上記フィールド画像単位のレベルにまでデコードされた画像データの段階では、通常は、表示画面に対してほぼフルサイズで表示されるだけの画像サイズ(画素数)を有したデータとされる。
そこで、上記フィールド画像単位によるフルサイズの画像データが得られた後は、このフルサイズの画像データについて縮小処理を行って、実際に必要とされるサムネイル画像のサイズが得られるように処理を行うことになる。
このような画像サイズの縮小のためには、例えば元のフルサイズの画像データに対して、適切なタイミングで画素データに対するサンプリングを行い、このサンプリングした画素データによって画像データを再構成するように信号処理を実行すればよい。
【0086】
そして、例えばビデオコントローラ38は、このようにして得られたサムネイル画像データについてのインデックス情報(図7により説明)を生成し、このインデックス情報と共にこのサムネイル画像データをディスクのサムネイルトラックに記録するように制御を実行する。
このようにして、ファイルごとに対応したサムネイル画像データが得られ、ディスクに記録される。
【0087】
なお、本実施の形態としては、これまでの説明から分かるように、画像データ(音声データを含む)の他、音声のみによる音声データ、更には文字情報データなどもファイルとして記録可能とされるが、例えば、音声データ、文字情報データ等、そのファイル内にサムネイル画像の生成元となる画像データが無いような場合には、例えば、予め音声データや文字情報データであることを視覚的に認識できるような絵柄の画像データを用意しておき(例えばビデオコントローラ38のROM内に格納しておいたり、ディスクの所定領域に格納するなどしておけばよい)、この画像データをサムネイル画像として利用するようにすればよいものである。
【0088】
7.スクリプト
また、本実施の形態においては、当該ビデオカメラにより記録したファイル(主として録画ファイル)についての、再生順指定や再生時に所要の特殊効果を与えるなどの編集処理を行うことができる。
上記のような編集を行うのにあたり、本実施の形態では、録画ファイルについて所要の再生出力態様を与えることのできる再生制御情報としてのスクリプトを用意し、ビデオカメラにおいては、例えばビデオコントローラ38がこのスクリプトを解釈することで、編集結果に応じた再生出力態様(例えば再生順)を得るようにするものである。また、編集段階においては、スクリプトの内容の更新を行うことで編集処理を実行するように構成されるものである。なお、ここでいう「スクリプト」とは、動画像データ、静止画像データ、音声データ、更には文書データ等を同時タイミングで再生出力するために、所定のプログラム言語により記述された手続き書き構造をいうものとされる。
【0089】
そこで先ず、本実施の形態において再生制御情報として利用されるスクリプトについて概略的に説明する。
【0090】
本実施の形態としては、スクリプトとしてSMIL(Synchronized Multimedia Integration Language)を採用するものとする。
SMILとは、例えばインターネット上でのテレビ番組放送、プレゼンテーション等を実現するために、W3C(インターネットの標準化団体)で標準化が行われている言語であり、XML(HTMLのスーパーセット)の文法に基づき、時系列的なプレゼンテーション等を実現しようとするものである。
【0091】
先ず、スケジューリングは<seq>,<par>の2つのタグにより表現される。
<seq>は、seqential、つまり直列を意味し、このタグで囲まれた情報は時間順に再生されることになる。
<par>は、parallel、つまり並列を意味し、このタグで囲まれた情報は同期して再生されることになる。
【0092】
ここで、例えばディスクに記録されているとされるファイルにおいて、video1,video2,video3として表される画像データのファイルについて、video1→video2→video3の順に再生するように指定した場合には、

Figure 0003982072
のようにして記述が行われる。
【0093】
また、ファイルvideo1→video2→video3の順に再生すると共に、video1に対しては、音声データのファイルであるaudio1をアフレコトラックとして同時再生させたいときには、
Figure 0003982072
のようにして記述が行われることになる。
【0094】
また、或るファイルと同期再生させるべきファイルについて、この或るファイルが再生されて何秒後の位置から再生させる等の指定を行うための記述も用意されている。
例えば、video1の画像ファイルが表示(再生)されてから5秒後にキャプション(例えば文字情報としての画像)を表示させるような場合には、
Figure 0003982072
のようにして記述が行われることになる。
【0095】
また、例えば静止画ファイルとしてのファイルpicture1を5秒間表示するように指示するのであれば、
<image src=”picture1” dur = ”5s”>
のようにして記述される。
【0096】
また、いわゆるフレームミュートといわれ、或る動画ファイルの一部を抜き出すようにして再生する場合には、「range」を利用する。例えば、タイムコードとしてSMPTE(Society of Motion Picture and Television)の規格を採用しているとして、
<video src=”video1”range=”smpte:10:07:00−10:07:33”>
のようにして記述することができる。
【0097】
また、或るファイルを指定してリピートを行うのには、「repeat」を利用する。例えばvideo1のファイルを10回リピートするのであれば、
<video src = ”video1”repeat = ”10”>
のようにして記述する。
【0098】
そして本実施の形態においては、このような、SMILといわれるスクリプトを利用し、サムネイル表示として所要の表示形態を与えるための表示制御を実行可能に構成されるものである。
このため、例えば本実施の形態のビデオカメラシステムにおいては、このSMILに対応した解釈、及びスクリプトの記述(生成)が行えるように、XMLのサブセットが用意されることになる。これは、例えばビデオコントローラ38が実行すべきプログラムとして、ビデオコントローラ38内のROM等に予め格納したり、或いはディスクのアプリケーションレイヤーに対して記録して、読み出しが行えるようにしておけばよい。
【0099】
本実施の形態においては、このようなスクリプトは、例えば、編集段階(又は録画操作を行っている段階)において、ビデオコントローラ38が生成又は更新を行って、例えばバッファメモリ32内の所定領域に保持しておくものとされる。
そして、このようにしてバッファメモリ32に保持されたスクリプトを、所定の機会、又はタイミングでもってディスクに記録するようにされる。このスクリプトのデータは、図7にて説明した補助データトラック(Auxiliary Data Track)に対して、スクリプトファイルとして格納されることになる。このようにしてディスクにスクリプトが記録されることで、次にこのディスクを新たに装填したときには、このディスクに記録されたスクリプトを読み出し、例えば、バッファメモリ32に対して保持させてこれを参照することで、以前の編集により得られた再生順等に従って編集再生等を行うことが可能となるものである。
【0100】
8.サムネイル表示
本実施の形態のビデオカメラでは、ディスクに記録されたファイルの検索や各種編集処理を行うのにあたり、ディスクに記録されたファイルごとに対応するサムネイル画像を提示する、いわゆるサムネイル表示を行う。このサムネイル表示はいわゆるGUIとして、記録再生、及び編集操作のための操作画面として利用される。そこで、本実施の形態におけるサムネイル表示の基本的な表示形態例について図8を参照して説明する。
【0101】
なお、以降の説明において扱うファイルとしては、説明の便宜上、録画ファイルであることを前提として説明することとする。録画ファイルとは、前述したように、当該ビデオカメラにより撮影した画像を録画して得られる動画像ファイルであって、同時にマイクロフォンにより収音された音声も含まれ得るファイルのことである。
【0102】
例えば、本実施の形態のビデオカメラ装置に対してファイルが記録済みのディスクを装填した状態で、メインダイヤル300を操作して電源をオフからオンの状態にしたとすると、例えば表示部6Aの表示画面に対しては、初期画面として、図8に示すサムネイル表示が行われるようにされる。
【0103】
この図に示すサムネイル表示としては、最大12ファイル分のサムネイル画像が表示可能とされており、ここでは、12ファイル分のサムネイル画像の表示領域に対してサムネイル画像401,401・・・が表示されている状態が示されている。
【0104】
また、ここで各サムネイル画像401内に示される、(1)〜(12)の数値は、前述したスクリプトにより指定されるファイル再生順を示しているものとされる。つまり、本実施の形態においては、スクリプトにより指定されるファイル再生順に従った所定の配列順によってサムネイル画像が表示されることになる。
【0105】
サムネイル画像の生成処理は前述したとおりであり、また、生成されたサムネイル画像データを利用したサムネイル表示のための画像処理、及びこれを実現するための制御については後述するが、サムネイル画像とは、例えば動画のファイルであれば、その動画中における代表としての画像を、縮小された静止画像として形成することで得られるものである。
従って、図8に示すような本実施の形態のサムネイル表示を見ることで、ユーザは、ディスクに記録されているファイルの内容を視覚的に認識することができると共に、これらファイルについての再生順も視覚的に把握することが可能となるものである。
【0106】
また、このサムネイル表示においては、1つのサムネイル画像を指定するためのポインタ402が表示される。このポインタ402は、例えば十字キー310に対して行われた操作に従った方向に、順次隣接するサムネイル画像401を移動するようにして表示が行われるものとされる。なお、サーチキー308,309を用いて、再生順に従ってポインタ402がサムネイル画像間を移動できるようにしてもよい。
【0107】
この場合、ポインタ402は、再生又は記録開始位置の基点となるファイルを選択指定するものとされる。
例えば再生に関すれば、ユーザは、上記十字キー310等の操作により、ポインタ402を所望のファイルに対応するサムネイル画像に対して配置させるための操作を行った後、再生キー306を操作するようにされる。これにより、ビデオカメラでは、再生キー306の操作時点においてポインタ402が配置されていたサムネイル画像が対応するファイルについての再生を開始するようにされる。
また、上記のようにしてファイルの再生を開始した後においては、再生停止のための操作が行われるまで、スクリプトにより指定されたファイル再生順に従って、順次ファイルが再生されていく。具体的には、図8に示す再生順(7)のファイルを選択して再生を開始したとすれば、以降は、再生順(8)(9)(10)・・・の順にファイル再生が行われていくことになる。
また、再生されるべきファイルにアフレコトラックが付随するようにして管理されているのであれば、このアフレコトラックもスクリプトの記述内容に従って、同期して再生される。
なお、ファイル再生が行われているときには、上記図8に示したサムネイル表示の代わりにその再生画像が表示されることになる。また、再生が停止されれば図8に示すサムネイル表示に戻るようにされればよい。
【0108】
ここで、図8に示すサムネイル表示が実現されるためのスクリプトの記述内容例を以下に示しておく。前述したように、サムネイル表示におけるサムネイル画像の配列順はスクリプトにより記述された再生順に基づく。従って、以下に示すスクリプトは、図8に示されている各サムネイル画像が対応する12のファイルの再生順を示すスクリプトである。
ここで、図8のサムネイル画像として示されている(1)〜(12)の再生順に対応する録画ファイルのファイル名が、それぞれVideo1〜Video12であるとすると、そのスクリプトの内容は、
Figure 0003982072
のようにして記述されることになる。
【0109】
9.本実施の形態のサムネイル表示
上記図8に示した基本的なサムネイル表示例を前提として、本実施の形態としての特徴となるサムネイル表示について、以降説明する。
【0110】
例えば、図8に示すサムネイル表示内において、再生順(3)〜(7)までのサムネイル画像401に対応する5つの録画ファイルが、例えばどこかの観光地にて記念撮影したものであるなど、その内容として1纏まりの或る特定の意味を有するものであるとする。
本実施の形態では、このような再生順的に連続する任意の複数のサムネイル画像401を一纏めにして、「グループ」として管理することが出来るが、そのための操作は、例えば次のようにして行う。
【0111】
ユーザは、図8に示すサムネイル表示が行われている状態の下で、例えばグループに属するサムネイル画像401のうち、先ず再生順的に先頭となるサムネイル画像401を指定する。この場合であれば、再生順(3)とされているサムネイル画像401である。このために、ユーザは、例えば十字/クリックキー310を操作してポインタ402を再生順(3)のサムネイル画像401上に配置させ、この状態のもとでクリック操作(十字/クリックキー310のセンター部に対する押圧操作)を行うようにされる。これにより、グループにおける再生順的に先頭のサムネイル画像が指定される。
続いては、同様の操作によって、再生順的に最後となるサムネイル画像を指定する。つまり、この場合には、再生順(7)のサムネイル画像401に対してクリック操作を行うようにされる。
【0112】
これまでの操作により、グループ化すべき複数のサムネイル画像が特定されることになる。つまり、1グループにおける先頭(再生順(3))と最後(再生順(7))のサムネイル画像401を指定したことで再生順(3)〜(7)の5つのサムネイル画像401が1グループとして扱われるべきであることが指定されることになる。
【0113】
なお、上記1グループにおける先頭と最後のサムネイル画像の指定操作としては、結果的にこれら2つのサムネイル画像の指定が行われればよいので、先に最後のサムネイル画像を指定し、続いて先頭のサムネイル画像を指定しても構わない。
また、以降においては、例えばサムネイル画像等のクリック操作の対象となる位置に対してポインタを配置させ、この状態でクリック操作を行うことを、「−−に対するクリック操作」といって簡略した表現を用いることとする。
【0114】
上記までのような操作が行われると、図8に示したサムネイル表示は、例えば図9(a)(b)のいづれかに示すように変更される。なお、ここでは、各サムネイル画像401における表示内容の図示は省略し、各サムネイル画像401の表示枠内には、再生順のみを便宜上示している。
例えば図9(a)に示す表示であれば、再生順(3)〜(7)の5つのサムネイル画像401は、グループ囲み枠により一纏めにして括られるようにして表示されることで、或る1つのグループに属するサムネイル画像(録画ファイル)であることが視覚的に示される。つまり、この図に示すサムネイル表示ではグループ1が展開されて、このグループ1のディレクトリ内に含まれる複数のサムネイル画像が提示されている形態で表示が行われているものである。
【0115】
そして、このグループに対しては、例えばそのグループ名を表すグループタブ403も例えば図のような形態により表示される。
なお、ここではグループタブ403におけるグループ名として「グループ1」という文字が表示されているが、例えば、実際には、ユーザによる所定の文字入力操作によって、任意のグループ名を入力可能とし、この入力されたグループ名がグループタブ403にて表示されるようにしても構わない。
【0116】
そして、例えば、ユーザが図9(a)に示されているグループタブ403に対してクリック操作を行ったとすると、サムネイル表示は例えば図9(b)に示すようにして変更される。
つまり、図9(a)に示すようにして展開表示されていた「グループ1」に属する5つのサムネイル画像401(再生順(3)〜(7))のうち、グループ1内において2番目以降の再生順となる、再生順(4)〜(7)のサムネイル画像401の表示は行われなくなり、グループ1としては、グループ1内において先頭となる再生順(3)のサムネイル画像401のみが表示されることになる。
この場合、グループ囲み枠404は、再生順(3)のサムネイル画像401のみを囲むようにされ、このグループ囲み枠404に対してグループタブ403が付随するようにして表示が行われる。
【0117】
つまり、図9(b)のグループ表示は、グループ1を一纏めにした表示形態とみることができる。そして、この場合には、その先頭の再生順(3)のサムネイル画像401を表示させていることで、この再生順(3)のサムネイル画像をグループ1の代表画像として扱い、他の再生順(4)〜(7)のサムネイル画像は、潜在的に、このグループ1としての再生順(3)のサムネイル画像表示に格納されているものとして扱うようにされる。
なお、以降は図9(a)に示すようなグループ表示を「展開表示」ともいい、図9(b)に示すようなグループ表示を「クローズ表示」ともいいうこととする。
【0118】
これら図9(a)(b)に示す形態のグループ表示では、グループ1以外のサムネイル画像(録画ファイル)が在るとされる階層に対して、グループ1に属するサムネイル画像(録画ファイル)は、これより1段下の階層に存在するものとして扱われることになる。
【0119】
ここで、グループ1に対して続く再生順のサムネイル画像は、再生順(8)とされているサムネイル画像401となる。このため、図9(b)のようにしてグループ1がクローズ表示された状態では、このグループ1に続く再生順のサムネイル画像が表示される位置に対して、再生順(8)のサムネイル画像401が繰り上がるようにして表示され、以降、再生順(9)〜(12)のサムネイル画像401が再生順に従って順次配列表示されることになる。
そして、実際には、再生順(12)のサムネイル画像401以降においても、これに続く複数のサムネイル画像(録画ファイル)が有ったのであれば、これらのサムネイル画像401が、サムネイル表示における最大表示可能数を満たすまで順次繰り上げ表示されることになる。図9(b)の場合には、再生順(12)のサムネイル画像401に続けて、再生順(12)〜(16)までのサムネイル画像が繰り上げ表示されている例が示されている。
つまり、図9(b)に示すサムネイル表示とした場合は、グループを展開せずに纏めて表示することで、限られたサムネイル画像数しか表示されないサムネイル表示画面上に出来るだけ多くのサムネイル画像(録画ファイル)を再生順に従って表示させることができるものである。
【0120】
そして、例えば図9(b)に示す表示状態の下で、再度、グループ1を示すグループタブ403に対するクリック操作を行うと、表示画面は図9(a)に示す表示形態に戻るようにされる。つまり、グループ1を示すグループタブ403に対するクリック操作を行うことで、図9(a)に示すグループの展開表示と、図9(b)に示すクローズ表示との切り換えが行われるものである。
【0121】
これまで説明したような、サムネイル表示におけるグループ1についての表示をこれまでのパーソナルコンピュータのGUIと対応させると、例えば図9(a)に示した表示形態は、或るフォルダを展開して、そのフォルダのなかにあるとされるファイルが視覚可能なように表示している状態に対応し、図9(b)に示す表示はフォルダが閉じられて表示されて、内部のファイルが何なのかについては、視覚的に認識が出来ないような状態に対応しているものとされる。
【0122】
ここで、上記図9に示したサムネイル表示に対するファイル再生操作例として、グループ化されたサムネイル画像に対する操作に応じたファイル再生動作について簡単に述べておく。
先ず、図9(a)に示す表示状態の下で、グループ1に属するものとして表示されているサムネイル画像401のうちから、任意のサムネイル画像に対してクリック操作を行ったとすれば、そのクリック操作が行われたサムネイル画像のファイルから再生順に従ってファイル再生が行われることになる。この点では、図8により説明したファイル再生と変わるところはない。
但し、再生終了の機会についていえば、これまでと同様に、特に再生停止操作がない限りディスクに記録されている最後の再生順のファイルまで再生を行っていくようにすることも考えられるが、1つのグループが内容的に或る共通した意味合いを有するものであることを考慮すると、グループ内における最後のファイルの再生が終了するのを以て、ファイル再生動作が終了されるように構成することが考えられる。例えば、図9(a)に示す表示状態の下で、再生順(5)のサムネイル画像に対してクリック操作を行ってファイル再生を開始したとすると、再生順(5)→(6)→(7)の順に各録画ファイルの再生を行い、これら録画ファイルの再生終了を以て、ファイル再生動作を終了させるものである。
【0123】
また、図9(b)に示す表示状態の下で、再生順(3)のサムネイル画像401(つまりグループ1のサムネイル画像)に対するクリック操作を行った場合には、グループ1内の録画ファイルを指定されている再生順に従って、順次再生するようにされる。再生終了の機会については、上記図9(a)に対応して説明した再生終了動作に準ずればよい。
【0124】
なお、図9(a)(b)に示す何れの表示状態の下であっても、グループ1に属していないサムネイル画像に対してクリック操作を行ってファイル再生を開始した場合には、グループ内で再生終了することなく、再生停止操作が行われない限りは、ディスクに記録されている最後の再生順のファイルまで再生していくようにすればよい。例えば、再生順(1)の録画ファイルから再生を行ったとすれば、再生順として、(1)→(2)→(3)→(4)→(5)→(6)→(7)→(8)→(9)→(10)→(11)→(12)・・・のようにしてファイル再生が行われるようにされればよいものである。
【0125】
また、図9(a)(b)には示していないが、同一のサムネイル表示画像上において、グループ1と階層的に並列するようにして他のグループが存在しても構わない。つまりは、図9(a)或いは図9(b)に示す表示状態の下で、例えば、再生順(1)のサムネイル画像が表示されている位置にクローズ状態にあるグループが表示されていたり、或いは、再生順(1)→(2)のサムネイル画像が表示されている位置に対して2つのサムネイル画像によるグループが展開表示されていたりすることも、本実施の形態のサムネイル表示としては、当然あり得るものである。
【0126】
本実施の形態では、上記図9(a)(b)のようなグループ化に対応したサムネイル表示も、スクリプトの記述に従って行われるものとされる。このためには、再生順を指定するスクリプトに対して、上記した指定操作により指定された複数のサムネイル画像(録画ファイル)がグループ化されたことを示す記述内容を追加すればよいものである。このような、グループ化を指定したスクリプトの記述例として、上記図9に対応する記述内容は次のようなものとなる。なお、ここでは便宜上、再生順(1)〜(12)までの録画ファイルについて記述した場合を挙げておく。
Figure 0003982072
上記記述から分かるように、1つのグループに属する録画ファイルであることを示すタグとして、<group>を規定し、この場合であれば、<videosrc=”video3”>〜<video src=”video7”>までのファイルを、<group>,</group>のタグにより囲うことで、再生順(4)〜(7)のサムネイル画像(録画ファイル)が1グループに属することを表現するものである。
【0127】
また、グループを展開表示とするか、或いはクローズ表示とするのかの切り換えは、本実施の形態では、スクリプトにより記述されるのではなく、グループタブ403に対するクリック操作に対応したビデオコントローラ38の表示制御(これについては後述する)によって実現されるものとする。
【0128】
上記図9に示すグループ化を含むサムネイル表示では、おおもとのサムネイル表示に対して、1階層のグループ化が行われている場合の表示形態を示したが、或るグループ内に対して更に他のグループが存在するようにして管理する、つまり、グループが複数階層の構造を有するようにして管理することも可能とされる。
図10は、上記のような階層構造を有する場合のサムネイル表示の表示例を示すものとされる。
この場合には、図10(a)には、再生順(1)〜(12)までのサムネイル画像のうち、再生順(3)〜(7)のサムネイル画像がグループ1として扱われて展開表示されている点では、図9(a)に示す表示形態と同様とされる。但し、ここでは、グループ1のディレクトリ内において、再生順(7)としてのサムネイル画像401がグループ化されていることを示す表示が行われている。つまり、グループ1に属することを示すグループ囲み枠404により囲まれた中で、さらに再生順(7)のサムネイル画像401に対して、グループ囲み枠404による囲み表示が行われた上で、グループ名が「グループ2」であることを示すグループタグ403が付けられて表示されている。
この場合、再生順(7)のサムネイル画像401により示されるグループ2は、クローズ表示が行われている状態とされており、ここで再生順(7)として表示されているサムネイル画像401を先頭として、複数のサムネイル画像(録画ファイル)が潜在的に格納されていることを示しているものである。
【0129】
そして、図10(a)に示すグループ2のグループタブ403に対してクリック操作を行った場合には、サムネイル表示は例えば図10(b)に示すものとなる。つまり、既に図10(a)の表示のもとで展開されていたグループ1のディレクトリ内において、更にグループ2が展開されている表示状態が得られることになる。この状態では、グループ2は、再生順として(7)→(7−1)→(7−2)に従って、3つの録画ファイルがグループ化されていることが各サムネイル画像によって示される。そして、この場合には、再生順(7−1),(7−2)の2枚のサムネイル画像が追加的に表示されたことで、図10(a)に示されていた再生順(11),(12)の各サムネイル画像は繰り下げられるようにして、このサムネイル表示のページから外され、再生順(10)のサムネイル画像がこのサムネイル表示のページにおいて最後の再生順の位置に表示されている状態となる。
【0130】
この図9(a)(b)に提示されているサムネイル画像に対応する録画ファイルについて、例えば再生順(1)の録画ファイルから再生を行ったとすれば、再生順として、(1)→(2)→(3)→(4)→(5)→(6)→(7)→(7−1)→(7−2)→(8)→(9)→(10)・・・のようにしてファイル再生が行われることになる。
【0131】
上記のような、或るグループのディレクトリ内に対して、更にグループが存在するようにして管理を行い、これを図10に示したようにして表示するのにあたっても、スクリプトにより記述されることになる。
例えば上記図10に示すグループ化を再生順と共に指定するスクリプトとしては、
Figure 0003982072
のように記述することが考えられる。つまり、<group1>のタグによりグループ1に含められるビデオソース(録画ファイル)を表現し、更に、<group1>,</group1>のタグで囲まれたスクリプトの行内において、<group2>,</group2>のタグによりグループ2に含められる録画ファイルを表現するものである。この場合の基本的な再生順は、<group1>、</group2>のタグを無視した場合の、<seq>により表現されるスクリプトの行(ビデオソースの記述順)によって指定される。
【0132】
ここで、上記図9、又は図10に示した本実施の形態としてのサムネイル表示と、図13に示すサムネイル表示とを比較してみる。
図13に示すサムネイル表示は、録画ファイルについてのサムネイル表示を、パーソナルコンピュータのGUIの形態を応用して実現したと仮定した場合に想定される表示形態例を示すものである。
【0133】
図13においては、図9、図10の場合と同様に、再生順(3)〜(7)の5つのファイルをグループ1として纏めるものとして既に設定が行われているものとされた上で、このグループ1を展開して表示している場合が示されている。
この場合には、グループ1としてのウィンドウWDが表示され、このウィンドウWD内に対して、再生順(3)〜(7)の各サムネイル画像401が表示されている状態が示されている。
また、ここでは親ディレクトリに移行するためのディレクトリ移行ボタン405が表示されており、この表示状態の下で、ディレクトリ移行ボタン405に対するクリック操作を行うと、これより1段階上の階層のディレクトリの表示も行われる。例えば、図9(b)に似たサムネイル表示が行われる場合も有れば、このグループ1が他のグループの階層下に属しているような場合には、その親のグループについて、図13に示すグループ1と同様に、ウィンドウWDによる展開表示が行われる。
【0134】
上記図13に示すようなサムネイル表示の場合、グループ1のディレクトリと、これと隣り合う親又は子のディレクトリとの連結関係が把握しづらいものとなる。
つまり、グループ1のディレクトリ内における録画ファイルの再生順は少なくとも視覚的に認識することは出来るものの、例えば、このグループ1より上のディレクトリに対する関係として、グループ1の先頭の録画ファイルより以前に再生されるべき録画ファイルとの関係や、グループ1の最後の録画ファイル以降に再生されるべき録画ファイルとの関係を、図13に示す画面により一目で把握することは出来ない。つまり、録画ファイル全体についての再生順を見渡すようにして認識することが難しい。
同様にして、例えばグループ1のディレクトリ内において、更に複数のサムネイル画像を纏めたグループ(例えばグループ2)が有る場合、このグループ2を展開すれば、上記図13に示すグループ1の展開表示とは並列的(或いは独立的にとも言える)にこのグループ2のウィンドウが表示されるため、やはり、グループ1とグループ2間での録画ファイルの再生順が把握しにくいことになる。
【0135】
これに対して、図9又は図10に示した本実施の形態としてのサムネイル表示では、グループが展開表示された状態には、或るグループ内での再生順と、そのグループの前後におけるファイル又はグループとの再生順が示されることになる。また、或るグループがクローズ表示された場合には、このグループと、そのグループの前後におけるファイル又はグループとの再生順が示される。
つまり、本実施の形態のサムネイル表示としては、グループのディレクトリ構造は、常に再生順という枠組みの中で提示が行われるものであり、或るグループについて展開表示或いはクローズ表示の何れが行われているにせよ、或るグループとその前後の録画ファイル又はグループとの再生順の関係を視覚的に把握できるものである。
これは、言い換えれば、例えば図13に示したようなパーソナルコンピュータGUIを操作するのに必要となるディレクトリの親子関係の概念を特に理解していなくとも、グループ化により必然となるディレクトリの階層構造を、1画面上で容易に認識できることになるものである。これにより、例えばパーソナルコンピュータの扱いには不慣れなユーザであっても、グループ化によるディレクトリの階層構造を自然に把握して、特に混乱することなくサムネイル画像に対する操作を行うことが可能になるものである。
【0136】
続いて、上記した本実施の形態としてのサムネイル表示を実現するための処理動作について、図11及び図12のフローチャートを参照して説明する。なお、この図に示す処理動作は、例えばビデオコントローラ38がマスターコントローラとして機能したうえで、必要に応じてドライバコントローラ46及びカメラコントローラ25が制御処理を実行することにより実現される。
【0137】
図11に示す処理は主として、先に説明したグループ化のための指定操作(グループ化すべき先頭のサムネイル画像と、最後のサムネイル画像を指定するための操作)に応じた制御処理を示すものである。また、この図に示す処理が開始される段階においては、既にサムネイル表示が表示部6Aに対して行われており、操作部7に対する所定操作により、グループ化設定を行うためのグループ設定モードとされているものとされる。
グループ設定モードの下では、前述したように、これよりユーザがグループ化しようと思っている再生順が連続した複数のサムネイル画像401のうち、再生順的に先頭となるサムネイル画像401と、最後となるサムネイル画像401に対するクリック操作を、サムネイル表示上で行うようにされる。
【0138】
ステップS101では、上記クリック操作に応じて、これよりグループ化すべきサムネイル画像における先頭のサムネイル画像(録画ファイル)を指定する処理を実行し、更に続くステップS102において、これよりグループ化すべきサムネイル画像における先頭のサムネイル画像を指定するための処理を実行する。
なお、前述したように、グループ指定のためのサムネイル画像の指定は、先頭のサムネイル画像を指定した後に最後のサムネイル画像を指定しても、また、最後のサムネイル画像を指定した後に先頭のサムネイル画像を指定しても構わないため、上記ステップS101,S102の処理については、S102→S101の順で実行されても構わないものである。
【0139】
上記ステップS101,S102により、グループ化すべきサムネイル画像の指定操作に対応する処理を実行した後は、ステップS103に進む。
前述したように、サムネイル表示に際しては再生順に従ってサムネイル画像を配列させる必要上、この図に示す処理が実行される前段階において、既に、ディスクから再生順を指定するスクリプトは読み出されて、バッファメモリ32に保持されている状態にある。つまり、この図に示す処理が開始される前におけるサムネイル表示は、先にバッファメモリ32に読み込まれた再生順を指定するスクリプトを解釈することで表示が行われたものである。
【0140】
そこで、ステップS103では、上記バッファメモリ32に保持されている再生順を指定するスクリプトの記述内容を、上記指定操作に従って指定されたサムネイル画像(録画ファイル)が1つのグループとして管理されるように更新する。具体的には、指定操作に従って指定された先頭のサムネイル画像(録画ファイル)から最後のサムネイル画像(録画ファイル)までの記述部分を、先に図9又は図10に対応して示したスクリプトの記述内容のようにして、<group>,</group>のタグで囲むようにしてその記述内容を変更するものである。
このようなスクリプトの更新は、例えばマスターコントローラとして機能するビデオコントローラ38がXMLのサブセットを利用して実行することになる。
【0141】
そして、続くステップS104において、上記ステップS103により更新されたスクリプトの記述内容に基づくサムネイル表示を実行するようにされる。つまり、ステップS101,102に対応する指定操作に応じて設定されたグループが表現されるようにサムネイル表示の内容を更新する。
【0142】
上記ステップS104のサムネイル表示のための処理は、例えば図12に示す処理動作となる。なお、この図12に示すステップS104としてのサムネイル表示のための処理は、図11により説明したようにして、ユーザによるグループ設定のための操作に対応して実行される他、例えばビデオカメラに対する電源オン後などにおいて、サムネイル表示を最初に行う場合、更には、グループタブ403に対するクリック操作(グループの展開表示/クローズ表示の切り換え操作)が行われた場合等にもこの図に準じた処理が実行される。
【0143】
図12に示すルーチンにおいては、先ず、ステップS201において、フラグFについて、F=0としてからステップS201に進む。なお、フラグFの意義については後述する。
【0144】
ステップS202では、現在バッファメモリ32に保持されている再生順を示すスクリプトを、これからのサムネイル表示制御のために、例えば内部のRAMに取り込む(書き込む)ための処理が実行される。
そして、続くステップS203において、RAMに読み込まれたスクリプトにおいて、現サムネイル画像(録画ファイル)についての記述内容を解析するために、この現サムネイル画像の記述部分をビデオコントローラ38が読み込む処理が実行される。
ここでいう現サムネイル画像とは、これより記述内容の読み込みが行われる録画ファイルのことをいい、例えばこれからの処理が、図9に示すサムネイル表示を行うための処理であるとすれば、最初にステップS203の処理に至った段階では、再生順として最も先頭にあるとされる再生順(1)の録画ファイル(Video1)の記述部分についての読み込みが行われることになる。つまり<seq>の次の行から読み込みが開始される。そして以降、後述する処理によりステップS203の処理に至るごとに、順次、再生順として次の録画ファイルの記述内容の読み込みが実行される。
【0145】
ステップS203の処理によりスクリプトにおける所要の記述部分が読み込まれた後は、ステップS204に進む。ステップS204においては、現在グループ化処理が実行中であるか否かについて判別が行われる。
ここでいう「グループ化処理」とは、後述するステップS207の処理に移行して、最終的にステップS213(若しくはステップS217)の処理を経るまでの処理経過中にあることをいうものである。
【0146】
ステップS204において、現在グループ化処理が実行中でないと判別された場合には、ステップS205に進む。
ステップS205では、現在読み込んでいる現サムネイル画像についてのスクリプトの記述内容として、グループ化の開始を示す<group>タグが、その直前に付されているか否かが判別される。ここで否定結果が得られる場合とは、現在グループ化処理も行われておらず、かつ<group>タグも得られないということで、先のステップS203にて読み込んだ録画ファイルはグループ化されていない独立したディレクトリ(最上階層)に在るということを意味する。従って、ステップS205で否定結果が得られた場合には、ステップS206に進み、現サムネイル画像を、サムネイル表示上において再生順に従った所要の配列位置に対して表示させるための制御処理が実行される。
例えば、この図に示す処理が図9に示すサムネイル表示を行うものであるとして、上記ステップS206の処理が最初に実行されたものである場合には、図9に示す位置(最上行の最も右の列)に、再生順(1)のサムネイル画像をマッピングして表示するように制御を実行することになる。
この場合、サムネイル画像表示に使用するサムネイル画像の画像データは、前述したディスクのサムネイルトラックから所要のサムネイル画像データを読み出すことにより得られるものである。
【0147】
上記ステップS206の処理が完了するとステップS215に進み、これまでのサムネイル画像表示処理によって、例えば1ページ分のサムネイル画像表示が完了したか否かが判別される。つまり、図9や図10に示したようなサムネイル画像表示数(この場合には12)を満たすサムネイル表示画像が得られている状態にあるか否か、或いは、サムネイル画像表示数に満たないとしても、表示すべき全てのサムネイル画像を表示し終えたか否かが判別される。
ここで、未だ1ページ分のサムネイル画像表示が完了していないことが判別されれば、ステップS203に戻ることで、スクリプトの次の行(次の現サムネイル画像(録画ファイル)又はタグ)に対する読み込みが実行される。
【0148】
一方、ステップS205において、現在読み込んでいるスクリプトの記述内容として、現サムネイル画像に対応する録画ファイルの記述部分の直前にグループ化の開始を示す<group>タグが付されているという肯定結果が得られた場合には、ステップS207に進む。
【0149】
ステップS207においては、これよりグループ化を開始し、グループの先頭として、現サムネイル画像を表示出力させるための制御処理を実行して、ステップS208に進む。
【0150】
ステップS208においては、上記ステップS208によりグループ化が開始されたグループについて、展開表示すべき指示が行われているか否かが判別される。この判別処理にあたっては、基本的には3つの状況が考えられる。
1つには、図12に示す処理が、前述したユーザによるグループタブ403に対するクリック操作による指示に応じて行われた場合であり、この場合には、このクリック操作が行われた時点でのグループの表示が展開表示/クローズ表示の何れであったのかということに依存する。例えば、展開表示されていた状態でグループタブ403に対するクリック操作が行われたのであれば、クローズ表示を指示していることになり、ステップS208では否定結果が得られることになる。
また、グループ化設定に応答した変更表示等の場合には、例えば、展開表示とするかクローズ表示(展開しない表示)とするかを予め設定しておき、この設定内容に従って、判別を行うようにすればよい。
また、例えばサムネイル表示を例えば電源投入などに応じて最初に表示するような場合には、これより以前の段階での最後の表示状態として各グループを展開表示していたのかクローズ表示としていたのかの情報を、ディスクに書き込む、或いはビデオコントローラ38内部の不揮発性メモリ(図示せず)にメモリしておくようにし、この情報を利用して、ステップS208における判別処理を実行するようにすればよい。
【0151】
上記ステップS208にて肯定結果が得られた場合には、一旦ステップS209に進んで、フラグFについてF=1と設定してからステップS215に進むようにされる。つまり、フラグFは、現在グループ化処理中とされるグループについて展開表示が指示されているか否かを示すもので、F=1であれば展開表示が指示されており、F=0であればクローズ表示が指示されていることを示す。
これに対して、ステップS208にて否定結果が得られた場合には、そのままステップS215に進むようにされる。
【0152】
これまで説明した処理が実行されることで、再生順のスクリプトに<group>タグが付されていれば、ステップS208→ステップS209を経て、ステップS203に戻る処理によって、グループ化処理が実行されることになる。この過程では、前述したステップS204において肯定結果が得られ、ステップS210に進むことになる。
【0153】
ステップS210においては、現録画ファイル(サムネイル画像)についてのスクリプトの記述内容の直後に対してグループの最後の録画ファイルであることを示す、</group>のタグが付されているか否かについて判別する。
この</group>のタグが付されていないと判別された場合、つまり、現録画ファイルがグループにおける最後のファイルではないと判別された場合には、ステップS211に進んで、フラグFについてF=1とされているか否かについて判別が行われる。つまり、このグループについて展開/クローズ表示の何れが指示されているのかが判別される。
ここで、ステップS211において肯定結果が得られた、つまり、展開表示するものとして指示が行われている場合には、ステップS212に進み、現サムネイル画像を、現在グループ化処理中のグループに対して、その再生順に従って追加するようにして表示するための制御を実行して、ステップS215の処理に進むようにされる。
このステップS212の処理が実行されることで、グループ内のサムネイル画像が再生順に従って順次マッピングされるようにして表示されることになり、例えば、図9(a)、図1(a)に示すようなグループ1の展開表示、及び図10(b)に示したようなグループ1の展開表示の下でのグループ2の展開表示が実現される。
【0154】
一方、現在グループ化処理中のグループについてクローズ表示が指示されており、ステップS211にて否定結果が得られた場合には、そのままステップS203の処理に戻るようにされる。この処理によって、例えスクリプトによりグループ設定されていることを示す記述がされていたとしても、グループにおいて再生順的に先頭となるサムネイル画像のみが、先に述べたステップS207の処理によって表示出力されるだけで、以降、グループ内において、これに続く再生順のサムネイル画像は、表示出力されることなくスキップされる。
このような処理によって、例えば図9(b)に示すグループ2のようなクローズ表示が最終的には得られることになる。
【0155】
また、グループ化処理中であるとして、ステップS204からステップS210に移行する処理経過中において、現録画ファイルのスクリプトの記述内容の直後に</group>のタグが付されていることが判別された場合には、ステップS210からステップS213に移行する処理となる。
【0156】
ステップS213においては、これまで実行していたグループ化処理を終了する。そして、これまでグループ化処理の過程で表示出力させていた1又は複数のサムネイル画像を、グループとして提示されるように表示するための制御処理が実行される。つまり、これまでのグループ化の過程で表示したサムネイル画像に対して、図9及び図10に示すようなグループ囲み枠404、及びグループタブ403を付加して表示させるものである。そして、この処理が終了したら、ステップS214に進んでフラグFについてF=0にクリアし、ステップS215に戻るようにされる。
【0157】
ステップS215で1ページ分のサムネイル画像表示処理が完了したことが判別された場合には、ステップS216に進むようにされる。ステップS216では、先のステップS207において開始されたグループ化処理が終了したか否かが判別される。
このステップS216に至った段階でグループ化が終了していない状態とは、図9及び図10では図示及びその説明は行わなかったが、例えば或るグループを展開表示させながら、これまでのサムネイル表示処理を実行してきたが、1ページ内におけるサムネイル画像の最大表示可能数に至った段階で、上記或るグループの最後のサムネイル画像までの表示が終了しなかったような場合に相当する。
このような場合には、ステップS217に進むことで、これまでのグループ化処理は終了させてしまい、とりあえず、これまでグループ化したサムネイル画像によりグループ化されていることを示す表示形態を与えるように制御を実行する。つまり、これまでにグループ化されたサムネイル画像をグループ囲み枠40で囲み、グループタブ403を付加して表示させるものである。
【0158】
上記ステップS217の処理を経過した後、及び上記ステップS216でグループ化処理は終了している状態にあると判別された場合には、これまでのサムネイル画像表示のための処理を終了することになる。
【0159】
なお、本発明としては上記した実施の形態に限定されるものではなく、各種変更が可能とされ、サムネイル表示、及びサムネイル表示内でグループであることを示す実際の表示形態等は、実際の使用条件や、使い勝手等を考慮して変更されても構わないものである。
【0160】
また、上記実施の形態では、本発明の画像処理装置として、ミニディスクに対応して記録再生が可能なビデオカメラ装置に搭載された場合について例を挙げたが、これに限定されるものではなく、例えば、他のディスクメディアに対応して画像等のファイルを記録再生可能な記録再生装置や、VTR(Video Tape Recorder)などのテープメディアに対応する記録再生装置など適用することも可能とされる。
【0161】
更に、本実施の形態のビデオカメラとしては、ビデオ記録再生部位として、MD−DATA2に基づくディスク記録再生装置としたが、ビデオ記録再生部位としては、本実施の形態としての構成の他、他の種類のディスク状記録媒体に対応する記録再生装置とされても構わない。
更に、動画像データを圧縮するために本実施の形態では、MPEG2方式を採用するものとして説明したが、例えば他の動画像データの圧縮符号化が可能な方式が採用されて構わない。また、静止画データ及び音声データについての圧縮方式も、本実施の形態として例示したもの(JPEG,ATRAC2等)に限定される必要も特にない。
【0162】
【発明の効果】
以上説明したように本発明は、サムネイル表示画面において、複数のサムネイル画像をひとまとめにしたグループと、このグループに対して階層構造的に直上又は直下のグループ又はサムネイル画像との関係が視覚的に把握できるようにした表示形態を採っている。これにより、例えばグループを閉じて表示したときと展開して表示させときとに関わらず、ユーザにとってはサムネイル表示上において、あるグループがどの階層(ディレクトリ)に在るのかが一目で理解されることになる。
言い換えれば、例えばパーソナルコンピュータのGUIのように、ペアレントフォルダに戻るなどの概念を理解する必要がなく、サムネイル表示に関して、よりユーザフレンドリな環境を提供することが可能になる。
【0163】
また、上記構成の下で、サムネイル表示としては、画像ファイルの再生順に従ってサムネイル画像を配列して表示するようにしたうえで、再生順が連続するサムネイル画像についてグループ化が行えるようにすれば、階層構造のつながりが再生順に対応することになり、また、グループの展開、クローズは常に「再生順」に従った条件の下で行われることになる。これによってユーザは、グループやサムネイル画像間の再生順を常に視覚的に把握することが可能になる。また、再生順の把握が視覚的に可能なことで、再生順が指定されていることを前提としてのグループ化操作を伴う編集作業等も容易に行うことが可能になる。
【図面の簡単な説明】
【図1】本発明の実施の形態のビデオカメラに対応するディスクのトラック構造を示す説明図である。
【図2】実施の形態のビデオカメラに対応するディスクのトラック部分を拡大して示す説明図である。
【図3】実施の形態のビデオカメラに対応するディスクの仕様を示す説明図である。
【図4】実施の形態のビデオカメラの内部構成のブロック図である。
【図5】実施の形態のビデオカメラのメディアドライブ部の内部構成のブロック図である。
【図6】実施の形態のビデオカメラの側面図、平面図、及び背面図である。
【図7】実施の形態に対応するディスク内のデータ構造例を示す概念図である。
【図8】本実施の形態のビデオカメラにおけるサムネイル表示の基本的表示形態例を示す説明図である。
【図9】本実施の形態として、グループを含むサムネイル表示の表示形態例を示す説明図である。
【図10】本実施の形態として、グループを含むサムネイル表示の表示形態例を示す説明図である。
【図11】グループを含むサムネイル表示を実現するための処理動作を示すフローチャートである。
【図12】グループを含むサムネイル表示を実現するための処理動作を示すフローチャートである。
【図13】本実施の形態において、パーソナルコンピュータのGUIを応用した場合のサムネイル表示の表示形態例を示す説明図である。
【符号の説明】
1 レンズブロック、2 カメラブロック、3 ビデオ信号処理部、4 メディアドライブ部、5 デッキ部、6 表示/画像/音声入出力部、6A 表示部、7 操作部、8 外部インターフェイス、9 電源ブロック、11 光学系、12 モータ部、22 サンプルホールド/AGC回路、23 A/Dコンバータ、24 タイミングジェネレータ、25 カメラコントローラ、31 データ処理/システムコントロール回路、32 バッファメモリ、33 ビデオ信号処理回路、34 メモリ、35 動き検出回路、36 メモリ、37 音声圧縮エンコーダ/デコーダ、38 ビデオコントローラ、41 MD−DATA2エンコーダ/デコーダ、42 バッファメモリ、43 二値化回路、44 RF信号処理回路、45 サーボ回路、46 ドライバコントローラ、51 ディスク、52 スピンドルモータ、53 光学ヘッド、54 磁気ヘッド、55 スレッドモータ、61 ビデオD/Aコンバータ、62 表示コントローラ、63 コンポジット信号処理回路、64 A/Dコンバータ、65 D/Aコンバータ、66 アンプ、101 RFアンプ、103 AGC/クランプ回路、104 イコライザ/PLL回路、105 ビタビデコーダ、106 RLL(1,7)復調回路、107 マトリクスアンプ、108 ADIPバンドパスフィルタ、109 A/Bトラック検出回路、110 ADIPデコーダ、111 CLVプロセッサ、112 サーボプロセッサ、113 サーボドライバ、114 データバス、115 スクランブル/EDCエンコード回路、116 ECC処理回路、117 デスクランブル/EDCデコード回路、118 RLL(1,7)変調回路、119 磁気ヘッド駆動回路、120 レーザドライバ、121 転送クロック発生回路、201 カメラレンズ、202マイクロフォン、203ディスクスロット、204 ビューファインダ、205 スピーカ、300 メインダイヤル、301 レリーズキー、304 ズームキー、305 イジェクトキー、306 再生キー、307 停止キー、308,309 サーチキー、310 十字/クリックキー、311 ジョグダイヤル、401 サムネイル画像、402 ポインタ、403 グループタブ、404グループ囲み枠、Ldランド、NWG ノンウォブルドグルーブ、WG ウォブルドグルーブ、Tr・A,Tr・B トラック[0001]
BACKGROUND OF THE INVENTION
  The present invention relates to an image processing apparatus for performing image processing for displaying a plurality of representative images representing a file recorded on a recording medium, for example, on one screen.And display methodIt is about.
[0002]
[Prior art]
At present, personal computers use a management form based on a GUI (Graphical User Interface), which is performed on a so-called desktop screen, for managing various files recorded in a storage device such as a hard disk. Basically, the file recorded on the recording medium is displayed as an icon. Generally, when this icon is selected and clicked, a file corresponding to the icon is reproduced (for example, displayed or output by sound).
In the GUI of the personal computer, a plurality of files selected by the user are collected into one folder, and the folders are managed in a hierarchical manner. As is well known, this folder is expanded by the user's operation and can be displayed so that the user can grasp each file which is supposed to be collected inside. Conversely, from this state, the folder Can be displayed in a closed state (the file is considered to be stored in the folder at this time).
In addition, when folders are hierarchized, for example, when it is necessary to move from a child folder to a parent folder (folder one level higher), the child folder is generally expanded. Since a key for moving to the parent folder is displayed on the displayed image, it is possible to move to the parent folder by clicking the key.
[0003]
And when considering the form of GUI (Graphical User Interface) for searching video data files such as moving images and still images recorded on a recording medium in a video camera etc., it is adopted in the personal computer as described above It is conceivable to apply a file management form as a GUI. .
That is, the file recorded on the recording medium is displayed as an icon using, for example, a thumbnail image. A “thumbnail image” is an image that displays a representative screen of a still image or a moving image that is representative for each file recorded on a recording medium, for example, in a reduced form in one screen. Say. Further, in this specification, the display for presenting thumbnail images in this way is also referred to as “thumbnail display”. When a user performs a click operation on a desired icon (thumbnail image) by a predetermined operation on such a thumbnail display image, a file corresponding to the clicked icon is played back. .
Then, the icons of a plurality of files are grouped into a single folder, and a hierarchical structure is obtained for these folders.
[0004]
[Problems to be solved by the invention]
By the way, in the GUI of the personal computer as described above, for example, there is a problem that it is difficult to grasp at a glance the relationship between a certain folder and the parent or child of this folder.
For example, consider a case in which only one folder is displayed, and the parent folder is referred to. In this case, first, an operation is performed on the key display for displaying the parent folder. Will do. By this operation, the parent folder is displayed on the screen in an expanded state. On the GUI screen of the personal computer, this parent folder is generally the same as the child folder that was displayed first. Since they are displayed in parallel on the screen, the parent-child relationship between folders is still difficult to grasp at a glance.
[0005]
If such a GUI is applied to a search screen for a file recorded by the above-described video camera or the like, for example, a user who is accustomed to the operation of a personal computer to some extent can usually handle a personal computer. It will be difficult for users of household appliances who do not have the concept of the parent-child relationship of folders.
Accordingly, it is desirable to construct a GUI screen that is easy to see and handle even for a user unfamiliar with a personal computer as a GUI of a product similar to a general household appliance such as a video camera.
[0006]
[Means for Solving the Problems]
  Therefore, the present inventionReading out representative image data of a plurality of image data recorded on the recording medium from the recording medium and reading out display control data of the representative image data from the recording medium; and the representative read out by the reading means When it is determined that the group display is instructed by the determination unit and the determination unit that determines whether the group image summary display or the expanded display is instructed when displaying the image data, For a representative image defined as a group based on the display control data, one of the representative images belonging to the group is displayed and a display indicating that it belongs to the representative image group is displayed, and an unfolded display is instructed. If it is determined that all the representative images belonging to the group are developed based on the display control data, As well as to provide a display to indicate that the representative image belonging to the expanded displayed group belongs to a group in a predetermined surrounding boxThe display control means is provided.
[0007]
  The display method of the present invention reads representative image data of a plurality of image data recorded on a recording medium from the recording medium, reads display control data of the representative image data from the recording medium, and displays the representative image data. When performing the display, it is determined whether group image summary display or unfolded display is instructed, and if summary display is instructed, the group image is defined for the representative image defined based on the display control data. Displays one of the representative images belonging to the group and displays that the image belongs to the representative image group. If the expanded display is instructed, the representative belonging to the group is displayed based on the display control data. All the images are displayed as expanded, and the representative images belonging to the expanded group are grouped in a predetermined frame. Perform an indication of Succoth.
[0008]
DETAILED DESCRIPTION OF THE INVENTION
Hereinafter, an image processing apparatus according to an embodiment of the present invention will be described. The image processing apparatus according to this embodiment is mounted on a portable video camera in which a camera apparatus unit and a recording / reproducing apparatus unit capable of recording and reproducing images (still images or moving images) and audio are integrated. Take the case as an example. Further, the recording / reproducing apparatus unit mounted on the video camera of this example is configured to record and reproduce data corresponding to a so-called mini-disc known as a kind of magneto-optical disc.
The description will be given in the following order.
1. Disc format
2. Appearance structure of video camera
3. Internal configuration of the video camera
4). Media drive configuration
5. Example of disk structure corresponding to this embodiment
6). Thumbnail image generation processing
7. script
8). Thumbnail display
9. Thumbnail display of this embodiment
[0009]
1. Disc format
The recording / reproducing apparatus unit mounted on the video camera of this example corresponds to a format called MD data which records / reproduces data corresponding to a mini-disc (magneto-optical disc). As this MD data format, two types of formats called MD-DATA1 and MD-DATA2 have been developed. The video camera of this example is capable of recording at a higher density than MD-DATA1. It is assumed that recording and reproduction are performed in accordance with the format. First, the disk format of MD-DATA2 will be described.
[0010]
1 and 2 conceptually show an example of a track structure of a disk as MD-DATA2. FIGS. 2A and 2B are a cross-sectional view and a plan view, respectively, showing an enlarged portion surrounded by a broken line A in FIG.
As shown in these figures, there are two types of grooves (grooves), a wobbled groove WG provided with wobble (meandering) and a non-wobbled groove NWG provided with no wobble in advance on the disk surface. It is formed. The wobbled groove WG and the non-wobbled groove NWG exist in a double spiral shape on the disk so as to form a land Ld therebetween.
[0011]
In the MD-DATA2 format, the land Ld is used as a track. Since the wobbled groove WG and the non-wobbled groove NWG are formed as described above, the track Tr.A, Tr. The two tracks B are independently formed in a double spiral (double spiral) shape.
The track Tr · A is a track in which the wobbled groove WG is positioned on the outer peripheral side of the disk and the non-wobbled groove NWG is positioned on the inner peripheral side of the disk.
On the other hand, the track Tr · B is a track in which the wobbled groove WG is located on the inner circumference side of the disk and the non-wobbled groove NWG is located on the outer circumference side of the disk.
That is, it can be considered that the wobble is formed only on one side on the outer peripheral side of the disk with respect to the track Tr · A, and the wobble is formed only on one side on the inner peripheral side of the disk with respect to the track Tr · B. .
In this case, the track pitch is the distance between the centers of the adjacent tracks Tr · A and Tr · B, and the track pitch is 0.95 μm as shown in FIG.
[0012]
Here, the wobble formed in the groove as the wobbled groove WG is formed based on a signal in which a physical address on the disk is encoded by FM modulation + biphase modulation. Therefore, it is possible to extract the physical address on the disc by demodulating the reproduction information obtained from the wobbling given to the wobbled groove WG at the time of recording and reproduction.
Further, the address information as the wobbled groove WG is valid for the tracks Tr · A and Tr · B in common. In other words, the track Tr · A located on the inner periphery across the wobbled groove WG and the track Tr · B located on the outer periphery share the address information by wobbling given to the wobbled groove WG. .
Such an addressing method is also called an interlace addressing method. By adopting this interlace addressing method, for example, it is possible to reduce the track pitch while suppressing crosstalk between adjacent wobbles. The method of recording addresses by forming wobbles on the groove is also referred to as the ADIP (Address In Pregroove) method.
[0013]
Further, as described above, it is possible to identify which of the tracks Tr · A and Tr · B sharing the same address information is being traced as follows.
For example, when the 3-beam method is applied and the main beam is tracing the track (land Ld), the remaining two side beams trace the grooves located on both sides of the track being traced by the main beam. It is possible to make it.
[0014]
FIG. 2B shows a state in which the main beam spot SPm is tracing the track Tr · A as a specific example. In this case, of the two side beam spots SPs1 and SPs2, the inner side side beam spot SPs1 traces the non-wobbled groove NWG, and the outer side side beam spot SPs2 traces the wobbled groove WG. become.
On the other hand, although not shown, if the main beam spot SPm is tracing the track Tr · B, the side beam spot SPs1 traces the wobbled groove WG and the side beam spot SPs2 is non-wobbled groove. NWG will be traced.
As described above, when the main beam spot SPm traces the track Tr · A and when the track Tr · B is traced, the groove to be traced by the side beam spots SPs1 and SPs2 is necessarily a wobbled groove. The WG and the non-wobbled groove NWG are interchanged.
[0015]
As a detection signal obtained by the photodetector by reflection of the side beam spots SPs1 and SPs2, different waveforms are obtained depending on which one of the wobbled groove WG and the non-wobbled groove NWG is traced. Based on, for example, it is determined which of the current side beam spots SPs1 and SPs2 is tracing the wobbled groove WG (or the non-wobbled groove NWG), so that the main beam is track Tr · A, Tr · Which of B is traced can be identified.
[0016]
FIG. 3 is a diagram showing the main specifications of the MD-DATA2 format having the track structure as described above in comparison with the MD-DATA1 format.
First, the MD-DATA1 format has a track pitch of 1.6 μm and a pit length of 0.59 μm / bit. The laser wavelength λ is 780 nm, and the aperture ratio NA of the optical head is 0.45.
As a recording method, a groove recording method is adopted. That is, the groove is used as a track for recording and reproduction.
As an addressing method, a single spiral groove (track) is formed, and a wobbled groove in which wobbles as address information are formed on both sides of the groove is used.
[0017]
An EFM (8-14 conversion) system is adopted as a recording data modulation system. As an error correction method, ACIRC (Advanced Cross Interleave Reed-Solomon Code) is adopted, and a convolution type is adopted for data interleaving. For this reason, the data redundancy is 46.3%.
[0018]
Further, in the MD-DATA1 format, CLV (Constant Linear Velocity) is adopted as a disk drive system, and the linear velocity of CLV is set to 1.2 m / s.
The standard data rate at the time of recording / playback is 133 kB / s, and the recording capacity is 140 MB.
[0019]
On the other hand, the MD-DATA2 format that can be supported by the video camera of this example is that the track pitch is 0.95 μm and the pit length is 0.39 μm / bit, both of which are shorter than the MD-DATA1 format. I understand. For example, in order to realize the above pit length, the laser spot λ = 650 nm and the aperture ratio NA = 0.52 of the optical head are used to narrow the beam spot diameter at the in-focus position and widen the band as the optical system. .
[0020]
As described with reference to FIGS. 1 and 2, the land recording method is adopted as the recording method, and the interlace addressing method is adopted as the address method. As a recording data modulation method, an RLL (1, 7) method (RLL: Run Length Limited) adapted to high-density recording is adopted, an error correction method is an RS-PC method, and data interleaving is used. Block complete type is adopted. As a result of adopting each of the above methods, the data redundancy can be suppressed to 19.7%.
[0021]
Even in the MD-DATA2 format, CLV is adopted as the disk drive system, but the linear velocity is 2.0 m / s, and the standard data rate at the time of recording and reproduction is 589 kB / s. . As a recording capacity, 650 MB can be obtained, and when compared with the MD-DATA1 format, a recording density of more than four times is realized.
For example, when moving images are recorded in the MD-DATA2 format, when moving image data is compression-encoded by MPEG2, 15 minutes to 17 minutes in time depending on the bit rate of the encoded data. Can be recorded. Further, assuming that only audio signal data is recorded, when audio data is subjected to compression processing by ATRAC (Adaptve Transform Acoustic Coding) 2, recording can be performed for about 10 hours.
[0022]
2. Appearance structure of video camera
6A, 6B, and 6C are a side view, a plan view, and a rear view showing an example of the appearance of the video camera of this example.
As shown in these drawings, in the main body 200 of the video camera of this example, a camera lens 201 having an imaging lens for taking a picture, a diaphragm, and the like are provided so as to be exposed. On the top surface portion of 200, a pair of left and right microphones 202 are provided for collecting external sound during shooting. That is, with this video camera, it is possible to record an image photographed by the camera lens 201 and record a stereo sound collected by the microphone 202.
[0023]
Further, a display unit 6A, a speaker 205, and an indicator 206 are provided on the side of the main body 200. The display unit 6A is a part that displays and outputs a photographed image, an image reproduced by an internal recording / reproducing device, and the like. Note that a display device actually employed as the display unit 6A is not particularly limited here, but for example, a liquid crystal display or the like may be used. The display unit 6A also displays a message or the like using characters or characters for notifying the user of a required message according to the operation of the device.
The reproduced sound is output from the speaker 205 when the recorded sound is reproduced, and a required message sound is output by a beep sound, for example.
The indicator 206 is lit during, for example, a recording operation, and indicates to the user that the video camera is recording.
[0024]
A viewfinder 204 is provided on the back side of the main body 200, and images, character images, and the like captured from the camera lens 201 are displayed during the recording operation and standby. The user can take a picture while viewing the viewfinder 204.
Further, a disk slot 203, a video output terminal T1, a headphone / line terminal T2, and an I / F terminal T3 are provided. The disk slot 203 is a slot portion into which a disk as a recording medium corresponding to the video camera of this example is inserted or ejected. The video output terminal T1 is a terminal that outputs a reproduction image signal or the like to an external video device, and the headphone / line terminal T2 is a terminal that outputs a reproduction audio signal to an external audio device or headphones. The I / F terminal T3 is, for example, an input / output terminal of an interface for performing data transmission with an external data device.
[0025]
  Further, various parts for the user operation (300, 301, and 304-311) Is provided.
  The main dial 300 is an operator for setting on / off of the video camera, recording operation, and reproduction operation. As shown in the figure, when the main dial is in the “OFF” position, the power is turned off, and when the main dial is rotated to the “STBY” position, the power is turned on and the recording operation is on standby. Further, by turning to the position “PB”, the power is turned on and the standby state of the reproduction operation is set.
[0026]
The release key 301 functions as a recording start or recording shutter operator when in the recording standby state.
[0027]
A zoom key 304 is an operator for operating a zoom state (telephoto side to wide side) related to image shooting.
The eject key 305 is an operator for ejecting the disk loaded in the disk slot 203.
A reproduction / pause key 306, a stop key 307, and search keys 308 and 309 are prepared for various operations during reproduction on the disc.
[0028]
The cross / click key 310 is used by the user to move the pointer display in the horizontal and vertical directions on a thumbnail display screen described later. In this case, a click operation can be performed by pressing the central portion of the key.
The jog dial 311 is a key for performing a required selection operation or input operation by performing a rotation operation under each operation mode. For example, under the character input mode, it is possible to select a character to be input by rotating the jog dial 311. When confirming the input character, for example, the click operation may be performed using the cross / click key 310.
[0029]
Note that the appearance of the video camera shown in FIG. 6 is merely an example, and may be changed as appropriate according to usage conditions or the like actually required for the video camera of this example. Of course, there are various types of operation elements, operation methods, and connection terminals with external devices.
[0030]
3. Internal configuration of the video camera
FIG. 4 is a block diagram showing an example of the internal configuration of the video camera of this example.
In the lens block 1 shown in this figure, for example, an optical system 11 configured with an imaging lens, a diaphragm, and the like is actually provided. The camera lens 201 shown in FIG. 6 is included in the optical system 11. In addition, the lens block 1 includes a motor for causing the optical system 11 to perform an autofocus operation, a zoom motor for moving the zoom lens based on the operation of the zoom key 304, and the like. Supplied as
[0031]
The camera block 2 is provided with a circuit unit for mainly converting image light photographed by the lens block 1 into a digital image signal.
The CCD (Charge Coupled Device) 21 of the camera block 2 is given an optical image of the subject that has passed through the optical system 11. The CCD 21 performs photoelectric conversion on the optical image to generate an imaging signal and supplies it to a sample hold / AGC (Automatic Gain Control) circuit 22. The sample hold / AGC circuit 22 performs gain adjustment on the image pickup signal output from the CCD 21 and performs waveform shaping by performing sample hold processing. The output of the sample hold / AGC circuit 2 is supplied to the video A / D converter 23 to be converted into digital image signal data.
[0032]
Signal processing timing in the CCD 21, sample hold / AGC circuit 22, and video A / D converter 23 is controlled by a timing signal generated by a timing generator 24. In the timing generator 24, a clock used for signal processing in a data processing / system control circuit 31 (in the video signal processing circuit 3) described later is input, and a required timing signal is generated based on this clock. Is done. Thereby, the signal processing timing in the camera block 2 is synchronized with the processing timing in the video signal processing unit 3.
The camera controller 25 performs necessary control so that each functional circuit unit provided in the camera block 2 operates properly, and performs autofocus, automatic exposure adjustment, aperture adjustment, zoom, and the like on the lens block 1. It is supposed to perform control for
For example, in the case of autofocus control, the camera controller 25 controls the rotation angle of the focus motor based on focus control information obtained according to a predetermined autofocus control method. As a result, the imaging lens is driven so as to be in a just-focus state.
[0033]
At the time of recording, the video signal processing unit 3 performs compression processing on the digital image signal supplied from the camera block 2 and the digital audio signal obtained by collecting the sound with the microphone 202, and converts the compressed data into user recording data. To the media drive unit 4 in the subsequent stage. Further, an image generated from the digital image signal and the character image supplied from the camera block 2 is supplied to the viewfinder drive unit 207 and displayed on the viewfinder 204.
Further, at the time of reproduction, user reproduction data (read data from the disk 51) supplied from the media drive unit 4, that is, compressed image signal data and audio signal data are demodulated, and these are reproduced as reproduced image signals. And output as a playback audio signal.
[0034]
In this example, MPEG (Moving Picture Experts Group) 2 is used for moving images and JPEG (Joint Photographic Coding Experts Group) is used for still images as compression / decompression processing methods for image signal data (image data). It shall be adopted. Further, it is assumed that ATRAC (Adaptve Transform Acoustic Coding) 2 is adopted as the audio signal data compression / decompression processing method.
[0035]
The data processing / system control circuit 31 of the video signal processing unit 3 mainly performs control processing relating to compression / decompression processing of image signal data and audio signal data in the video signal processing unit 3 and data passing through the video signal processing unit 3. Executes the process to control the input / output.
The video controller 38 executes control processing for the entire video signal processing unit 3 including the data processing / system control circuit 31. The video controller 38 includes, for example, a microcomputer, and can communicate with the camera controller 25 of the camera block 2 and a driver controller 46 of the media drive unit 4 described later via, for example, a bus line (not shown). Has been.
[0036]
As a basic operation during recording in the video signal processing unit 3, the image signal data supplied from the video A / D converter 23 of the camera block 2 is input to the data processing / system control circuit 31. The data processing / system control circuit 31 supplies the input image signal data to the motion detection circuit 35, for example. The motion detection circuit 35 performs image processing such as motion compensation on the input image signal data while using the memory 36 as a work area, for example, and then supplies the processed image signal data to the MPEG2 video signal processing circuit 33.
[0037]
In the MPEG2 video signal processing circuit 33, for example, the input image signal data is subjected to compression processing according to the MPEG2 format while using the memory 34 as a work area, and a compressed data bitstream (MPEG2 bitstream) as a moving image is applied. Is output. In the MPEG2 video signal processing circuit 33, for example, when image data as a still image is extracted from image signal data as a moving image and subjected to compression processing, compressed image data as a still image according to the JPEG format. Is configured to generate It is also conceivable that an I picture (Intra Picture), which is regular image data, is handled as still image data without using JPEG as compressed image data in the MPEG2 format.
The image signal data (compressed image data) compressed and encoded by the MPEG2 video signal processing circuit 33 is written and temporarily stored in the buffer memory 32 at a predetermined transfer rate, for example.
As is well known, the MPEG2 format supports both a constant speed (CBR) and a variable speed (VBR) as the so-called encoding bit rate (data rate). The video signal processing unit 3 can cope with these.
[0038]
For example, when image compression processing by VBR is performed, for example, if the motion detection circuit 35 detects motion in a range of several tens to several hundred frames before and after the image data in units of macroblocks, This detection result is transmitted to the MPEG2 video signal processing circuit 33 as motion vector information.
In the MPEG2 video signal processing circuit 33, the quantization coefficient for each macroblock is calculated while using the necessary information including the motion vector information so that the image data after compression coding has a certain required data rate. It will be decided.
[0039]
The audio collected by the microphone 202, for example, is input to the audio compression encoder / decoder 37 as digital audio signal data via the A / D converter 64 (in the display / image / audio input / output unit 6).
The audio compression encoder / decoder 37 performs compression processing on the audio signal data input according to the ATRAC2 format as described above. The compressed audio signal data is also written into the buffer memory 32 by the data processing / system control circuit 31 at a predetermined transfer rate, and is temporarily held here.
[0040]
As described above, the compressed image data and the compressed audio signal data can be stored in the buffer memory 32. The buffer memory 32 mainly absorbs the speed difference between the data transfer rate between the camera block 2 or the display / image / audio input / output unit 6 and the buffer memory 32 and the data transfer rate between the buffer memory 32 and the media drive unit 4. Has a function for.
The compressed image data and compressed audio signal data stored in the buffer memory 32 are sequentially read at a predetermined timing and transmitted to the MD-DATA2 encoder / decoder 41 of the media drive unit 4 when recording. However, for example, reading of data stored in the buffer memory 32 at the time of reproduction and operations until the read data is recorded on the disk 51 through the deck unit 5 from the media drive unit 4 are performed intermittently. It doesn't matter.
Such data writing and reading control with respect to the buffer memory 32 is executed by, for example, the data processing / system control circuit 31.
[0041]
The operation during reproduction in the video signal processing unit 3 is roughly as follows.
During reproduction, compressed image data and compressed audio signal data (user reproduction data) read from the disk 51 and decoded in accordance with the MD-DATA2 format by processing of the MD-DATA2 encoder / decoder 41 (in the media drive unit 4) It is transmitted to the data processing / system control circuit 31.
In the data processing / system control circuit 31, for example, the input compressed image data and compressed audio signal data are temporarily stored in the buffer memory 32. Then, for example, the compressed image data and the compressed audio signal data are read from the buffer memory 32 at a required timing and transfer rate so that the reproduction time axis can be matched, and the MPEG2 video signal processing circuit is used for the compressed image data. The compressed audio signal data is supplied to the audio compression encoder / decoder 37.
[0042]
In the MPEG2 video signal processing circuit 33, the input compressed image data is expanded and transmitted to the data processing / system control circuit 31. The data processing / system control circuit 31 supplies the decompressed image signal data to the video D / A converter 61 (inside the display / image / audio input / output unit 6).
The audio compression encoder / decoder 37 performs an expansion process on the input compressed audio signal data and supplies it to the D / A converter 65 (in the display / image / audio input / output unit 6).
[0043]
In the display / image / audio input / output unit 6, the image signal data input to the video D / A converter 61 is converted into an analog image signal here and branched to the display controller 62 and the composite signal processing circuit 63. Is input.
The display controller 62 drives the display unit 6A based on the input image signal. As a result, the reproduced image is displayed on the display unit 6A. Further, in the display unit 6A, not only the display of the image obtained by reproducing from the disc 51, but of course, the captured image obtained by photographing with the camera part composed of the lens block 1 and the camera block 2, It is possible to display and output in almost real time.
In addition to the reproduced image and the captured image, as described above, a message display using characters, characters, or the like for notifying the user of a required message according to the operation of the device is also performed. Such a message display should be output from the data processing / system control circuit 31 to the video D / A converter 61 so that a required character, character, or the like is displayed at a predetermined position under the control of the video controller 38, for example. What is necessary is just to perform the process which synthesize | combines image signal data, such as a required character and a character, with respect to image signal data.
[0044]
The composite signal processing circuit 63 converts the analog image signal supplied from the video D / A converter 61 into a composite signal and outputs it to the video output terminal T1. For example, if an external monitor device or the like is connected via the video output terminal T1, an image reproduced by the video camera can be displayed on the external monitor device.
[0045]
In the display / image / audio input / output unit 6, the audio signal data input from the audio compression encoder / decoder 37 to the D / A converter 65 is converted into an analog audio signal here, and is output to the headphone / line terminal T2. Is output. Further, the analog audio signal output from the D / A converter 65 is also branched and output to the speaker SP via the amplifier 66, whereby reproduced audio or the like is output from the speaker SP. Become.
[0046]
In the media drive unit 4, the recording data is encoded in conformity with the MD-DATA2 format at the time of recording and transmitted to the deck unit 5 in conformity with the disk recording, and is read from the disk 51 in the deck unit 5 at the time of reproduction. The decoded data is subjected to decoding processing to obtain reproduced data, which is transmitted to the video signal processing unit 3.
[0047]
The MD-DATA2 encoder / decoder 41 of the media drive unit 4 receives recording data (compressed image data + compressed audio signal data) from the data processing / system control circuit 31 during recording. A predetermined encoding process according to the DATA2 format is performed and the encoded data is stored in the temporary buffer memory 42. Then, the data is transmitted to the deck unit 5 while being read out at a required timing.
[0048]
At the time of reproduction, the digital reproduction signal read from the disc 51 and inputted through the RF signal processing circuit 44 and the binarization circuit 43 is subjected to decoding processing in accordance with the MD-DATA2 format to obtain reproduction data. The data is transmitted to the data processing / system control circuit 31 of the video signal processing unit 3.
Also in this case, if necessary, the reproduction data is temporarily stored in the buffer memory 42, and the data read therefrom at a required timing is transmitted and output to the data processing / system control circuit 31. Such write / read control for the buffer memory 42 is executed by the driver controller 46.
It should be noted that, for example, even when the servo is disconnected due to a disturbance or the like during playback of the disk 51 and reading of the signal from the disk becomes impossible, the read data is stored in the buffer memory 42 within the period. If the playback operation on the disc is restored, it is possible to maintain time-series continuity as the playback data.
[0049]
The RF signal processing circuit 44 performs necessary processing on the read signal from the disk 51, for example, an RF signal as reproduction data, a focus error signal for servo control for the deck unit 5, a tracking error signal, and the like. Servo control signal is generated. The RF signal is binarized by the binarization circuit 43 as described above, and is input to the MD-DATA2 encoder / decoder 41 as digital signal data.
The generated servo control signals are supplied to the servo circuit 45. The servo circuit 45 executes necessary servo control in the deck unit 5 based on the input servo control signal.
[0050]
In this example, an encoder / decoder 47 corresponding to the MD-DATA1 format is provided, and the recording data supplied from the video signal processing unit 3 is encoded according to the MD-DATA1 format and recorded on the disc 51. Alternatively, the data read from the disk 51 is encoded according to the MD-DATA1 format, and can be decoded and transmitted to the video signal processing unit 3. That is, the video camera of this example is configured to be compatible with the MD-DATA2 format and the MD-DATA1 format.
The driver controller 46 is a functional circuit unit for controlling the media drive unit 4 as a whole.
[0051]
The deck unit 5 is a part composed of a mechanism for driving the disk 51. Although not shown here, the deck unit 5 has a mechanism (disk slot 203 (see FIG. 6)) in which the disk 51 to be loaded is detachable and can be replaced by the user's work. It is supposed to be. The disk 51 here is premised on a magneto-optical disk corresponding to the MD-DATA2 format or the MD-DATA1 format.
[0052]
In the deck unit 5, the loaded disk 51 is rotationally driven by CLV by a spindle motor 52 that rotationally drives the disk 51 by CLV. The disc 51 is irradiated with laser light from the optical head 53 during recording / reproduction.
The optical head 53 performs high-level laser output for heating the recording track to the Curie temperature during recording, and relatively low-level laser output for detecting data from reflected light by the magnetic Kerr effect during reproduction. . Therefore, although not shown in detail here, the optical head 53 is equipped with a laser diode as a laser output means, an optical system including a polarizing beam splitter, an objective lens, and the like, and a detector for detecting reflected light. Yes. The objective lens provided in the optical head 53 is held so as to be displaceable in a disk radial direction and a direction in which it is in contact with and separated from the disk, for example, by a biaxial mechanism.
[0053]
A magnetic head 54 is disposed at a position facing the optical head 53 with the disk 51 interposed therebetween. The magnetic head 54 performs an operation of applying a magnetic field modulated by the recording data to the disk 51.
Although not shown, the deck unit 5 is provided with a thread mechanism that is driven by a thread motor 55. By driving the sled mechanism, the entire optical head 53 and the magnetic head 54 are movable in the disk radial direction.
[0054]
The operation unit 7 corresponds to each of the operators 300 to 311 shown in FIG. 6, and various types of user operation information by these operators are supplied to the video controller 38, for example. The video controller 38 supplies the camera controller 25 and the driver controller 46 with operation information and control information for allowing each unit to execute necessary operations according to user operations.
[0055]
The external interface 8 is provided so that data can be transmitted between the video camera and the external device. For example, as shown in the figure, the external interface 8 is provided between the I / F terminal T3 and the video signal processing unit. The external interface 8 is not particularly limited here. For example, IEEE 1394 or the like may be adopted.
For example, when an external digital image device and the video camera of this example are connected via the I / F terminal T3, an image (sound) captured by the video camera can be recorded on the external digital image device. . In addition, image (sound) data or the like reproduced by an external digital image device can be recorded on the disk 51 in accordance with the MD-DATA2 (or MD-DATA1) format by taking in through the external interface 8. . Furthermore, for example, a file as character information used for inserting a caption can be captured and recorded.
[0056]
The power supply block 9 supplies a power supply voltage of a required level to each functional circuit unit using a DC power source obtained from a built-in battery or a DC power source generated from a commercial AC power source. The video controller 38 controls power on / off by the power block 9 according to the operation of the main dial 300 described above.
During the recording operation, the video controller 38 causes the indicator 206 to perform a light emission operation.
[0057]
4). Media drive configuration
Next, as a configuration of the media drive unit 4 illustrated in FIG. 4, a detailed configuration in which a functional circuit unit corresponding to MD-DATA2 is extracted will be described with reference to the block diagram of FIG. 5. In FIG. 5, the deck unit 5 is shown together with the media drive unit 4. However, since the internal configuration of the deck unit 5 has been described with reference to FIG. 4, the same reference numerals as those in FIG. To do. Further, in the media drive unit 4 shown in FIG. 5, the same reference numerals are given to the ranges corresponding to the blocks of FIG.
[0058]
Information (photocurrent obtained by detecting the laser reflected light by the photodetector) detected by the data reading operation of the optical head 53 with respect to the disk 51 is supplied to the RF amplifier 101 in the RF signal processing circuit 44.
The RF amplifier 101 generates a reproduction RF signal as a reproduction signal from the input detection information and supplies it to the binarization circuit 43. The binarization circuit 43 performs binarization on the input reproduction RF signal, thereby obtaining a reproduction RF signal (binarization RF signal) converted into a digital signal.
The binarized RF signal is supplied to the MD-DATA2 encoder / decoder 41. First, gain adjustment, clamp processing, and the like are performed via the AGC / clamp circuit 103, and then input to the equalizer / PLL circuit 104.
The equalizer / PLL circuit 104 performs equalizing processing on the input binarized RF signal and outputs the result to the Viterbi decoder 105. Further, by inputting the binarized RF signal after the equalizing process to the PLL circuit, the clock CLK synchronized with the binarized RF signal (RLL (1, 7) code string) is extracted.
[0059]
The frequency of the clock CLK corresponds to the current disk rotation speed. Therefore, the CLV processor 111 receives the clock CLK from the equalizer / PLL circuit 104 and obtains error information by comparing it with a reference value corresponding to a predetermined CLV speed (see FIG. 3). This is used as a signal component for generating the error signal SPE. The clock CLK is used as a clock for processing in a required signal processing circuit system including the RLL (1, 7) demodulation circuit 106, for example.
[0060]
The Viterbi decoder 105 performs a decoding process according to a so-called Viterbi decoding method on the binarized RF signal input from the equalizer / PLL circuit 104. As a result, reproduction data as an RLL (1, 7) code string is obtained.
This reproduced data is input to the RLL (1, 7) demodulating circuit 106, where the data stream is subjected to RLL (1, 7) demodulation.
[0061]
The data stream obtained by the demodulation processing in the RLL (1, 7) demodulation circuit 106 is written to the buffer memory 42 via the data bus 114 and developed on the buffer memory 42.
The data stream developed on the buffer memory 42 is first subjected to error correction processing in units of error correction blocks according to the RS-PC system by the ECC processing circuit 116, and further descramble / EDC. The decoding circuit 117 performs descrambling processing and EDC decoding processing (error detection processing).
The data that has been processed so far is used as reproduction data DATAp. The reproduction data DATAp is transferred from the descramble / EDC decode circuit 117 to the data processing / system control circuit 31 of the video signal processing unit 3 at a transfer rate according to the transfer clock generated by the transfer clock generation circuit 121, for example. Will be transmitted.
[0062]
For example, the transfer clock generation circuit 121 appropriately transmits a crystal clock when performing data transmission between the media drive unit 4 and the video signal processing unit 3 and data transmission between functional circuit units in the media drive unit 4. It is a part for generating a transfer clock (data transfer rate) having an appropriate frequency.
Further, a clock having a required frequency to be supplied to each functional circuit unit of the media drive unit 4 and the video signal processing unit 3 is generated according to the operation state of the video camera.
[0063]
Detection information (photocurrent) read from the disk 51 by the optical head 53 is also supplied to the matrix amplifier 107.
In the matrix amplifier 107, necessary detection processing is performed on the input detection information, whereby a tracking error signal TE, a focus error signal FE, and groove information (absolute address information recorded as a wobbled groove WG on the disk 51) GFM. Are extracted and supplied to the servo circuit 45. That is, the extracted tracking error signal TE and focus error signal FE are supplied to the servo processor 112, and the groove information GFM is supplied to the ADIP band pass filter 108.
[0064]
The groove information GFM band-limited by the ADIP bandpass filter 108 is supplied to the A / B track detection circuit 109, the ADIP decoder 110, and the CLV processor 111.
In the A / B track detection circuit 109, for example, based on the method described with reference to FIG. 2B, the currently tracked track is selected from the track TR · A and TR · B based on the input groove information GFM. The track discrimination information is output to the driver controller 46. The ADIP decoder 110 decodes the input groove information GFM to extract an ADIP signal that is absolute address information on the disk and outputs the ADIP signal to the driver controller 46. The driver controller 46 executes necessary control processing based on the track discrimination information and the ADIP signal.
[0065]
The CLV processor 111 receives the clock CLK from the equalizer / PLL circuit 104 and the groove information GFM via the ADIP bandpass filter 108. The CLV processor 111 generates a spindle error signal SPE for CLV servo control based on, for example, an error signal obtained by integrating a phase error with the clock CLK with respect to the groove information GFM, and outputs the spindle error signal SPE to the servo processor 112. The required operation to be executed by the CLV processor 111 is controlled by the driver controller 46.
[0066]
The servo processor 112 performs various servo control signals (tracking control) based on the tracking error signal TE, the focus error signal FE, the spindle error signal SPE, the track jump command from the driver controller 46, the access command, etc. input as described above. Signal, focus control signal, thread control signal, spindle control signal, etc.) are generated and output to the servo driver 113.
The servo driver 113 generates a required servo drive signal based on the servo control signal supplied from the servo processor 112. The servo drive signal here includes a biaxial drive signal for driving the biaxial mechanism (two types of focus direction and tracking direction), a sled motor drive signal for driving the sled mechanism, and a spindle motor drive signal for driving the spindle motor 52. It becomes.
By supplying such a servo drive signal to the deck unit 5, focus control and tracking control for the disk 51 and CLV control for the spindle motor 52 are performed.
[0067]
When a recording operation is performed on the disc 51, for example, the recording data DATAAr is input from the data processing / system control circuit 31 of the video signal processing unit 3 to the scramble / EDC encoding circuit 115. . The user recording data DATAr is input in synchronization with a transfer clock (data transfer rate) generated by the transfer clock generation circuit 121, for example.
[0068]
In the scramble / EDC encode circuit 115, for example, the recording data DATAAr is written and expanded in the buffer memory 42, and data scramble processing and EDC encoding processing (error detection code addition processing by a predetermined method) are performed. After this processing, for example, the ECC processing circuit 116 adds an RS-PC error correction code to the recording data DATAAr developed in the buffer memory 42.
The recording data DATAr that has been processed so far is read from the buffer memory 42 and supplied to the RLL (1, 7) modulation circuit 118 via the data bus 114.
[0069]
The RLL (1, 7) modulation circuit 118 performs RLL (1, 7) modulation processing on the input recording data DATAAr, and outputs the recording data as the RLL (1, 7) code string to the magnetic head driving circuit 119. To do.
[0070]
By the way, in the MD-DATA2 format, a so-called laser strobe magnetic field modulation method is adopted as a recording method for the disk. The laser strobe magnetic field modulation method is a recording method in which a magnetic field modulated by recording data is applied to a disk recording surface, and laser light to be irradiated onto the disk is pulsed in synchronization with the recording data.
In such a laser strobe magnetic field modulation method, the formation process of the pit edge recorded on the disc does not depend on the transient characteristics such as the magnetic field reversal speed and is determined by the irradiation timing of the laser pulse.
Therefore, for example, compared with a simple magnetic field modulation method (a method in which a laser beam is constantly irradiated onto a disk and a magnetic field modulated by recording data is applied to a disk recording surface), a laser strobe magnetic field modulation method is used. In this case, it is possible to easily reduce the jitter of the recording pit. That is, the laser strobe magnetic field modulation method is an advantageous recording method for high density recording.
[0071]
The magnetic head drive circuit 119 of the media drive unit 4 operates so that a magnetic field modulated by the input recording data is applied from the magnetic head 54 to the disk 51. Further, a clock synchronized with the recording data is output from the RLL (1, 7) modulation circuit 118 to the laser driver 120. Based on the input clock, the laser driver 120 drives the laser diode of the optical head 53 so that a laser pulse synchronized with recording data generated as a magnetic field by the magnetic head 54 is irradiated to the disk. . At this time, the laser pulse emitted from the laser diode is based on the required laser power suitable for recording. In this way, the recording operation as the laser strobe magnetic field modulation method is enabled by the media drive unit 4 of this example.
[0072]
5. Example of disk structure corresponding to this embodiment
Next, a structural example of the disk 51 corresponding to this embodiment will be described.
FIG. 7 conceptually shows a structural example of the disk 51 corresponding to the present embodiment. The physical format of the disk 51 shown in this figure is as described above with reference to FIGS.
[0073]
In the disk 51, for example, PTOC and RTOC areas are provided as management information areas. In the PTOC, for example, in the pre-mastered area (pit area) on the innermost periphery of the disc, necessary management information is recorded according to the pit form. The contents of this PTOC cannot be rewritten.
For example, a magneto-optical recording area in which magneto-optical recording / reproduction is possible is formed on the outer periphery of the pre-mastered area where the PTOC is recorded. First, the RTOC region is provided for a section of a predetermined size in the innermost circumference. In this RTOC, for example, basic information necessary for managing data recorded on a disc is recorded.
For example, in the case of this example, tracks (which may be synonymous with files) and folders (a structure for grouping and managing tracks), which will be described later, are managed as data recorded on the disc at the time of recording and reproduction. Information for storing is stored.
Note that the contents of the U-TOC in the management area are sequentially rewritten in accordance with, for example, data recording results to date and editing processing results such as deletion of tracks (files) and folders.
[0074]
A data area for recording user data is provided on the outer peripheral side of the RTOC. In the present embodiment, this data area is managed as a volume folder (Volume Folder) placed in one root folder. In the present embodiment, a volume is defined as a complete set of user data, and is defined as having only one volume on one disk. The data contained in this volume is stored as folders and tracks below the volume folder, except for data managed by the PTOC and RTOC.
[0075]
In the volume folder, first, a volume index track (Volume Index Track) of a predetermined size (for example, 12 clusters) is placed at a physically innermost position (management track priority area near the RTOC).
For example, if the PTOC and RTOC are the main management information, the volume index track is defined as an area in which the sub management information is recorded. The track index file is a track (file), a folder, and auxiliary data (Auxiliary Data). And a table in which information for managing the property, title, and packet data forming the track is recorded.
[0076]
In addition, as a track recorded so that at least the first cluster is located in the management track priority area near the RTOC, a thumbnail track (Thumbnail
Picture Track) can be placed as an option.
In the present embodiment, it is possible to have one still image with a predetermined resolution as a thumbnail image in association with each file recorded on the disc. The thumbnail image is handled as a representative image for making the file visually recognizable.
The thumbnail track is recorded with index information indicating the association with the file (track) recorded on the disc and the storage position of the thumbnail image. The data length of the thumbnail track can be arbitrarily expanded according to the number of thumbnail images stored.
[0077]
For example, image / sound data recorded by a user by shooting or the like is managed in units of files, and is placed in a volume folder as a track under a volume folder or in a folder under a volume folder. become.
FIG. 7 shows a state in which a certain file is expressed as one track and this track is stored in a certain folder. As described above, the folder is a structure for managing tracks or folders in a group.
Therefore, in the structure below the volume folder, an arbitrary number of tracks or folders are stored within a range defined by the maximum number of items that can be stored in the volume folder and the maximum number of levels of the hierarchical structure of the folder.
[0078]
In the volume folder, an auxiliary data track (Auxiliary Data Track) storing auxiliary data (Auxiliary Data) is arranged.
The information to be stored in the auxiliary data track is arbitrary depending on, for example, the application that is actually applied.
In the present embodiment, script information as reproduction control information is stored.
[0079]
By the way, the information stored in the PTOC, RTOC, or even the volume index track, which is the above-described management information (these information are collectively referred to as “management information” in the present embodiment) is, for example, When the disc is loaded, it is read out and held in a predetermined area of the buffer memory 42 (or buffer memory 32) of the media drive unit 4, for example. At the time of data recording and editing, the management information held in the buffer memory is rewritten according to the recording result and the editing result, and then the buffer memory is stored at a predetermined opportunity and timing. Based on the contents of the held management information, the management information of the disk 51 is rewritten (updated) (however, the PTOC is not updated).
[0080]
It should be noted that the example of the disk structure shown in this figure is merely an example, and the physical positional relationship of each area on the disk may be changed according to actual use conditions and the structure for storing data. It can be changed.
[0081]
6). Thumbnail image generation processing
The thumbnail images stored in the thumbnail track shown in FIG. 7 can be generated by the video camera of the present embodiment. Here, the thumbnail image generation processing will be described. Here, a case where a thumbnail image for an image file once recorded on the disc is generated will be described.
[0082]
As described above, for example, the management information (PTOC, RTOC, volume index track) recorded on the disk 51 is read at a predetermined timing such as when the disk is loaded, and stored in the buffer memory 42 (or the buffer memory 32). It is assumed that they are stored.
[0083]
Then, the driver controller 46 refers to the management information stored in the buffer memory 42, for example, on the disk on which the image data designated as the thumbnail image is recorded for the file from which the thumbnail image is to be generated. The image data as the thumbnail image generation source is obtained by accessing the address and causing the disk to perform a read operation.
The image data is sequentially transmitted from the media drive unit 4 to the video signal processing unit 3 and supplied to the data processing / system control circuit 31.
Note that the image data defined as the thumbnail image generation source by the management information is, for example, the first frame (or field) image data in the file, unless otherwise specified.
[0084]
Then, the data processing / system control circuit 31 first controls the MPEG2 video signal processing circuit 33 to perform the expansion processing according to the MPEG2 format with respect to the supplied screen data to the level of the image data in the field image unit. The decoded data is acquired.
[0085]
For example, in the stage of the image data decoded to the level of the field image unit, the data is usually data having an image size (number of pixels) that can be displayed almost at full size on the display screen.
Therefore, after the full-size image data in the field image unit is obtained, the full-size image data is reduced so that the actually required thumbnail image size is obtained. It will be.
In order to reduce the image size, for example, the original full-size image data is sampled at appropriate timing with respect to the pixel data, and the signal is used to reconstruct the image data based on the sampled pixel data. What is necessary is just to perform a process.
[0086]
Then, for example, the video controller 38 generates index information (described with reference to FIG. 7) for the thumbnail image data obtained in this way, and records the thumbnail image data together with the index information on the thumbnail track of the disc. Execute control.
In this way, thumbnail image data corresponding to each file is obtained and recorded on the disc.
[0087]
In this embodiment, as can be understood from the above description, in addition to image data (including audio data), audio data based only on audio, and character information data can be recorded as a file. For example, when there is no image data as a thumbnail image generation source in the file, such as voice data and character information data, for example, it can be visually recognized in advance as voice data or character information data. Image data of such a pattern is prepared (for example, stored in the ROM of the video controller 38 or stored in a predetermined area of the disk), and this image data is used as a thumbnail image. This is what you should do.
[0088]
7. script
Further, in the present embodiment, editing processing such as designation of reproduction order and giving a required special effect at the time of reproduction can be performed on a file (mainly a recorded file) recorded by the video camera.
In performing the editing as described above, in this embodiment, a script as reproduction control information capable of giving a required reproduction output mode for a recorded file is prepared. By interpreting the script, a reproduction output mode (for example, reproduction order) corresponding to the editing result is obtained. In the editing stage, the editing process is executed by updating the contents of the script. The “script” here refers to a procedure writing structure described in a predetermined program language for reproducing and outputting moving image data, still image data, audio data, and document data at the same time. It is supposed to be.
[0089]
First of all, a script used as reproduction control information in this embodiment will be schematically described.
[0090]
In this embodiment, SMIL (Synchronized Multimedia Integration Language) is adopted as a script.
SMIL is a language that is standardized by W3C (Internet standardization organization) to realize, for example, television program broadcasts and presentations on the Internet, and is based on the grammar of XML (superset of HTML). It is intended to realize time-series presentations.
[0091]
First, scheduling is expressed by two tags <seq> and <par>.
<Seq> means “sequential”, that is, serial, and information surrounded by the tags is reproduced in time order.
<Par> means parallel, that is, parallel, and the information enclosed by the tags is reproduced synchronously.
[0092]
Here, for example, in the file recorded on the disc, when it is specified that the image data files represented as video1, video2, and video3 are reproduced in the order of video1 → video2 → video3,
Figure 0003982072
The description is as follows.
[0093]
Also, when the file video1 → video2 → video3 is reproduced in the order, and the audio1 audio1 file is desired to be simultaneously reproduced as an after-record track for the video1,
Figure 0003982072
The description is performed as follows.
[0094]
Also, a description is provided for designating that a file to be reproduced in synchronization with a certain file is to be reproduced from a position after a certain number of seconds after the certain file is reproduced.
For example, when a caption (for example, an image as character information) is displayed 5 seconds after a video1 image file is displayed (reproduced),
Figure 0003982072
The description is performed as follows.
[0095]
For example, if an instruction is given to display the file picture1 as a still image file for 5 seconds,
<Image src = “picture1” dur = “5s”>
It is described as follows.
[0096]
Also, so-called frame mute is used, and “range” is used when reproducing a part of a certain moving image file. For example, assuming that the standard of SMPTE (Society of Motion Picture and Television) is adopted as the time code,
<Video src = "video1" range = "smpte: 10: 07: 00-10: 007: 33">
It can be described as follows.
[0097]
In addition, “repeat” is used to designate a certain file and repeat. For example, if you want to repeat a video1 file 10 times,
<Video src = “video1” repeat = “10”>
Describe as follows.
[0098]
In this embodiment, such a script called SMIL is used so that display control for giving a required display form as a thumbnail display can be executed.
Therefore, for example, in the video camera system of the present embodiment, a subset of XML is prepared so that interpretation corresponding to this SMIL and script description (generation) can be performed. For example, this may be stored in advance in a ROM or the like in the video controller 38 as a program to be executed by the video controller 38, or may be recorded on the application layer of the disc so that it can be read out.
[0099]
In the present embodiment, such a script is generated or updated by the video controller 38 in, for example, an editing stage (or a recording operation stage) and held in a predetermined area in the buffer memory 32, for example. It is supposed to be kept.
The script held in the buffer memory 32 in this way is recorded on the disk at a predetermined opportunity or timing. The script data is stored as a script file for the auxiliary data track described with reference to FIG. Since the script is recorded on the disk in this way, the next time the disk is newly loaded, the script recorded on the disk is read and stored in, for example, the buffer memory 32 and referenced. Thus, editing and reproduction can be performed in accordance with the reproduction order obtained by the previous editing.
[0100]
8). Thumbnail display
The video camera of this embodiment performs so-called thumbnail display in which thumbnail images corresponding to each file recorded on the disc are presented when searching for files recorded on the disc and performing various editing processes. This thumbnail display is used as a so-called GUI as an operation screen for recording / playback and editing operations. Therefore, a basic display form example of thumbnail display in the present embodiment will be described with reference to FIG.
[0101]
Note that the files handled in the following description are assumed to be recorded files for convenience of explanation. As described above, the recording file is a moving image file obtained by recording an image captured by the video camera, and can also include a sound collected by a microphone.
[0102]
For example, when the main dial 300 is operated from the power-off state to the on-state by operating the main dial 300 in a state where a disk with recorded files is loaded in the video camera device of the present embodiment, for example, the display on the display unit 6A For the screen, the thumbnail display shown in FIG. 8 is performed as an initial screen.
[0103]
In the thumbnail display shown in this figure, thumbnail images of up to 12 files can be displayed. Here, thumbnail images 401, 401... Are displayed in the display area of the thumbnail images of 12 files. The state is shown.
[0104]
Here, the numerical values (1) to (12) shown in each thumbnail image 401 indicate the file reproduction order specified by the script described above. That is, in the present embodiment, thumbnail images are displayed in a predetermined arrangement order according to the file reproduction order specified by the script.
[0105]
The thumbnail image generation processing is as described above, and image processing for thumbnail display using the generated thumbnail image data and control for realizing this will be described later. For example, a moving image file can be obtained by forming a representative image in the moving image as a reduced still image.
Therefore, by viewing the thumbnail display of the present embodiment as shown in FIG. 8, the user can visually recognize the contents of the files recorded on the disc, and the playback order of these files can also be determined. It is possible to grasp visually.
[0106]
In this thumbnail display, a pointer 402 for designating one thumbnail image is displayed. The pointer 402 is displayed so as to sequentially move adjacent thumbnail images 401 in a direction in accordance with an operation performed on the cross key 310, for example. Note that the search key 308, 309 may be used to allow the pointer 402 to move between thumbnail images according to the playback order.
[0107]
In this case, the pointer 402 selects and designates a file serving as a base point of the reproduction or recording start position.
For example, regarding playback, the user operates the playback key 306 after performing an operation for placing the pointer 402 on the thumbnail image corresponding to the desired file by operating the cross key 310 or the like. To be. As a result, the video camera starts playback of the file corresponding to the thumbnail image on which the pointer 402 was placed when the playback key 306 was operated.
In addition, after the file reproduction is started as described above, the file is sequentially reproduced according to the file reproduction order designated by the script until an operation for stopping the reproduction is performed. Specifically, if the reproduction order (7) shown in FIG. 8 is selected and reproduction is started, then the file reproduction is performed in the order of reproduction order (8) (9) (10). Will be done.
Further, if the post-recording track is managed so as to accompany the file to be played back, this post-recording track is also played back synchronously according to the description content of the script.
When the file is being played back, the playback image is displayed instead of the thumbnail display shown in FIG. If playback is stopped, the thumbnail display shown in FIG. 8 may be restored.
[0108]
Here, an example of description contents of a script for realizing the thumbnail display shown in FIG. 8 is shown below. As described above, the arrangement order of the thumbnail images in the thumbnail display is based on the reproduction order described by the script. Therefore, the script shown below is a script indicating the playback order of the 12 files corresponding to the thumbnail images shown in FIG.
Here, if the file names of the recording files corresponding to the playback order of (1) to (12) shown as thumbnail images in FIG. 8 are Video1 to Video12, the contents of the script are as follows:
Figure 0003982072
It will be described as follows.
[0109]
9. Thumbnail display of this embodiment
Based on the basic thumbnail display example shown in FIG. 8 described above, the thumbnail display that is a feature of the present embodiment will be described below.
[0110]
For example, in the thumbnail display shown in FIG. 8, five recording files corresponding to the thumbnail images 401 in the playback order (3) to (7) are, for example, commemorative photographs taken at some sightseeing spots, etc. It is assumed that the contents have a certain specific meaning.
In the present embodiment, such a plurality of thumbnail images 401 that are consecutive in the reproduction order can be collectively managed as a “group”. For example, the operation is performed as follows. .
[0111]
Under the state where the thumbnail display shown in FIG. 8 is being performed, the user first designates, for example, the first thumbnail image 401 in the playback order among the thumbnail images 401 belonging to the group. In this case, the thumbnail image 401 is in the playback order (3). For this purpose, for example, the user operates the cross / click key 310 to place the pointer 402 on the thumbnail image 401 in the reproduction order (3), and in this state, click operation (the center of the cross / click key 310). A pressing operation on the part). As a result, the top thumbnail image is designated in the playback order in the group.
Subsequently, the last thumbnail image in the reproduction order is designated by the same operation. That is, in this case, a click operation is performed on the thumbnail images 401 in the reproduction order (7).
[0112]
Through the operations so far, a plurality of thumbnail images to be grouped are specified. That is, by designating the first (reproduction order (3)) and last (reproduction order (7)) thumbnail images 401 in one group, five thumbnail images 401 in the reproduction orders (3) to (7) are grouped into one group. It will be specified that it should be treated.
[0113]
As the operation for specifying the first and last thumbnail images in one group, it is only necessary to specify these two thumbnail images as a result. Therefore, the last thumbnail image is specified first, followed by the first thumbnail image. You may specify an image.
In the following, for example, placing a pointer at a position to be clicked, such as a thumbnail image, and performing the click operation in this state is simply expressed as a “click operation for-”. We will use it.
[0114]
When the operation as described above is performed, the thumbnail display shown in FIG. 8 is changed, for example, as shown in any one of FIGS. 9A and 9B. Here, illustration of display contents in each thumbnail image 401 is omitted, and only the playback order is shown in the display frame of each thumbnail image 401 for convenience.
For example, in the case of the display shown in FIG. 9A, five thumbnail images 401 in the playback order (3) to (7) are displayed so as to be bundled together by a group frame, and thus displayed. It is visually shown that the thumbnail image (recorded file) belongs to one group. In other words, in the thumbnail display shown in this figure, group 1 is expanded and displayed in a form in which a plurality of thumbnail images included in the group 1 directory are presented.
[0115]
For this group, for example, a group tab 403 representing the group name is also displayed in the form shown in the figure, for example.
Here, the characters “Group 1” are displayed as the group name in the group tab 403. For example, in practice, an arbitrary group name can be input by a predetermined character input operation by the user. The group name thus displayed may be displayed on the group tab 403.
[0116]
For example, if the user performs a click operation on the group tab 403 shown in FIG. 9A, the thumbnail display is changed as shown in FIG. 9B, for example.
That is, of the five thumbnail images 401 (reproduction order (3) to (7)) belonging to “Group 1” that have been expanded and displayed as shown in FIG. The thumbnail images 401 in the playback order (4) to (7), which are the playback order, are no longer displayed, and as the group 1, only the thumbnail image 401 in the playback order (3) which is the head in the group 1 is displayed. Will be.
In this case, the group frame 404 is set so as to surround only the thumbnail image 401 in the reproduction order (3), and display is performed such that the group tab 403 is attached to the group frame 404.
[0117]
That is, the group display in FIG. 9B can be regarded as a display form in which group 1 is grouped. In this case, the thumbnail image 401 in the reproduction order (3) at the top is displayed, so that the thumbnail image in the reproduction order (3) is treated as a representative image of the group 1, and other reproduction orders ( The thumbnail images 4) to 7) are potentially handled as being stored in the thumbnail image display in the reproduction order (3) as the group 1.
Hereinafter, the group display as shown in FIG. 9A is also referred to as “expanded display”, and the group display as shown in FIG. 9B is also referred to as “closed display”.
[0118]
In the group display in the form shown in FIGS. 9A and 9B, the thumbnail images (recording files) belonging to group 1 are compared with the hierarchy in which thumbnail images (recording files) other than group 1 exist. It will be treated as existing in the hierarchy one level lower than this.
[0119]
Here, the thumbnail images in the playback order subsequent to the group 1 are the thumbnail images 401 in the playback order (8). For this reason, when the group 1 is closed and displayed as shown in FIG. 9B, the thumbnail image 401 in the reproduction order (8) with respect to the position where the thumbnail image in the reproduction order following the group 1 is displayed. Are displayed so that the thumbnail images 401 in the reproduction order (9) to (12) are sequentially arranged and displayed according to the reproduction order.
In practice, if there are a plurality of thumbnail images (recorded files) subsequent to the thumbnail images 401 in the playback order (12), these thumbnail images 401 are displayed at the maximum in the thumbnail display. It will be displayed in order until it reaches the possible number. In the case of FIG. 9B, an example is shown in which the thumbnail images in the reproduction order (12) to (16) are displayed after the thumbnail image 401 in the reproduction order (12).
That is, in the case of the thumbnail display shown in FIG. 9B, as many thumbnail images as possible on the thumbnail display screen where only a limited number of thumbnail images are displayed by displaying the groups together without expanding them. Recording file) can be displayed according to the playback order.
[0120]
For example, when a click operation is again performed on the group tab 403 indicating the group 1 under the display state illustrated in FIG. 9B, the display screen is returned to the display form illustrated in FIG. 9A. . That is, by performing a click operation on the group tab 403 indicating the group 1, switching between the group expanded display shown in FIG. 9A and the closed display shown in FIG. 9B is performed.
[0121]
When the display for group 1 in the thumbnail display as described above is made to correspond to the GUI of the personal computer so far, for example, the display form shown in FIG. Corresponding to the state that the files that are supposed to be in the folder are displayed so as to be visible, the display shown in FIG. 9B is displayed with the folder closed, and what the internal files are. Corresponds to a state where visual recognition is impossible.
[0122]
Here, as an example of the file reproduction operation for the thumbnail display shown in FIG. 9, the file reproduction operation corresponding to the operation for the grouped thumbnail images will be briefly described.
First, if a click operation is performed on an arbitrary thumbnail image from among the thumbnail images 401 displayed as belonging to the group 1 under the display state shown in FIG. File reproduction is performed in accordance with the reproduction order from the thumbnail image file that has been subjected to. In this respect, there is no difference from the file reproduction described with reference to FIG.
However, as for the opportunity to end playback, it is possible to play back to the last playback order file recorded on the disc unless there is a playback stop operation, as in the past. Considering that one group has a certain common meaning in terms of content, it is considered that the file reproduction operation is completed after the reproduction of the last file in the group is completed. It is done. For example, in the display state shown in FIG. 9A, when a file playback is started by performing a click operation on the thumbnail images in the playback order (5), the playback order (5) → (6) → ( Each recorded file is played back in the order of 7), and the file playback operation is finished when the playback of these recorded files is finished.
[0123]
In addition, when a click operation is performed on the thumbnail image 401 in the playback order (3) (that is, the thumbnail image of group 1) under the display state shown in FIG. 9B, a recording file in group 1 is designated. According to the playback order, playback is performed sequentially. The opportunity to end reproduction may be in accordance with the reproduction end operation described with reference to FIG.
[0124]
Note that in any of the display states shown in FIGS. 9A and 9B, when a file playback is started by clicking a thumbnail image that does not belong to the group 1, As long as the playback stop operation is not performed without finishing the playback, the last playback order file recorded on the disc may be played back. For example, if playback is performed from a recording file in playback order (1), the playback order is (1) → (2) → (3) → (4) → (5) → (6) → (7) → (8) → (9) → (10) → (11) → (12)...
[0125]
Although not shown in FIGS. 9A and 9B, other groups may exist on the same thumbnail display image so as to be arranged in parallel with the group 1 in a hierarchical manner. That is, under the display state shown in FIG. 9A or FIG. 9B, for example, a group in the closed state is displayed at the position where the thumbnail images in the playback order (1) are displayed, Alternatively, a group of two thumbnail images may be expanded and displayed at the position where the thumbnail images in the playback order (1) → (2) are displayed. It is possible.
[0126]
In the present embodiment, the thumbnail display corresponding to the grouping as shown in FIGS. 9A and 9B is also performed according to the description of the script. For this purpose, description content indicating that a plurality of thumbnail images (recorded files) specified by the above-described specifying operation are grouped may be added to the script specifying the playback order. As a description example of such a script specifying grouping, the description content corresponding to FIG. 9 is as follows. Here, for the sake of convenience, a case is described in which recorded files in the playback order (1) to (12) are described.
Figure 0003982072
As can be seen from the above description, <group> is defined as a tag indicating a recording file belonging to one group. In this case, <videoosrc = “video3”> to <video src = “video7” By enclosing the files up to> with tags <group>, </ group>, the thumbnail images (recorded files) in the playback order (4) to (7) are represented as belonging to one group.
[0127]
Further, in this embodiment, switching between whether the group is expanded or closed is not described by a script, but display control of the video controller 38 corresponding to a click operation on the group tab 403 is performed. (This will be described later).
[0128]
In the thumbnail display including grouping shown in FIG. 9 above, the display form in the case where one layer grouping is performed with respect to the original thumbnail display is shown. It is also possible to manage such that there exists another group, that is, it is possible to manage such that the group has a multi-level structure.
FIG. 10 shows a display example of thumbnail display in the case of having the hierarchical structure as described above.
In this case, in FIG. 10A, among thumbnail images in the reproduction order (1) to (12), thumbnail images in the reproduction order (3) to (7) are treated as group 1 and displayed in an expanded manner. This is the same as the display mode shown in FIG. However, here, a display indicating that the thumbnail images 401 as the playback order (7) are grouped in the directory of the group 1 is performed. That is, within the frame surrounded by the group frame 404 indicating that it belongs to the group 1, the thumbnail image 401 in the playback order (7) is further displayed in the frame by the group frame 404, and then the group name is displayed. Is displayed with a group tag 403 indicating that “group 2” is attached.
In this case, the group 2 indicated by the thumbnail image 401 in the playback order (7) is in a closed display state, and the thumbnail image 401 displayed as the playback order (7) here is the top. This shows that a plurality of thumbnail images (recorded files) are potentially stored.
[0129]
When a click operation is performed on the group tab 403 of group 2 shown in FIG. 10A, the thumbnail display is as shown in FIG. 10B, for example. That is, a display state in which group 2 is further expanded in the directory of group 1 that has already been expanded under the display of FIG. 10A is obtained. In this state, each thumbnail image indicates that group 2 is grouped according to (7) → (7-1) → (7-2) as the playback order in group 2. In this case, since the two thumbnail images of the reproduction orders (7-1) and (7-2) are additionally displayed, the reproduction order (11) shown in FIG. The thumbnail images of () and (12) are removed from the thumbnail display page so that the thumbnail images in the playback order (10) are displayed at the position of the last playback order on the thumbnail display page. It becomes a state.
[0130]
If the recorded files corresponding to the thumbnail images presented in FIGS. 9A and 9B are reproduced from, for example, the recorded files in the reproduction order (1), the reproduction order is (1) → (2 ) → (3) → (4) → (5) → (6) → (7) → (7-1) → (7-2) → (8) → (9) → (10). Thus, file playback is performed.
[0131]
Management is performed so that a group further exists in a directory of a certain group as described above, and when this is displayed as shown in FIG. Become.
For example, as a script for specifying the grouping shown in FIG. 10 together with the playback order,
Figure 0003982072
It can be described as follows. In other words, the video source (recorded file) included in the group 1 is expressed by the tag <group1>, and further, in the script line enclosed by the tags <group1> and </ group1>, <group2>, </ A recording file included in the group 2 is expressed by a tag of group2>. The basic playback order in this case is specified by the script line (video source description order) expressed by <seq> when the tags <group1> and </ group2> are ignored.
[0132]
Here, the thumbnail display as the present embodiment shown in FIG. 9 or 10 will be compared with the thumbnail display shown in FIG.
The thumbnail display shown in FIG. 13 shows an example of a display form assumed when it is assumed that the thumbnail display of the recording file is realized by applying the GUI form of the personal computer.
[0133]
In FIG. 13, as in the case of FIGS. 9 and 10, it is assumed that the five files in the playback order (3) to (7) are already set as a group 1, The case where this group 1 is expanded and displayed is shown.
In this case, the window WD as the group 1 is displayed, and the thumbnail images 401 in the reproduction order (3) to (7) are displayed in the window WD.
Further, here, a directory migration button 405 for migrating to a parent directory is displayed, and when a click operation is performed on the directory migration button 405 in this display state, a directory at a level one level higher than this is displayed. Is also done. For example, in some cases, a thumbnail display similar to FIG. 9B may be performed, and when this group 1 belongs under the hierarchy of another group, its parent group is shown in FIG. As in the group 1 shown, the expanded display is performed by the window WD.
[0134]
In the case of thumbnail display as shown in FIG. 13, it is difficult to grasp the connection relationship between the directory of group 1 and the parent or child directory adjacent thereto.
In other words, although the playback order of the recorded files in the directory of group 1 can be at least visually recognized, for example, as a relationship to the directory above group 1, it is played back before the first recorded file of group 1 The relationship with the recording file to be recorded and the relationship with the recording file to be reproduced after the last recording file of group 1 cannot be grasped at a glance from the screen shown in FIG. That is, it is difficult to recognize the entire recorded file by looking over the playback order.
Similarly, if there is a group (for example, group 2) in which a plurality of thumbnail images are further grouped in the directory of group 1, for example, if this group 2 is expanded, the expanded display of group 1 shown in FIG. Since the group 2 windows are displayed in parallel (or independently), it is difficult to grasp the playback order of the recorded files between the group 1 and the group 2.
[0135]
On the other hand, in the thumbnail display as the present embodiment shown in FIG. 9 or FIG. 10, when a group is expanded and displayed, the playback order within a group and the files or files before and after the group are displayed. The playback order with the group is indicated. When a certain group is displayed in a closed state, the playback order of this group and the files or groups before and after the group is shown.
That is, as the thumbnail display of the present embodiment, the group directory structure is always presented within the framework of the playback order, and either the expanded display or the closed display is performed for a certain group. In any case, it is possible to visually grasp the relationship between the playback order of a certain group and the recording files or groups before and after that group.
In other words, for example, even if the concept of the parent-child relationship of directories necessary for operating the personal computer GUI as shown in FIG. It can be easily recognized on one screen. As a result, even a user unfamiliar with the handling of personal computers, for example, can naturally understand the hierarchical structure of the directory by grouping and perform operations on thumbnail images without any particular confusion. is there.
[0136]
Next, the processing operation for realizing the thumbnail display as the present embodiment will be described with reference to the flowcharts of FIGS. Note that the processing operation shown in this figure is realized, for example, when the video controller 38 functions as a master controller and the driver controller 46 and the camera controller 25 execute control processing as necessary.
[0137]
The process shown in FIG. 11 mainly shows the control process according to the designation operation for grouping described above (the operation for designating the first thumbnail image and the last thumbnail image to be grouped). . In addition, at the stage where the processing shown in this figure is started, thumbnail display has already been performed on the display unit 6A, and a group setting mode for performing grouping setting by a predetermined operation on the operation unit 7 is set. It is supposed to be.
Under the group setting mode, as described above, among the plurality of thumbnail images 401 in which the playback order that the user intends to group from this is continuous, the thumbnail image 401 that is the head in the playback order, the last, A click operation on the thumbnail image 401 is performed on the thumbnail display.
[0138]
In step S101, in response to the click operation, a process for designating the first thumbnail image (recorded file) in the thumbnail image to be grouped is executed. In further subsequent step S102, the first thumbnail image in the thumbnail image to be grouped is executed. The process for designating the thumbnail image is executed.
As described above, the thumbnail image for group designation can be specified by specifying the last thumbnail image after designating the first thumbnail image, or by designating the first thumbnail image after designating the last thumbnail image. Therefore, the processes in steps S101 and S102 may be executed in the order of S102 → S101.
[0139]
After executing the processing corresponding to the designation operation of the thumbnail images to be grouped in steps S101 and S102, the process proceeds to step S103.
As described above, in order to display thumbnails, it is necessary to arrange thumbnail images in accordance with the playback order. Therefore, before the processing shown in FIG. It is held in the memory 32. That is, the thumbnail display before the processing shown in this figure is started is performed by interpreting the script for designating the reproduction order read into the buffer memory 32 first.
[0140]
Therefore, in step S103, the description content of the script that specifies the playback order held in the buffer memory 32 is updated so that the thumbnail images (recorded files) specified in accordance with the specifying operation are managed as one group. To do. Specifically, the description of the script from the first thumbnail image (recorded file) designated in accordance with the designation operation to the last thumbnail image (recorded file) described above corresponding to FIG. 9 or FIG. As in the contents, the description contents are changed so as to be surrounded by tags of <group> and </ group>.
Such a script update is executed, for example, by the video controller 38 functioning as a master controller using a subset of XML.
[0141]
In subsequent step S104, thumbnail display based on the description content of the script updated in step S103 is executed. That is, the contents of the thumbnail display are updated so that the group set in accordance with the designation operation corresponding to steps S101 and S102 is expressed.
[0142]
The processing for thumbnail display in step S104 is, for example, the processing operation shown in FIG. Note that the processing for displaying thumbnails as step S104 shown in FIG. 12 is executed in response to an operation for group setting by the user as described with reference to FIG. When thumbnail display is performed for the first time after turning on, for example, also when a click operation (group expansion display / close display switching operation) is performed on the group tab 403, processing according to this figure is executed. Is done.
[0143]
In the routine shown in FIG. 12, first, in step S201, the flag F is set to F = 0, and then the process proceeds to step S201. The significance of the flag F will be described later.
[0144]
In step S202, a process for fetching (writing), for example, a script indicating the playback order currently held in the buffer memory 32 into an internal RAM is executed for future thumbnail display control.
In step S203, the video controller 38 reads the description portion of the current thumbnail image in order to analyze the description content of the current thumbnail image (recorded file) in the script read into the RAM. .
The current thumbnail image here refers to a recorded file from which the description content is read. For example, if the process from now on is the process for displaying the thumbnail shown in FIG. At the stage where the processing in step S203 is reached, the description portion of the recorded file (Video1) in the playback order (1) that is considered to be at the top as the playback order is read. That is, reading starts from the next line of <seq>. Thereafter, every time the processing of step S203 is performed by the processing described later, the description content of the next recording file is sequentially read in the playback order.
[0145]
After a required description part in the script is read by the process of step S203, the process proceeds to step S204. In step S204, it is determined whether or not the grouping process is currently being executed.
The “grouping process” here means that the process proceeds to the process of step S207, which will be described later, and finally the process of step S213 (or step S217) is in progress.
[0146]
If it is determined in step S204 that the grouping process is not currently being executed, the process proceeds to step S205.
In step S205, it is determined whether or not a <group> tag indicating the start of grouping is attached immediately before it as the script description for the current thumbnail image that is currently being read. Here, the case where a negative result is obtained means that no grouping processing is currently performed and no <group> tag is obtained, and the recorded files read in step S203 are grouped. It means that there is no separate directory (top level). Therefore, if a negative result is obtained in step S205, the process proceeds to step S206, and a control process for displaying the current thumbnail image at a required arrangement position according to the reproduction order on the thumbnail display is executed. .
For example, assuming that the process shown in FIG. 9 performs the thumbnail display shown in FIG. 9 and the process in step S206 is performed first, the position shown in FIG. The control is executed so that the thumbnail images in the reproduction order (1) are mapped and displayed in the column (1).
In this case, the image data of the thumbnail image used for displaying the thumbnail image is obtained by reading out the required thumbnail image data from the above-described thumbnail track of the disc.
[0147]
When the process of step S206 is completed, the process proceeds to step S215, and it is determined whether thumbnail image display for one page has been completed by the thumbnail image display process so far. That is, whether or not the thumbnail display images satisfying the number of thumbnail images displayed (in this case, 12) as shown in FIG. 9 or FIG. Also, it is determined whether or not all thumbnail images to be displayed have been displayed.
If it is determined that the thumbnail image display for one page has not been completed yet, the process returns to step S203 to read the next line (the next current thumbnail image (recorded file) or tag) of the script. Is executed.
[0148]
On the other hand, in step S205, an affirmative result is obtained that the <group> tag indicating the start of grouping is attached immediately before the description portion of the recording file corresponding to the current thumbnail image as the description content of the currently read script. If yes, the process proceeds to step S207.
[0149]
In step S207, grouping is started, control processing for displaying and outputting the current thumbnail image as the head of the group is executed, and the process proceeds to step S208.
[0150]
In step S208, it is determined whether or not an instruction to expand and display is given for the group whose grouping has been started in step S208. In this discrimination process, basically three situations can be considered.
In one case, the process shown in FIG. 12 is performed in response to an instruction by a click operation on the group tab 403 by the user described above. In this case, the group at the time when the click operation is performed. It depends on whether the display is an expanded display or a closed display. For example, if a click operation is performed on the group tab 403 in the expanded display state, a close display is instructed, and a negative result is obtained in step S208.
In addition, in the case of a change display in response to the grouping setting, for example, it is set in advance whether the display is expanded display or closed display (display not expanded), and the determination is performed according to the setting contents. do it.
Also, for example, when the thumbnail display is displayed for the first time, for example, when the power is turned on, whether each group was expanded or closed as the last display state in the previous stage. The information may be written to a disk or stored in a non-volatile memory (not shown) inside the video controller 38, and the determination process in step S208 may be executed using this information.
[0151]
If an affirmative result is obtained in step S208, the process proceeds to step S209, where F = 1 is set for the flag F, and then the process proceeds to step S215. That is, the flag F indicates whether or not expansion display is instructed for a group that is currently being grouped. If F = 1, expansion display is instructed, and if F = 0, Indicates that the close display is instructed.
On the other hand, if a negative result is obtained in step S208, the process proceeds directly to step S215.
[0152]
If the <group> tag is attached to the script in the playback order by executing the processing described so far, the grouping processing is executed by the processing returning from step S208 to step S209 and then returning to step S203. It will be. In this process, a positive result is obtained in step S204 described above, and the process proceeds to step S210.
[0153]
In step S210, it is determined whether or not a </ group> tag indicating that it is the last recorded file of the group is added immediately after the script description for the current recorded file (thumbnail image). To do.
If it is determined that the tag </ group> is not attached, that is, if it is determined that the current recording file is not the last file in the group, the process proceeds to step S211 and F = A determination is made as to whether or not it is 1. That is, it is determined which of the expanded / closed display is instructed for this group.
If an affirmative result is obtained in step S211, that is, if an instruction has been given to display and expand, the process proceeds to step S212, and the current thumbnail image is assigned to the group currently being grouped. Then, control for display is performed so as to be added according to the reproduction order, and the process proceeds to step S215.
By executing the processing in step S212, the thumbnail images in the group are displayed so as to be sequentially mapped according to the reproduction order. For example, as shown in FIGS. 9A and 1A. The expanded display of group 1 and the expanded display of group 2 under the expanded display of group 1 as shown in FIG. 10B are realized.
[0154]
On the other hand, if a close display is instructed for the group currently being grouped and if a negative result is obtained in step S211, the process returns to step S203 as it is. Even if a description indicating that the group is set by the script is made by this process, only the first thumbnail image in the playback order in the group is displayed and output by the process of step S207 described above. From then on, the thumbnail images in the playback order that follow in the group are skipped without being displayed and output.
By such processing, for example, a closed display such as group 2 shown in FIG. 9B is finally obtained.
[0155]
Further, it is determined that the grouping process is in progress and the tag “</ group>” is added immediately after the script description of the current recording file during the process from step S204 to step S210. In this case, the process proceeds from step S210 to step S213.
[0156]
In step S213, the grouping process that has been executed so far is terminated. Then, a control process for displaying one or more thumbnail images that have been displayed and output in the course of the grouping process so as to be presented as a group is executed. That is, the group frame 404 and the group tab 403 as shown in FIGS. 9 and 10 are added to the thumbnail images displayed in the process of grouping so far and displayed. When this process ends, the process proceeds to step S214 to clear the flag F to F = 0, and the process returns to step S215.
[0157]
If it is determined in step S215 that the thumbnail image display process for one page has been completed, the process proceeds to step S216. In step S216, it is determined whether or not the grouping process started in the previous step S207 has ended.
The state in which the grouping is not completed at the stage of reaching step S216 is not shown or described in FIGS. 9 and 10, but for example, thumbnail display so far while a certain group is expanded and displayed. Although the processing has been executed, this corresponds to the case where the display up to the last thumbnail image of a certain group has not been completed when the maximum number of thumbnail images that can be displayed in one page has been reached.
In such a case, by proceeding to step S217, the grouping processing so far is terminated, and for the time being, a display form indicating that the thumbnail images have been grouped so far is given. Execute control. That is, the thumbnail images grouped so far are surrounded by the group frame 40 and the group tab 403 is added for display.
[0158]
After the processing in step S217 has elapsed, and if it is determined in step S216 that the grouping processing has ended, the processing for displaying thumbnail images so far is ended. .
[0159]
It should be noted that the present invention is not limited to the above-described embodiment, and various changes can be made. The actual display form and the like indicating the thumbnail display and the group in the thumbnail display are actually used. It may be changed in consideration of conditions and usability.
[0160]
In the above embodiment, the image processing apparatus according to the present invention is described as being mounted on a video camera apparatus capable of recording / playback corresponding to a mini-disc. However, the present invention is not limited to this. For example, a recording / reproducing apparatus capable of recording / reproducing a file such as an image corresponding to another disk medium, a recording / reproducing apparatus corresponding to a tape medium such as a VTR (Video Tape Recorder), etc. can be applied. .
[0161]
Further, the video camera of the present embodiment is a disc recording / reproducing apparatus based on MD-DATA2 as a video recording / reproducing part. However, the video recording / reproducing part is not limited to the configuration of the present embodiment, and other parts. It may be a recording / reproducing apparatus corresponding to the type of disc-shaped recording medium.
Further, in the present embodiment, the MPEG2 system has been described for compressing moving image data. However, for example, a method capable of compressing and encoding other moving image data may be employed. Further, the compression method for still image data and audio data is not particularly limited to those exemplified as the present embodiment (JPEG, ATRAC2, etc.).
[0162]
【The invention's effect】
As described above, according to the present invention, on the thumbnail display screen, the relationship between a group in which a plurality of thumbnail images are grouped and a group or thumbnail image immediately above or below the hierarchical structure of this group is visually grasped. The display form is made possible. This allows the user to understand at a glance which level (directory) a group is on the thumbnail display, regardless of whether the group is displayed closed or expanded. become.
In other words, it is not necessary to understand the concept of returning to the parent folder as in the GUI of a personal computer, for example, and a more user-friendly environment can be provided for thumbnail display.
[0163]
In addition, under the above configuration, as thumbnail display, if thumbnail images are arranged and displayed according to the playback order of the image file, and thumbnail images in which the playback order is continuous can be grouped, The connection of the hierarchical structure corresponds to the playback order, and the expansion and closing of the group are always performed under the condition according to the “playback order”. As a result, the user can always visually grasp the playback order between groups and thumbnail images. In addition, since the reproduction order can be grasped visually, it is possible to easily perform an editing operation accompanied by a grouping operation on the assumption that the reproduction order is designated.
[Brief description of the drawings]
FIG. 1 is an explanatory diagram showing a track structure of a disc corresponding to a video camera according to an embodiment of the present invention.
FIG. 2 is an explanatory diagram showing an enlarged track portion of a disc corresponding to the video camera of the embodiment;
FIG. 3 is an explanatory diagram showing specifications of a disc corresponding to the video camera of the embodiment.
FIG. 4 is a block diagram of an internal configuration of the video camera according to the embodiment.
FIG. 5 is a block diagram of an internal configuration of a media drive unit of the video camera according to the embodiment.
FIG. 6 is a side view, a plan view, and a rear view of the video camera according to the embodiment.
FIG. 7 is a conceptual diagram showing an example of a data structure in a disc corresponding to the embodiment.
FIG. 8 is an explanatory diagram showing a basic display form example of thumbnail display in the video camera of the present embodiment.
FIG. 9 is an explanatory diagram illustrating a display form example of a thumbnail display including groups as the present embodiment;
FIG. 10 is an explanatory diagram illustrating a display form example of a thumbnail display including groups as the present embodiment;
FIG. 11 is a flowchart showing a processing operation for realizing thumbnail display including a group.
FIG. 12 is a flowchart showing a processing operation for realizing thumbnail display including a group.
FIG. 13 is an explanatory diagram showing a display form example of thumbnail display when the GUI of the personal computer is applied in the present embodiment.
[Explanation of symbols]
1 lens block, 2 camera block, 3 video signal processing unit, 4 media drive unit, 5 deck unit, 6 display / image / audio input / output unit, 6A display unit, 7 operation unit, 8 external interface, 9 power supply block, 11 Optical system, 12 motor section, 22 sample hold / AGC circuit, 23 A / D converter, 24 timing generator, 25 camera controller, 31 data processing / system control circuit, 32 buffer memory, 33 video signal processing circuit, 34 memory, 35 Motion detection circuit, 36 memory, 37 audio compression encoder / decoder, 38 video controller, 41 MD-DATA2 encoder / decoder, 42 buffer memory, 43 binarization circuit, 44 RF signal processing circuit, 45 servo circuit, 46 dry Controller, 51 Disk, 52 Spindle motor, 53 Optical head, 54 Magnetic head, 55 Thread motor, 61 Video D / A converter, 62 Display controller, 63 Composite signal processing circuit, 64 A / D converter, 65 D / A converter, 66 amplifiers, 101 RF amplifiers, 103 AGC / clamp circuit, 104 equalizer / PLL circuit, 105 Viterbi decoder, 106 RLL (1, 7) demodulation circuit, 107 matrix amplifier, 108 ADIP bandpass filter, 109 A / B track detection circuit 110 ADIP decoder, 111 CLV processor, 112 servo processor, 113 servo driver, 114 data bus, 115 scramble / EDC encoding circuit, 116 ECC processing circuit 117 Descramble / EDC decode circuit, 118 RLL (1, 7) modulation circuit, 119 Magnetic head drive circuit, 120 Laser driver, 121 Transfer clock generation circuit, 201 Camera lens, 202 microphone, 203 disk slot, 204 Viewfinder, 205 Speaker, 300 main dial, 301 release key, 304 zoom key, 305 eject key, 306 play key, 307 stop key, 308, 309 search key, 310 cross / click key, 311 jog dial, 401 thumbnail image, 402 pointer, 403 group tab , 404 group frame, Ld land, NWG non-wobbled groove, WG wobbled groove, Tr • A, Tr • B track

Claims (4)

記録媒体に記録された複数の画像データの代表画像データを上記記録媒体から読み出すとともに上記代表画像データの表示制御データを上記記録媒体から読み出す読出手段と、
上記読出手段によって読み出された上記代表画像データの表示を行う場合にグループ画像のまとめ表示か展開表示のいずれが指示されているかを判別する判別手段と、
上記判別手段によって、まとめ表示が指示されていると判別された場合には、上記表示制御データに基づいてグループ定義がされた代表画像に対してはグループに属す代表画像のうちの1の画像を表示するとともに代表画像グループに属すことを示す表示を行い、
展開表示が指示されていると判別された場合には、上記表示制御データに基づいてグループに属す代表画像を展開するようにすべて表示するとともに、上記展開表示されたグループに属す代表画像が所定の囲み枠でグループに属すことを示す表示を行う表示制御手段と
を備えていることを特徴とする画像処理装置。
Reading means for reading representative image data of a plurality of image data recorded on a recording medium from the recording medium and reading display control data of the representative image data from the recording medium;
Discrimination means for discriminating whether group image summary display or expanded display is instructed when the representative image data read by the readout means is displayed;
If it is determined by the determining means that the summary display is instructed, one image of representative images belonging to the group is selected for the representative image that is group-defined based on the display control data. And display that it belongs to the representative image group,
When it is determined that the expanded display is instructed, all the representative images belonging to the group are displayed based on the display control data so as to be expanded, and the representative images belonging to the expanded and displayed group are predetermined. An image processing apparatus comprising: display control means for performing display indicating belonging to a group with a surrounding frame .
上記表示制御手段は、上記グループを第1の階層構造内に第2の階層のグループをさらに構成可能で、上記第1の階層のグループを示す囲み枠表示と、上記第2の階層のグループを示す囲み枠表示とは異なるように表示制御することを特徴とする請求項1に記載の画像処理装置。The display control means can further constitute the group of the second hierarchy in the first hierarchical structure, the box display indicating the group of the first hierarchy, and the group of the second hierarchy. The image processing apparatus according to claim 1 , wherein display control is performed so as to be different from the frame display shown . 記録媒体に記録された複数の画像データの代表画像データを上記記録媒体から読み出すとともに上記代表画像データの表示制御データを上記記録媒体から読み出し、Reading representative image data of a plurality of image data recorded on the recording medium from the recording medium and reading display control data of the representative image data from the recording medium,
上記代表画像データの表示を行う場合にグループ画像のまとめ表示か展開表示のいずれが指示されているかを判別し、When displaying the representative image data, it is determined whether a group image summary display or an expanded display is instructed,
まとめ表示が指示されている場合には、上記表示制御データに基づいてグループ定義がされた代表画像に対してはグループに属す代表画像のうちの1の画像を表示するとともに代表画像グループに属すことを示す表示を行い、When a summary display is instructed, one of the representative images belonging to the group is displayed for the representative image defined as a group based on the display control data and belongs to the representative image group. Is displayed,
展開表示が指示されている場合には、上記表示制御データに基づいてグループに属す代表画像を展開するようにすべて表示するとともに、上記展開表示されたグループに属す代表画像が所定の囲み枠でグループに属すことを示す表示を行うWhen expanded display is instructed, all the representative images belonging to the group are displayed based on the display control data so as to be expanded, and the representative images belonging to the expanded and displayed group are grouped in a predetermined enclosing frame. To show that it belongs to
画像の表示方法。How to display the image.
上記グループには第1の階層構造内に第2の階層のグループをさらに構成可能で、上記第1の階層のグループを示す囲み枠表示と、上記第2の階層のグループを示す囲み枠表示とは異なる第3項記載の表示方法。The group can further comprise a second layer group in the first hierarchical structure, and a box display indicating the first layer group, and a frame display indicating the second layer group, The display method according to item 3, which is different.
JP20923498A 1998-07-24 1998-07-24 Image processing apparatus and display method Expired - Lifetime JP3982072B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP20923498A JP3982072B2 (en) 1998-07-24 1998-07-24 Image processing apparatus and display method

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP20923498A JP3982072B2 (en) 1998-07-24 1998-07-24 Image processing apparatus and display method

Publications (3)

Publication Number Publication Date
JP2000041209A JP2000041209A (en) 2000-02-08
JP2000041209A5 JP2000041209A5 (en) 2005-09-02
JP3982072B2 true JP3982072B2 (en) 2007-09-26

Family

ID=16569587

Family Applications (1)

Application Number Title Priority Date Filing Date
JP20923498A Expired - Lifetime JP3982072B2 (en) 1998-07-24 1998-07-24 Image processing apparatus and display method

Country Status (1)

Country Link
JP (1) JP3982072B2 (en)

Families Citing this family (25)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
EP1130911B1 (en) * 2000-02-29 2004-08-18 Sony Service Centre (Europe) N.V. Interactive digital television system and method of grouping data objects
JP2001285779A (en) * 2000-03-29 2001-10-12 Minolta Co Ltd Digital camera, image preserving method, image reproducing method, image reproducing device and recording medium
JP4325075B2 (en) 2000-04-21 2009-09-02 ソニー株式会社 Data object management device
JP3696498B2 (en) * 2000-11-24 2005-09-21 パイオニア株式会社 Information editing device
EP1209684A3 (en) 2000-11-24 2003-08-13 Pioneer Corporation Information displaying/reproducing device, information editing device and information recording device
JP4603778B2 (en) 2003-06-20 2010-12-22 キヤノン株式会社 Image display method and image display apparatus
JP4144507B2 (en) 2003-10-30 2008-09-03 ソニー株式会社 Information processing apparatus, information processing method, and computer program
JP2006072736A (en) 2004-09-02 2006-03-16 Canon Inc Information processing apparatus and method, program, and storage medium
JP2006074517A (en) 2004-09-02 2006-03-16 Sony Corp Recording and reproducing apparatus and recording and reproducing method
JP2006148731A (en) 2004-11-24 2006-06-08 Sony Corp Recording apparatus and method, reproducing apparatus and method, program, and recording medium
KR101113234B1 (en) * 2004-12-27 2012-02-20 삼성전자주식회사 Image display method for image processing device
JP2007066005A (en) * 2005-08-31 2007-03-15 Sony Corp Image processing device, method and program
JP2007095217A (en) * 2005-09-29 2007-04-12 Toshiba Corp Recording and reproducing apparatus
US7664743B2 (en) 2006-04-20 2010-02-16 Seiko Epson Corporation Data processing unit
JP4861123B2 (en) * 2006-10-25 2012-01-25 オリンパスイメージング株式会社 Image management apparatus, camera, image management method, program
JP4759498B2 (en) * 2006-11-30 2011-08-31 オリンパスイメージング株式会社 Camera, image recording method and program
JP4306731B2 (en) * 2007-01-17 2009-08-05 ソニー株式会社 Image display control device, image display control method, and program
JP2008197932A (en) * 2007-02-13 2008-08-28 Sharp Corp Image file management device
JP4375442B2 (en) * 2007-06-04 2009-12-02 ソニー株式会社 Image management apparatus, image management method, and image management program
JP2008251049A (en) * 2008-07-04 2008-10-16 Hitachi Ltd Video information reproducing device
JP2010009608A (en) * 2009-07-13 2010-01-14 Sony Corp Image management device, method for managing image, and image management program
KR101113239B1 (en) * 2010-08-02 2012-02-20 삼성전자주식회사 Image display method for image processing device
JP4893852B2 (en) * 2010-11-01 2012-03-07 株式会社日立製作所 Video information playback device
JP2013219502A (en) * 2012-04-06 2013-10-24 Canon Inc Image reproduction apparatus, method, and program
JP6431161B2 (en) * 2017-11-02 2018-11-28 シャープ株式会社 Display device, display method, and program

Also Published As

Publication number Publication date
JP2000041209A (en) 2000-02-08

Similar Documents

Publication Publication Date Title
JP3982072B2 (en) Image processing apparatus and display method
JP4348821B2 (en) Editing device, editing method
US7970259B2 (en) Recording and / or reproducing apparatus and editing method
JP4269465B2 (en) Image display system and image display method
JP4178679B2 (en) Recording / reproducing apparatus and image display method
JP4820485B2 (en) Image processing device
JP2000217055A (en) Image processor
JP2000215648A (en) Recording device
JPH11339446A (en) Recording/reproducing apparatus
JP2001069387A (en) Recorder and recording method
JP4423698B2 (en) Thumbnail display device
JP3988266B2 (en) Recording / reproducing apparatus, recording / reproducing method, and recording medium
JP4385273B2 (en) Information processing apparatus and method, recording medium, and program
JP2002135709A (en) Editing device, recording and reproducing device, editing method, and recording medium
JPH11273230A (en) Recording medium, recording and reproducing device and its method
JP4114317B2 (en) Editing device
JPH11195288A (en) Editing device and disk recording medium
JPH11213524A (en) Recording and reproducing device
JPH11219525A (en) Disk shaped recording medium, recorder and reproducer
JP2000236466A (en) Recording device and reproducing device
JP4553054B2 (en) Editing device, recording / reproducing device, editing method, and recording medium
JP2000050191A (en) Editing device
JPH11205719A (en) Image processing unit
JP2003189215A (en) Recording device and recording method
JP2001203963A (en) Recording medium and recording and/or reproducing device

Legal Events

Date Code Title Description
A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20050302

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20050302

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20070313

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20070514

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20070612

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20070625

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20100713

Year of fee payment: 3

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20100713

Year of fee payment: 3

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20100713

Year of fee payment: 3

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20110713

Year of fee payment: 4

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20120713

Year of fee payment: 5

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20130713

Year of fee payment: 6

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

EXPY Cancellation because of completion of term