Nothing Special   »   [go: up one dir, main page]

JP2010245853A - 動画インデクシング方法及び動画再生装置 - Google Patents

動画インデクシング方法及び動画再生装置 Download PDF

Info

Publication number
JP2010245853A
JP2010245853A JP2009092572A JP2009092572A JP2010245853A JP 2010245853 A JP2010245853 A JP 2010245853A JP 2009092572 A JP2009092572 A JP 2009092572A JP 2009092572 A JP2009092572 A JP 2009092572A JP 2010245853 A JP2010245853 A JP 2010245853A
Authority
JP
Japan
Prior art keywords
data
moving image
scene
keyword
dictionary
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Withdrawn
Application number
JP2009092572A
Other languages
English (en)
Inventor
Kazue Hiroi
和重 廣井
Masayuki Chikamatsu
昌幸 親松
Maki Furui
眞樹 古井
Kenji Katsumata
賢治 勝又
Hidekazu Takeda
秀和 武田
Takehito Kishi
岳人 岸
Takanori Eda
隆則 江田
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Hitachi Ltd
Original Assignee
Hitachi Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Hitachi Ltd filed Critical Hitachi Ltd
Priority to JP2009092572A priority Critical patent/JP2010245853A/ja
Priority to US12/729,847 priority patent/US20100257156A1/en
Priority to CN201010159408A priority patent/CN101859586A/zh
Publication of JP2010245853A publication Critical patent/JP2010245853A/ja
Withdrawn legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G11INFORMATION STORAGE
    • G11BINFORMATION STORAGE BASED ON RELATIVE MOVEMENT BETWEEN RECORD CARRIER AND TRANSDUCER
    • G11B27/00Editing; Indexing; Addressing; Timing or synchronising; Monitoring; Measuring tape travel
    • G11B27/10Indexing; Addressing; Timing or synchronising; Measuring tape travel
    • G11B27/102Programmed access in sequence to addressed parts of tracks of operating record carriers
    • G11B27/105Programmed access in sequence to addressed parts of tracks of operating record carriers of operating discs
    • GPHYSICS
    • G11INFORMATION STORAGE
    • G11BINFORMATION STORAGE BASED ON RELATIVE MOVEMENT BETWEEN RECORD CARRIER AND TRANSDUCER
    • G11B27/00Editing; Indexing; Addressing; Timing or synchronising; Monitoring; Measuring tape travel
    • G11B27/10Indexing; Addressing; Timing or synchronising; Measuring tape travel
    • G11B27/11Indexing; Addressing; Timing or synchronising; Measuring tape travel by using information not detectable on the record carrier
    • GPHYSICS
    • G11INFORMATION STORAGE
    • G11BINFORMATION STORAGE BASED ON RELATIVE MOVEMENT BETWEEN RECORD CARRIER AND TRANSDUCER
    • G11B27/00Editing; Indexing; Addressing; Timing or synchronising; Monitoring; Measuring tape travel
    • G11B27/10Indexing; Addressing; Timing or synchronising; Measuring tape travel
    • G11B27/19Indexing; Addressing; Timing or synchronising; Measuring tape travel by using information detectable on the record carrier
    • G11B27/28Indexing; Addressing; Timing or synchronising; Measuring tape travel by using information detectable on the record carrier by using information signals recorded by the same method as the main recording
    • G11B27/32Indexing; Addressing; Timing or synchronising; Measuring tape travel by using information detectable on the record carrier by using information signals recorded by the same method as the main recording on separate auxiliary tracks of the same or an auxiliary record carrier
    • GPHYSICS
    • G11INFORMATION STORAGE
    • G11BINFORMATION STORAGE BASED ON RELATIVE MOVEMENT BETWEEN RECORD CARRIER AND TRANSDUCER
    • G11B27/00Editing; Indexing; Addressing; Timing or synchronising; Monitoring; Measuring tape travel
    • G11B27/10Indexing; Addressing; Timing or synchronising; Measuring tape travel
    • G11B27/34Indicating arrangements 

Landscapes

  • Information Retrieval, Db Structures And Fs Structures Therefor (AREA)
  • Television Signal Processing For Recording (AREA)
  • Management Or Editing Of Information On Record Carriers (AREA)
  • Processing Or Creating Images (AREA)

Abstract

【課題】ハードウェアリソースの負荷を抑えるインデクシング処理に関する装置または方法を提供する。
【解決手段】動画インデクシング方法は、動画シーンに関する文字データを入力し、動画のジャンルを判別し、判別した動画ジャンルに固有な定型句キーワード辞書と前記入力した動画シーンに関する文字データとを基に動画データのシーンに対する文字列を符号化し、提示するキーワードを規定した辞書とシーン文字列符号化データとに基づいて、動画データのシーンに対するインデクシングデータを生成する、構成とする。また、動画データに対して固有の辞書を生成し、該生成した動画固有辞書と入力した動画シーンの文字データを基に動画データのシーンに対する文字列を符号化し、該シーン文字列符号化データと生成した動画固有辞書とに基づいて、動画データのシーンに対するインデクシングデータを生成する、構成とする。
【選択図】図19

Description

本発明は、動画データのシーンにインデックスを付与するインデクシング方法、及び動画再生装置に係り、特に、動画データを記録再生可能なテレビ、レコーダ、及びPCの他、動画データにインデックスを付与して配信する動画配信サービスやインデクスを利用したシーンを選択する動画データ再生装置に関する。
地上波デジタル、BS、CS、ネット動画等、視聴可能な動画データが増加している。加えて、HDDの大容量化及び動画圧縮技術の進化により、ユーザが保有する機器への動画データ保有可能量が増えている。しかしながら、どんなに視聴可能な動画データが多くなっても、ユーザにとって視聴可能な時間自体は変わらず、限りがあるため、動画データを効率よく視聴する仕組みが必要となる。
このような仕組みを提供する技術として、例えば、非特許文献1や特許文献1で開示されているように、動画データの要約動画を生成・再生する技術が知られている。
また、特許文献2に開示されているように、動画データに付随する字幕データを保存し、ユーザから入力された文字列を字幕として含むシーンを検索して表示する技術が開示されている。
さらに、特許文献3では、動画データに付随する字幕データからキーワードを抽出し、動画データのシーンに見出しを付けることで、ユーザが所望のシーンを視聴しやすくする技術が開示されている。
さらに、特許文献4では、特に動画データとして、放送番組を対象として、その放送番組の種別を考慮して、番組情報や字幕情報に基づいて、動画データの中からユーザが所望の出演者が登場しているシーンを検索して視聴することを可能とする技術が開示されている。
特開2006−180305号公報 特開2009−4872号公報 特開2008−134825号公報 特開2008−22292号公報
D.DeMenthon, V.Kobla, and D.Doermann, Video Summarization by Curve Simplification ACM Multimedia 98, Bristol, England, pp.211-218, 1998
以上の通り、動画データを効率よく視聴する技術が開示されているが、例えば、非特許文献1及び特許文献1で開示されている技術では、動画データの映像及び音声を処理する必要があり、ハードウェアリソースに与える負荷が大きく、特に、テレビなどのコスト最適化した組込み機器では、当該技術を搭載することは困難であるという問題がある。また、本技術では、動画データの要約動画を視聴可能となるが、必ずしもユーザが望むシーンを見ることが出来るとは限らないという問題がある。
一方、特許文献2で開示されている技術では、映像及び音声を処理する必要が無く、字幕テキストデータのみを処理するため、ハードウェアリソースに与える負荷を抑えることが実現可能である。しかし、本技術では、動画データに含まれるキーワードをユーザがあらかじめ知っていないと所望のシーンを検索できないという問題がある。また、キーワードを入力する際にも、文字列を直接リモコンなどから入力する必要があり、操作が煩雑であるという問題がある。
さらに、特許文献3で開示されている技術では、動画データに付随する字幕データからキーワードを抽出し、動画データのシーンに見出しを付けることで、ユーザがキーワードを選択的に指定して、所望のシーンを視聴可能となるが、キーワードを抽出するために、形態素解析や意味解析を行う必要があり、やはりリソースに与える負荷が高くなるという問題に帰着する。
さらに、特許文献4で開示されている技術では、動画データの中からユーザが所望の出演者が登場しているシーンを検索して視聴することが可能となるが、この場合、出演者辞書を必要とするため、辞書保持に要するメモリ量が増加してしまう。また、辞書データを定期的に更新する必要があり、この更新を人手で更新するにはコストがかかる。さらに、理想的にはリアルタイムに辞書を更新する必要があるが、実質的にはこのような更新を人手で行うことは不可能であるという問題がある。
本発明は、上記の課題を解決するためになされたものであり、その目的は、ハードウェアリソースの負荷を抑えるインデクシング処理に関する装置または方法を提供する。また、作成されたインデクシングデータを用いた動画再生処理に関する装置、ユーザインタフェース、または方法を提供することを目的とする。
上述した課題の少なくとも一つを解決するために、本発明の動画インデクシング方法の一態様は、動画シーンに関する文字データを入力し、動画のジャンルを判別し、判別した動画ジャンルに固有な定型句キーワード辞書と前記入力した動画シーンに関する文字データとを基に動画データのシーンに対する文字列を符号化し、提示するキーワードを規定した辞書とシーン文字列符号化データとに基づいて、動画データのシーンに対するインデクシングデータを生成する、構成とする。
また、第二の態様では、動画データに対して固有の辞書を生成し、該生成した動画固有辞書と入力した動画シーンの文字データを基に動画データのシーンに対する文字列を符号化し、該シーン文字列符号化データと生成した動画固有辞書とに基づいて、動画データのシーンに対するインデクシングデータを生成する、構成とする。
第三の態様として、動画のジャンルに固有な定型句キーワード辞書と動画情報とを基に動画データに対して固有の辞書を生成し、生成した動画固有辞書と、定型句キーワード辞書と、動画シーンに関する文字データと、を基に動画データのシーンに対する文字列を符号化し、定型句キーワード辞書に対して提示するキーワードを規定した辞書を入力する対定型句提示キーワード辞書とシーン文字列符号化データと生成した動画固有辞書と前記入力した対定型句提示キーワード辞書とに基づいて、動画データのシーンに対するインデクシングデータを生成する、構成とする。
また、別の態様として、動画データのインデクシングデータに基づいてキーワードリストを表示装置に出力し、キーワードリストの中からユーザが選択したキーワードを入力を受け、キーワードとインデクシングデータからキーワードのシーンを取得して、該キーワードのシーンを再生する動画再生装置を構成する。
本発明により、低コストでユーザが観たいシーンのみを視聴可能とする動画インデクシング方法を提供する。また、ユーザが観たいシーンを容易に選択可能とする動画再生装置を提供可能となる。
本発明の第一の実施形態に係る動画インデクシング方法のブロック図である。 本発明の実施形態に係る動画ジャンル記述データの一例を示す図である。 本発明の第一及び第三の実施形態に係る定型句キーワード辞書のデータ構造の一例を示す図である。 本発明の第一の実施形態に係るシーン文字列符号化データのデータ構造の一例を示す図である。 本発明の第一及び第三の実施形態に係る対定型句提示キーワード辞書データのデータ構造の一例を示す図である。 本発明の第一の実施形態に係るインデクシングデータのデータ構造の一例を示す図である。 本発明の第一の実施形態に係るインデクシング方法の処理内容の一例を示すフローチャートである。 本発明の第一の実施形態に係るインデクシング方法の説明図である。 本発明の実施形態に係る動画再生装置のブロック図である。 本発明の実施形態に係る動画再生装置の処理内容の一例を示すフローチャートである。 本発明の実施形態に係る動画再生装置のキーワードリスト提示画面の一例を示す図である。 本発明の第二の実施形態に係る動画インデクシング方法のブロック図である。 本発明の第二及び第三の実施形態に係る動画情報データの一例を示す図である。 本発明の第二及び第三野実施形態に係る動画固有辞書のデータ構造の一例を示す図である。 本発明の第二の実施形態に係るシーン文字列符号化データのデータ構造の一例を示す図である。 本発明の第二の実施形態に係るインデクシングデータのデータ構造の一例を示す図である。 本発明の第二の実施形態に係るインデクシング方法の処理内容の一例を示すフローチャートである。 本発明の第三の実施形態に係るインデクシング方法の説明図である。 本発明の第三の実施形態に係る動画インデクシング方法のブロック図である。 本発明の第三の実施形態に係るシーン文字列符号化データのデータ構造の一例を示す図である。 本発明の第三の実施形態に係るインデクシングデータのデータ構造の一例を示す図である。 本発明の第三の実施形態に係るインデクシング方法の処理内容の一例を示すフローチャートである。 本発明の第三の実施形態に係るインデクシング方法の説明図である。 インデクシング方法を実現するインデクシング装置の構成の一例である。 動画再生装置の構成の一例である。
以下、本発明の第一の実施形態を図面を参照して説明する。
図1は、本発明の第一の実施形態の機能ブロック図である。
図1に示す機能ブロックは、動画シーン文字データ入力処理部101と、動画ジャンル判別処理部105と、定型句キーワード辞書入力処理部104と、シーン文字列符号化処理部102と、対定型句提示キーワード辞書入力処理部106と、シーンインデクシング処理部103と、定型句キーワード辞書107乃至108と、対定型句提示キーワード辞書109乃至110により構成される。
動画ジャンル判別処理部105は、動画データのジャンル(音楽番組、バラエティ、等)を判別する。例えば、動画データのジャンルが記述されたデータを取得して当該ジャンルを判断するか、あるいは動画データのメタデータが提供されていれば、当該メタデータを取得してジャンル情報から判断するように構成すればよい。あるいは、動画データのSI(Service Information:番組情報)情報を取得し、後述する図2に示すとおり、当該SI情報のジャンル記述セクションを参照することによって、当該動画データのジャンルを取得するように構成すればよい。
図2は、SI情報の内容200を示しており、201はジャンル記述セクションを示しているが、ジャンル記述セクション201は、SI情報200の決められた位置あるいはタグが打たれた位置に存在する。
そして、ジャンル記述セクション201には、動画データのジャンルが記述されており、例えばこのジャンル記述セクション201にバラエティを意味する数値(例えば0x60)が記述されている場合には、当該動画データのジャンルが「バラエティ」であると判断することができる。なお、例えば、動画データがテレビ番組であり、当該テレビ番組の録画データに対してインデクシングを行う場合には、例えば、録画開始時に、このSI情報を取得して動画データのジャンルを判別するように構成すれば良い。
動画ジャンル判別処理部105は、タグや所定の位置を判別し、当該ジャンル記述セクション201を取得する。
図1に戻り、動画シーン文字データ入力処理部101は、動画シーンに関する文字データを入力する。これは、例えば、動画データに付随する字幕データとPTS(Presentation Time Stamp:字幕データの表示反映時刻)を1パケットごとに取得して、すでに知られる字幕デコード技術によって、当該パケットごとの字幕データから文字列に変換して、当該変換した文字列をそのPTSとともに取得するように構成する。あるいは、動画像の1枚ごとにオーバーレイされているテロップ画像を既に知られるOCR(Optical Character Recognition:光学文字認識)技術によって認識し、その認識結果の文字列が異なった際の文字列と当該文字列のテロップが表示された時刻を取得するように構成しても良い。あるいは、すでに知られる音声認識技術によって、動画データ内の音声を認識し、しゃべられている内容を文字列化して、当該文字列とその文字列がしゃべられた時刻を取得するように構成しても良い。あるいは、動画データのシーンに関する記述を含むメタデータを入力するように構成しても良い。
定型句キーワード辞書入力処理部104は、動画ジャンル判別処理部105で判別した動画ジャンルに固有な定型句キーワード辞書を入力する。これは、例えば、ハードディスクやROMなどの記憶装置(111)あるいはネットワークを介して接続されている情報処理装置に記憶されている動画ジャンルごとの定型句キーワード辞書1(107)乃至定型句キーワード辞書N(108)から、動画ジャンルの定型句キーワード辞書を取得し、後述するシーン文字列符号化処理部102が参照できるように構成する。なお、定型句キーワード辞書のデータ構造の一例については図3に例示したが、これについては後で詳述する。
シーン文字列符号化処理部102は、前述の定型句キーワード辞書入力処理部104で入力した定型句キーワード辞書と前述した動画シーン文字データ入力処理部101で入力した動画シーン文字データを基に動画データのシーンに対する文字列を符号化する。例えば、シーン文字列符号化処理部102は、動画シーン文字データ入力処理部101で入力した1パケット分の動画シーン文字データごとに、定型句キーワード辞書入力処理部104で入力した定型句キーワード辞書107、108と照合し、当該定型句キーワード辞書に記述されたキーワードが動画シーン文字データに現れた場合に、そのパケットの動画シーン文字データのPTSとともに、そのパケットの動画シーン文字データを符号化するように構成する。さらに詳細には、例えば、シーン文字列符号化処理部102は、後で詳細に説明する定型句キーワード辞書107、108に「続いては」というキーワードを定型句符号「1」に符号化するように定型句キーワード辞書に記述されている場合、動画シーン文字データのパケットごとに「続いては」という文字列を検索し、当該文字列が見つかった場合に、シーン文字列符号化処理部102は、後で詳細に説明する図4に示すように、その動画シーン文字データのパケットのPTSとともに定型句符号「1」をシーン文字列符号化データとして記述することでシーン文字列符号化データを作成する。このとき、定型句キーワード辞書中のいずれかのキーワードが現れた場合について、シーン文字列符号化処理部102は、そのパケットすべてを符号化したシーン文字列符号化データを作成する。なお、定型句キーワード辞書中のいずれのキーワードも現れなかったパケットに対しては、必ずしもシーン文字列符号化データに含まれる必要はないが、定型句キーワード辞書に規定されていない定型句符号(例えば「0」など)を記述することで、シーン文字列符号化データに含まれるように構成しても良い。また、本シーン文字列符号化処理部102は、ある特定の文字列や記号(例えば音符マーク)、あるいは文字列の消去を示す制御コードのパケット等、動画ジャンルに無関係に使用可能な情報を、例えばそれぞれ、符号「2」、「1」、「0」などと符号化して、パケットの種別をシーン文字列符号化データに含めても良い。いずれにしても、本シーン文字列符号化処理部102は、動画データ中の動画シーン文字データのすべてのパケットに対して、定型句キーワード辞書と照合して、シーン文字列符号化データを作成する。なお、シーン文字列符号化処理部102は、作成したシーン文字列符号化データを揮発性メモリに保持し、あるいは不揮発性メモリに保持し、所定の期間経過後に削除してもよい。
対定型句提示キーワード辞書入力処理部106は、前記定型句キーワード辞書に記述された各キーワードが出ているシーンに対して提示するキーワードを規定した辞書を入力する。これは、例えば、動画ジャンル判別処理部105で判別した動画ジャンルに応じて、ハードディスクやROMなどの記憶装置(111)あるいはネットワークを介して接続されている情報処理装置に記憶されている対定型句提示キーワード辞書1(109)乃至対定型句提示キーワード辞書N(110)を取得し、後述するシーンインデクシング処理部103が参照できるように構成する。なお、対定型句提示キーワード辞書のデータ構造の一例については図5に例示したが、これについては後で詳述する。
シーンインデクシング処理部103は、シーン文字列符号化処理部102で生成したシーン文字列符号化データと前記対定型句提示キーワード辞書入力処理部106で入力した対定型句提示キーワード辞書に基づいて、動画データのシーンに対するインデクシングデータを生成する。これは、例えば、シーンインデクシング処理部103は、シーン文字列符号化処理部102で生成したシーン文字列符号化データの中から、各パケットの符号値と同じ符号値を持つキーワードを前記対定型句提示キーワード辞書入力処理部106で入力した対定型句提示キーワード辞書から探し出し、当該キーワードとシーン文字列符号化データ内の時刻情報をセットにして、インデクシングデータとして記述することで、インデクシングデータを作成する。さらに詳細には、例えば、シーンインデクシング処理部103は、後で詳細に説明する図4のシーン文字列符号化データから、定型句符号403が「1」のエントリ404を取得して、この定型句符号「1」と同じ定型句符号501を持つエントリ503を対定型句提示キーワード辞書から探し出し、キーワード502に記述されているキーワード「トピック」を取得する。続いて、シーンインデクシング処理部103は、当該定型句符号「1」を持つ時刻401の時刻「10、200」を取得して、当該キーワード「トピック」と時刻「10、200」と時刻の数を、それぞれインデクシングデータとして、それぞれキーワード601、時刻情報603、位置数602に記述する。本処理をシーン文字列符号化データ中の全定型句符号403の種類に対して行うことで、インデクシングデータを生成する。生成したインデクシングデータを、シーンインデクシング処理部103は、記憶装置111に格納する。図1では図示していないが、図24で後述する。なお、インデクシングデータのデータ構造については後で詳細に説明する。
次に、本発明の第一の実施形態で生成するデータについて詳細に説明する。
まず、定型句キーワード辞書入力処理部104で入力され、シーン文字列符号化処理部102で参照される定型句キーワード辞書のデータ構造について説明する。
前述のとおり、定型句キーワード辞書は、動画ジャンルごとに用意し、定型句キーワード辞書入力処理部104で動画ジャンルに応じた辞書が入力されるように構成する。
図3は定型句キーワード辞書のデータ構造の一例であり、特に、図3Aは、ジャンルが「ニュース」の動画に対する定型句キーワード辞書のデータ構造の一例である。また、図3Bは、ジャンルが「野球」の動画に対する定型句キーワード辞書のデータ構造の一例である。
図3において、303は定型句符号であり、302はキーワードである。また、304ないし305及び306ないし307は、固有のキーワードとそれに対応する定型句符号のエントリを示している。これにより、例えば、動画シーン文字データ入力処理部101において、「続いては」という文字列が含まれるパケットを入力したとき、シーン文字列符号化処理部102が、定型句符号「1」をシーン文字列符号化データとして生成する。なお、定型句キーワード辞書においては、キーワードについてはジャンルに対して一意とするが、定型句符号は一意とする必要はない。つまり、例えば、図3に示すとおり、「続いては」というキーワードに対して定型句符号「1」を割り当てているが、同様に「次に、」というキーワードに対しても「1」を割り当てる(つまり、定型句符号が重複する)ように辞書データを構成してもよい。
これにより、シーン文字列符号化処理部102は、「続いては」という文字列が現れる動画シーン文字データのパケットに対して「1」という定型句符号を割り当て、「次に、」という文字列が現れる動画シーン文字データのパケットに対しても「1」という定型句符号を割り当て、、後のシーンインデクシング処理部103において、どちらのパケットの時刻にも同じキーワード(後述する図5の対定型句提示キーワード辞書を使用した場合にはキーワード「トピック」)がインデクシングされるように構成できる。
次に、シーン文字列符号化処理部102で生成され、シーンインデクシング処理部103で参照されるシーン文字列符号化データのデータ構造について説明する。
図4はシーン文字列符号化データのデータ構造の一例である。
図4において、401は、動画シーン文字データの各パケットの時刻であり、各パケットのPTSとすることができる。また、402は、動画シーン文字データの各パケットに含まれるデータの種別であり、例えば、通常の文字列の場合には「1」、音符のマークを含んでいる場合には「2」、文字列の消去を示す制御コード等特定の制御コードのみを含んでいる場合には「0」等、動画ジャンルに無関係に使用可能な情報を符号化するための符号値を示す。また、403は、定型句符号を格納する領域であり、動画シーン文字データの各パケットに、定型句キーワード辞書のキーワードが含まれていた場合の符号値を格納する。具体的には、動画シーン文字データの各パケット中に定型句キーワード辞書のキーワード302が見つかった場合に、当該キーワードに対応する定型句符号303の値が入力されるように構成する。なお、定型句キーワード辞書のキーワード302が見つからなかった場合には、当該定型句キーワード辞書の定型句符号303で規定されていない値(例えば、図3の辞書の例では「0」)を入力するように構成すれば良い。さらに、404乃至411は、シーン文字列符号化データのエントリであり、動画シーン文字データの各パケットに対応する値が羅列されたエントリである。すなわち、図3の(a)及び図4の例では、エントリ404では、動画シーン文字データ入力処理部101により、時刻「10」のPTSがつけられた通常の文字列のパケットを入力し、このパケットには「続いては」という文字列が含まれていたことを示している。同様に、エントリ405、406、及び409は、それぞれ次のことを意味している。
エントリ405は、「「20」のPTSがつけられた音符マークを含むパケットを入力し、このパケットには定型句キーワード辞書で規定されているキーワードが含まれていなかった。」、ことを意味している。
エントリ406は、「「30」のPTSがつけられた通常の文字列を含むパケットを入力し、このパケットには定型句キーワード辞書で規定されているキーワードが含まれていなかった」、ことを意味している。
エントリ409は、「「150」のPTSがつけられた通常の文字列を含むパケットを入力し、このパケットには「スポーツです。」という文字列が含まれていた」、ことを意味している。
なお、シーン文字列符号化処理部102は、動画シーン文字データ入力処理部101で入力される全てのパケットに含まれるデータに対して符号化を行ってもよい。または、シーン文字列符号化処理部102は、定型句キーワード辞書のキーワードが含まれていたパケットに対してのみ符号化するようにしても良い。本シーン文字列符号化処理部102により、動画シーン文字データの文字列そのものを保持する必要がなくなるため、使用するメモリ量を著しく削減できるという利点がある。また、動画シーン文字データの文字列そのものを保持しないので、著作権保護の観点からも望ましい構成とすることができる。
次に、対定型句提示キーワード辞書入力処理部106で入力され、シーンインデクシング処理部103で参照される対定型句提示キーワード辞書のデータ構造について説明する。
前述のとおり、対定型句提示キーワード辞書は、動画ジャンルごとに用意し、対定型句提示キーワード辞書入力処理部106で動画ジャンルに応じた対定型句提示キーワード辞書が入力されるように構成する。
図5は、定型句キーワード辞書のデータ構造の一例であり、特に図5Aは、ジャンルが「ニュース」の動画に対する対定型句提示キーワード辞書のデータ構造の一例である。また、図5Bは、ジャンルが「野球」の動画に対する対定型句提示キーワード辞書のデータ構造の一例である。
図5において、501は定型句符号であり、502は提示キーワードである。また、503ないし504及び505ないし506は、対定型句提示キーワードのエントリであり、定型句符号501と当該定型句符号が見つかった際にその時刻の位置に提示されるキーワード502をセットにしたものである。これにより、例えば、動画データがニュースの場合には、対定型句提示キーワード辞書入力処理部106により、図5Aの対定型句提示キーワード辞書が入力され、動画シーン文字データ入力処理部101において、「続いては」という文字列が含まれるパケットを入力したときは、シーン文字列符号化処理部102が、定型句符号「1」と時刻「10」をシーン文字列符号化データに書き込み、シーンインデクシング処理部103が、時刻「10」の位置にキーワード「トピック」としてインデクシングデータを生成可能となる。なお、ひとつの定型句符号に複数のキーワードが対応付けられていてもよい。
次に、シーンインデクシング処理部103で生成されるインデクシングデータのデータ構造について説明する。
図6は、インデクシングデータのデータ構造の一例である。
図6において、601は、シーンのキーワードであり、対定型句提示キーワード辞書で規定されたキーワード502である。602は、キーワード601が付される位置数である。603は、キーワード601が付される位置数602分の時刻情報である。また、604乃至605は、キーワード601に対して、当該キーワードを付する位置数602と時刻情報603をセットにしたインデクシングデータのエントリである。
これは、シーンインデクシング処理部103が、シーン文字列符号化データから定型句符号403と時刻401を取得するとともに、当該定型句符号と同値の定型句符号を持つエントリの数を数えることで位置数をカウントし、当該定型句符号と同値の定型句符号501を持つキーワード502を対定型句提示キーワード辞書から取得して、当該キーワード502と、先にカウントした位置数と、それぞれの時刻とを、それぞれ601と、602と、603に記述することで生成可能となる。本インデクシングデータにより、当該インデクシングデータを参照する動画再生装置は、「トピック」や「スポーツ」等のキーワードを表示するとともに、キーワードがユーザから選ばれた場合に、そのキーワードのシーンの位置を表示あるいは再生可能となる。
次に、本発明の第一の実施形態に係る動画インデクシング方法における全体の処理の流れを説明する。
図7は、本発明の第一の実施形態に係る動画インデクシング方法における全体の処理の流れの一例を説明するフローチャートである。
まず、動画ジャンル判別処理部105により、動画データのジャンルを判別し(ステップ701)、定型句キーワード辞書入力処理部104により、ステップ701で判別した動画ジャンルに固有な定型句キーワード辞書を、記憶装置111から読み出し、入力する(ステップ702)。続いて、動画シーン文字データ入力処理部101により、動画シーンに関する文字データ(動画シーン文字データ)を1パケットずつ入力し(ステップ703)、シーン文字列符号化処理部102により、ステップ702で入力した定型句キーワード辞書を参照しながら、ステップ703で入力したパケットの動画シーン文字データを符号化することでシーン文字列符号化データを生成する(ステップ704)。
そして、ステップ703とステップ704を繰り返して、動画データにおける全てのパケットの動画シーン文字データを符号化した後(ステップ705)、対定型句提示キーワード辞書入力処理部106により、ステップ701で判別した動画ジャンルに固有な定型句キーワード辞書に対応する(すなわち、定型句キーワード辞書に対して提示するキーワードを規定した)対定型句提示キーワード辞書を入力し(ステップ706)、シーンインデクシング処理部103により、ステップ704で生成したシーン文字列符号化と、ステップ706で入力した対定型句提示キーワード辞書に基づいて、動画データのシーンに対してインデクシングを行い、インデクシングデータを生成し、記憶装置に111に格納する。
例えば、カテゴリがニュースの動画データに対し、図8に示すとおり、「続いては」という文字列811及び813が動画シーン文字データ中に現れた時刻「10」801及び「200」803の動画シーン文字データを定型句符号「1」821及び823として符号化する。また、「スポーツです。」という文字列812が動画シーン文字データ中に現れた時刻「150」802の動画シーン文字データを定型句符号「2」822として符号化するので文字列そのものを保持する場合と比べ使用メモリ量を削減することが出来る。また、動画シーン文字データ中に「続いては」という文字列811及び813が現れた位置にキーワード「トピック」851としてインデックスを付与したインデクシングデータを生成し、動画シーン文字データ中に「スポーツです。」という文字列812が現れた位置にキーワード「スポーツ」852としてインデックスを付与したインデクシングデータを生成する。
そして、後述するとおり、本インデクシングデータを読み込む再生装置において、ユーザに「トピック」851及び「スポーツ」852のキーワードを提示し、ユーザから「トピック」851というキーワードが指定された時に、時刻「10」801あるいは「200」803の位置から動画データを再生することで、「トピック」851をキーワードとするシーンから再生することが可能となる。同様に、ユーザから「スポーツ」852というキーワードが指定された時に、時刻「150」802の位置から動画データを再生することで、「スポーツ」852をキーワードとするシーンから再生することが可能となる。なお、図8において、800は時間軸をであり、801、802、及び803は、それぞれ時刻「10」、「150」、及び「200」の時間軸上の位置である。また、811、812、及び813は、それぞれ、時刻「10」801、「150」802、及び「200」803の動画シーン文字データのパケットに含まれる文字列を示し、821、822、及び823は、それぞれ、動画シーン文字データ821、822、及び823の定型句符号値を示している。さらに、831及び833は、キーワード「トピック」851のシーンを時間軸上にプロットした点を示し、832は、キーワード「スポーツ」851のシーンを時間軸上にプロットした点を示している。
以上説明した本発明の第一の実施形態の動画インデクシング方法により、ハードウェアリソースの負荷を抑え、動画データのシーンにキーワードを付すと共に、当該キーワードを提示ことにより、ユーザがキーワードを指定することで動画データの中から、観たいシーンのみを視聴可能とするインデクシングデータを生成できる。また、動画のシーンに対するキーワードを抽出するに当たり、辞書データを可能な限り小さくし、当該辞書データの保持に有するメモリ量を可能な限り削減すると共に、当該辞書データの人手による更新を不要とすることが可能となる。
次に、本発明の実施形態に係る動画再生装置を図面を参照して説明する。
図25は、本発明の実施形態に係る動画再生装置のハードウェア構成の一例である。図25は、中央処理装置2501と、動画入力装置2502と、記憶装置2503と、再生装置2504と、入力装置2505と、表示装置2506と、音声出力装置2507を有して構成される。そして、各装置は、バス2508によって接続され、各装置間で、相互にデータの送受信が可能なように構成されている。
中央処理装置2501は、マイクロプロセッサを主体に構成されており、記憶装置2503に格納されているプログラムを実行する。
動画入力装置2502は、記憶装置2503に記憶されている再生対象の動画データを入力したり、ネットワーク経由で動画データを入力する場合には、図示しないLANカード等のネットワークカードから再生対象の動画データを取得する。
記憶装置2503は、例えばランダムアクセスメモリ(RAM)やリードオンリーメモリ(ROM)、ハードディスクやDVD、CDとそれらのドライブ、あるいはフラッシュメモリ等の不揮発性メモリやiVDR等のリムーバブルハードディスク等により構成され、中央処理装置2451によって実行されるプログラムやインデクシングデータ2512等の本動画再生装置において必要となるデータ、あるいは動画データ2522等を格納する。図25では、インデクシングデータ入力プログラム2511,キーワードリスト提示プログラム2521及びキーワード入力プログラム2531が記憶装置2503に格納されていることを示している。 再生装置2504は、動画入力装置2502で入力した動画データをデコードして、表示用の映像データや、出力用の音声データを生成する装置であり、すでに公知のハードウェアあるいは中央処理装置2501内で動作するプログラムとすることが出来る。
入力装置2505は、例えばリモコン、あるいはキーボードやマウス等のポインティングデバイスによって実現され、本動画再生装置で再生する動画データを指定することで,利用者が視聴する動画データを指定したり,後述するキーワードを指定可能とする。
表示装置2506は、例えばディスプレイアダプタと液晶パネルやプロジェクタ等によって実現され、再生装置2504で再生した映像や利用者が本動画再生装置に対して操作するためのメニューあるいは後述するキーワードや走行バー等を表示する。
音声出力装置2507は、例えばサウンドカードとスピーカ等によって実現され、再生装置2504で再生した音声を出力する。
図9は、本発明の実施形態に係る動画再生装置のブロック図である。
図9を用いて本実施形態に係る動画再生装置の構成を説明する。図9では、再生対象の動画データのインデクシングデータを入力するインデクシングデータ入力処理部902と、入力したインデクシングデータに基づいて、シーンのキーワードリストをユーザに提示するキーワードリスト提示処理部903と、提示されたキーワードリストの中からユーザが選択したキーワードを入力するキーワード入力処理部904と、入力したキーワードのシーンをインデクシングデータから取得して、そのキーワードのシーンを再生するシーン再生処理部905を備える。なお、本再生装置において、動画データを再生する処理部や指定された時刻のシーンにジャンプして再生する処理部、あるいはリモコンなどのユーザからの指示を入力する処理部は、すでに備えているものとするが、これらについては通常のTVやレコーダあるいはコンピュータにおいてすでに実施されているので、これらの処理部を適用可能であり、説明を省略する。また、上記処理部は、図25で説明した中央処理装置2501が各プログラムを記憶装置2503から読み出し、メモリ(図示せず)に展開し、図9の機能ブロックを実行する。本実施の形態では、各処理部は、ソフトウェアとして構成するものとして説明するが、それぞれ個別のハードウェアとして実現しても良い。
さて、図9において、インデクシングデータ入力処理部902は、再生対象の動画データのシーンのキーワードを含むインデクシングデータを入力する。例えば、インデクシングデータ入力処理部902は、第1の実施形態で説明した動画インデクシング方法で生成したインデクシングデータを記憶装置2503あるいは図示しないネットワークデータ入力装置によりネットワーク経由で入力する。例えば、インデクシングデータ入力処理部902は、録画された動画データの場合には、本発明の動画インデクシング方法で生成したインデクシングデータを録画動画データと同じファイル名で拡張子のみを変えた形式で記憶装置2503に保存されるようにし、本インデクシングデータ入力処理部902では、再生動画データのファイル名をもとにインデクシングデータを記憶装置2503から読み込むようにするなど、動画データと関連付けた保存読み出しの仕組みを使うことによって実現できる。あるいは、ネットワーク上に存在する動画データに対しても同様に動画データとインデクシングデータを関連付けて保存し、動画データを読み込んだ際に当該関連付けられたインデクシングデータを図示しないネットワークデータ入力装置から読み込めるように構成してもよい。また、インデクシングデータを動画データ中に付加データとしてインターリーブして保存されるようにし、本インデクシングデータ入力処理部902が動画入力装置2502で入力した動画データ中からインデクシングデータを取り出して読み込むようにしてもよい。
キーワードリスト提示処理部903は、入力したインデクシングデータに基づいて、シーンのキーワードリストをユーザに提示する。これは、例えば、動画データの再生開始時、あるいはユーザからキーワード表示指示があった際に、インデクシングデータに記述されているキーワードを読み出して、当該キーワードを一覧として、表示装置2506上に出力し、表示装置2506は、表示画面上に表示する。なお、表示画面の一例については図11に示しているが、これについては後で詳細に説明する。
キーワード入力処理部904は、表示装置2506に表示されることにより、提示されたキーワードリストの中からユーザが選択したキーワードを入力装置2505を介して入力する。例えば、キーワード入力処理部904は、キーワードリスト提示処理部903で提示されたキーワードリストの中から入力装置2505により特定のキーワードを選択した場合に、当該選択されたキーワードを取得する。なお、このとき、キーワード入力処理部904は、入力したキーワードのシーンの位置をインデクシングデータの位置情報603を取得することによって取得し、当該位置(時刻)を後述する図11で説明するように走行バー1130上にチャプターマーカー(1141乃至1143)等でチャプタ位置として表示されるようにしてもよい。これにより、例えば、リモコンの上下ボタンにより、キーワードリストの中からキーワードを選択するたびにスライドバー上にシーンの位置が表示されるので、シーンの位置関係を目視することが可能となるインターフェースを提供できる。
シーン再生処理部905は、入力したキーワードのシーンを再生する。例えば、シーン再生処理部905は、入力したキーワードのシーンの位置をインデクシングデータの位置情報603を取得することによって取得し、当該位置(時刻)の内、現在の再生位置よりも時間的に後で最も近い位置にジャンプして再生装置2504により再生する。
次に、本発明の実施形態に係る動画装置における全体的な動作の流れを説明する。
図10は、本発明の実施形態に係る動画再生装置における動作の流れの一例を説明するフローチャートである。
図10に示すとおり、本発明の実施形態に係る動画再生装置は、動画データの再生が指示された場合、あるいは、ユーザから入力装置2505を介してキーワードリストの表示が指示された場合、インデクシングデータ入力処理部902により、再生対象の動画データのインデクシングデータを入力し(ステップ1001)、キーワードリスト提示処理部903により、インデクシングデータに記述されているキーワード読み出して、当該キーワードを一覧として、表示装置2506の表示画面上に表示する(ステップ1002)。続いて、ユーザからキーワードが選択されると、キーワード入力処理部904により入力されたキーワードを取得し(ステップ1003)、シーン再生処理部905により、入力したキーワードのシーンの位置をインデクシングデータから取得して、再生装置2504により当該位置(時刻)の内、現在の再生位置よりも時間的に後で最も近い位置にジャンプして再生する(ステップ1004)。
次に、動画再生装置の表示画面例を説明する。
図11は、動画再生装置の表示画面の一例を示す図である。1101は動画表示エリアであり、動画データの再生画像が表示される。1110はキーワードリスト表示エリアである。キーワードリスト提示処理部903は、インデクシングデータに記述されているキーワードをがキーワードリストとしてキーワードリスト表示エリア1110に出力する。1111乃至1116はキーワード表示エリアであり、キーワードリスト提示処理部903は、インデクシングデータに記述されている個々のキーワードをキーワード表示エリア1111乃至11116に表示する。1120は選択キーワード表示エリアであり、キーワード入力処理部904によりキーワードリストの中からユーザが選択したキーワードを表示する。例えば、選択キーワード表示エリア1120は、ユーザがリモコンの上下ボタン等でキーワードリストの中からキーワードを選択する際、フォーカスされているキーワードを表示するエリアである。1130は走行バーであり、後述する現在の再生位置1150及びチャプターマーカーを表示する。1141乃至1145はチャプターマーカーであり、選択されているキーワードのシーンの位置を示す。1150は現在の再生位置であり、チャプターマーカー1141乃至1145と現在の再生位置1150により、選択したキーワードのシーンと現在の再生位置の位置関係を確認できる。なお、これらは、動画の再生開始時あるいはユーザからリモコン等を介してキーワードリストの表示が指示された場合に表示されるように構成すると、再生動画を視聴中の邪魔にならずによい。また、ユーザがリモコンの上下ボタン等でキーワードリストの中からキーワードを選択する際、キーワード入力処理部904において、上下ボタンの動きに応じて、フォーカスされているキーワードのキーワード表示エリアを反転表示するとともに、当該フォーカスされているキーワードを選択キーワード表示エリア1120に表示するように現在選択しているキーワードならびに選択しようとしているキーワードがわかりやすくなる。また、このとき、上下ボタンの動きに応じて、フォーカスされているキーワードのシーンのチャプターマーカー1141乃至1145が走行バー1130上に逐次表示されるように構成しても良い。これにより、選択しようとしているキーワードのシーンと在の再生位置の位置関係を確認できるユーザインターフェースを提供可能となる。
例えば、図11において、(a)は、キーワード「トピック」1116が選択されている状態を示しており、キーワード「トピック」のシーン位置に対応するチャプターマーカー1141ないし1145が表示されている。そして、図11(b)に示すように、ユーザがリモコンの上下ボタン等により、キーワード「スポーツ」1115にフォーカスすると、キーワード「スポーツ」のシーン位置に対応するチャプターマーカー1144が表示され、図11(c)に示すように、キーワード「お天気」1114にフォーカスが移ると、キーワード「お天気」のシーン位置に対応するチャプタマーカー1145が表示されるように構成すると良い。このときフォーカスされているキーワードのチャプタ位置に自動的に再生位置1150を移動させても良いし、ユーザから決定が指示されたときに、再生位置1150を選択されているキーワードのチャプタ位置に移動するように攻勢しても良い。
以上説明した、動画再生装置により、動画データにおけるシーンのキーワードを提示し、ユーザがキーワードを指定することで動画データの中から、観たいシーンを簡単に視聴可能とするユーザインターフェースを提供することができる。
次に、本発明の第二の実施形態に係る動画インデクシング方法を図面を参照して説明する。
図12は、本発明の第二の実施形態に係る動画インデクシング方法の機能ブロック図である。図12に示す機能ブロックは、動画シーン文字データ入力処理部101と、動画ジャンル判別処理部105と、動画情報入力処理部1201と、動画固有辞書生成処理部1202と、シーン文字列符号化処理部102と、シーンインデクシング処理部1205、動画固有辞書保持部1203及びシーンインデクシングデータ記憶部とを有する。。ここで、動画ジャンル判別処理部105及び動画シーン文字データ入力処理部101については、本発明の第一の実施形態と同様であるので、説明を省略する。
動画情報入力処理部1201は、動画データの情報が記述された動画情報を入力する。動画情報入力処理部1201は、例えば、動画データの出演者等が記述されたデータ、あるいは動画データのメタデータが提供されていれば、当該メタデータを取得するように構成すればよい。あるいは、テレビ番組の場合には、例えば、動画データのSI(Service Information:番組情報)情報を取得しても良い。この場合、図13に示すとおり、SI情報には図2で示した、ジャンル記述セクション201の他にも内容記述セクション1301が含まれており、当該内容記述セクション1301にはさらに出演者タグ1302や番組内容タグ1305が存在する。また、出演者タグ1302に続いては、司会者1303やゲスト1304あるいは歌手1307等、動画データに出演する人名などが含まれているため、動画情報入力処理部1201では、これらの情報を取得するように構成すれば良い。
動画固有辞書生成処理部1202は、動画情報入力処理部1201で入力した動画情報及び動画ジャンル判別処理部で判別した動画ジャンルを基にして、動画ジャンル及び動画データに対して固有の辞書を生成する。例えば、動画情報入力処理部1201は、動画ジャンル判別処理部105で判別した動画ジャンルに応じて、動画情報入力処理部1201で入力した動画情報から必要な情報を取得して、後で詳細に説明する図14に示すとおり、キーワードと符号値をセットにした辞書を生成する。さらに詳細には、例えば図13に示す動画情報の場合、例えば動画データのジャンルが音楽の場合には、歌手1307やゲスト1304の人名をキーワードとして、後で詳細に説明する図14に示すように、動画情報入力処理部1201は、キーワードと、そのキーワードが動画シーン文字データ中に出現した際に、シーン文字列符号化データに記録する固有辞書符号とセットにして動画固有辞書を生成する。動画情報入力処理部1201は、動画データのジャンルがバラエティの場合には、司会1303やゲスト1304の人名をキーワードとして、同様に固有辞書符号とセットにして動画固有辞書を生成して、後述するシーン文字列符号化処理部102が参照できるよう、動画固有辞書保持部1203に、動画固有辞書を保持する。
シーン文字列符号化処理部1204は、第一の実施形態におけるシーン文字列符号化処理部102とほぼ同じであるが、第二の実施形態においては、定型句キーワード辞書入力処理部104で入力した定型句キーワード辞書の代わりに、前述の動画固有辞書生成処理部1202で生成した動画固有辞書を参照して、動画シーン文字データ入力処理部101で入力した動画シーン文字データをパケットごとに符号化する。これは、例えば、シーン文字列符号化処理部1204は、動画シーン文字データ入力処理部101で入力した1パケット分の動画シーン文字データごとに、動画固有辞書生成処理部1202で生成した動画固有辞書と照合し、当該動画固有辞書に記述されたキーワードが動画シーン文字データに現れた場合に、そのパケットの動画シーン文字データのPTSとともに、そのパケットの動画シーン文字データを符号化するように構成する。さらに詳細には、例えば、後で詳細に説明する図14の動画固有辞書のとおり、「xxx」というキーワードを固有辞書符号「1」で符号化するように動画固有辞書に記述されている場合、シーン文字列符号化処理部1204は、動画シーン文字データのパケットごとに「xxx」という文字列を検索し、当該文字列が見つかった場合に、後で詳細に説明する図15に示すように、シーン文字列符号化処理部1204は、その動画シーン文字データのパケットのPTSとともに固有辞書符号「1」をシーン文字列符号化データとして記述することでシーン文字列符号化データを作成する。このとき、動画固有辞書中のいずれかのキーワードが現れた場合について、シーン文字列符号化処理部1204は、そのパケットすべてを符号化したシーン文字列符号化データを作成する。なお、動画固有辞書中のいずれのキーワードも現れなかったパケットに対しては、必ずしもシーン文字列符号化データに含まれる必要はないが、動画固有辞書に規定されていない固有辞書符号(例えば「0」など)を記述することで、シーン文字列符号化データに含まれるように構成しても良い。また、本シーン文字列符号化処理部102は、ある特定の文字列や記号(例えば音符マーク)、あるいは文字列の消去を示す制御コードのパケット等、動画ジャンルに無関係に使用可能な情報を、例えばそれぞれ、符号「2」、「1」、「0」などと符号化して、パケットの種別をシーン文字列符号化データに含めても良い。いずれにしても、本シーン文字列符号化処理部102は、動画データ中の動画シーン文字データのすべてのパケットに対して、動画固有辞書と照合して、シーン文字列符号化データを作成する。
シーンインデクシング処理部1205は、第一の実施形態におけるシーンインデクシング処理部103とほぼ同じであるが、第二の実施形態におけるシーンインデクシング処理部1205は、対定型句提示キーワード辞書入力処理部106で入力した対定型句提示キーワード辞書の代わりに、前述の動画固有辞書生成処理部1202で生成した動画固有辞書を参照して、動画データのシーンに対してインデクシングすることでインデクシングデータを生成する。これは、例えば、シーンインデクシング処理部1205は、前記シーン文字列符号化処理部102で生成したシーン文字列符号化データの中から、各パケットの符号値と同じ符号値を持つキーワードを、画固有辞書生成処理部1202で生成した動画固有辞書から検索する。検索結果、抽出したキーワードとシーン文字列符号化データ内の時刻情報をセットにして、シーンインデクシング処理部1205は、インデクシングデータとして記述し、インデクシングデータを作成する。シーンインデクシング処理部1205は、作成されたインデクシングデータをシーンインデクシングデータ記憶部1206に格納する。さらに詳細には、例えば、シーンインデクシング処理部1205は、後で詳細に説明する図15のシーン文字列符号化データから、固有辞書符号1503が「1」のエントリ1504を取得して、この固有辞書符号「1」と同じ固有辞書符号1404を持つエントリ1405を動画固有辞書(後述の図14参照)から探し出し、キーワード1403に記述されているキーワード「xxx」を取得する。続いて、シーンインデクシング処理部1205は、図15の固有辞書符号「1」を持つ時刻1501の時刻「10、200」を取得して、当該キーワード「xxx」と時刻「10、200」と時刻の数を、それぞれインデクシングデータとして、それぞれ、後で詳細に説明する図16に示すように、キーワード1601、時刻情報1603、位置数1602に記述する。本処理をシーン文字列符号化データ中の全固有辞書符号1503の種類に対して行い、シーンインデクシング処理部1205は、インデクシングデータを生成する。なお、インデクシングデータのデータ構造については後で詳細に説明する。
次に、第二の実施形態に係る動画インデクシング方法で生成するデータについて詳細に説明する。
まず、動画固有辞書生成処理部1202で生成され、シーン文字列符号化処理部102で参照される動画固有辞書のデータ構造について説明する。前述のとおり、本動画固有辞書は、例えば、動画ジャンル判別処理部105で判別した動画ジャンルに応じて、動画データごとに生成されるように構成する。
図14は動画固有辞書のデータ構造の一例であり、特に図13の動画情報の例に対応して、動画データのジャンルが「音楽」の動画に対する動画固有辞書の例を示している。図14において、1404は固有辞書符号であり、1403はキーワードである。また、1405ないし1406は、固有のキーワードとそれに対応する固有辞書符号のエントリを示している。本固有辞書を参照することにより、動画シーン文字データ入力処理部101において、例えば、「xxx」という文字列が含まれるパケットを入力したとき、シーン文字列符号化処理部102が、固有辞書符号「1」をシーン文字列符号化データとして生成することができる。また、シーンインデクシング処理部1205は、は、シーン文字列符号化データの固有辞書符号「1」が付けられたエントリの時刻に対して、キーワード「xxx」としてインデクシングデータを生成する。
次に、シーン文字列符号化処理部102で生成され、シーンインデクシング処理部1205で参照されるシーン文字列符号化データのデータ構造について説明する。
図15は、本発明の第二の実施形態にかかるシーン文字列符号化データのデータ構造の一例である。図15に示すとおり、第二の実施形態にかかるシーン文字列符号化データでは、図4に示す第一の実施形態におけるシーン文字列符号化データに対して、定型句符号403を固有辞書符号1503に置き換えたものとし、定型句符号の代わりに固有辞書符号を格納できるようにすればよい。すなわち、1503は、動画シーン文字データの各パケットに、動画固有辞書のキーワードが含まれていた場合の符号値であり、動画固有辞書のキーワード1403が見つかった場合には、当該キーワードに対応する固有辞書符号1404の値が入力されるように構成する。なお、動画固有辞書のキーワード1403が見つからなかった場合には、当該動画固有辞書の固有辞書符号1404で規定されていない値(例えば、図14の辞書の例では「0」)を入力するように構成すれば良い。さらに、404乃至411は、シーン文字列符号化データのエントリであり、動画シーン文字データの各パケットに対応する値が羅列されたエントリである。すなわち、図14の例では、エントリ404及び410は、「動画シーン文字データ入力処理部101が時刻「10」及び時刻「200」のPTSがつけられたパケットを入力し、このパケットには「xxx」という文字列が含まれていた」ということをシーン文字列符号化処理部102が符号化していることを示している。また、エントリ409は、時刻「150」のPTSがつけられたパケットを入力し、このパケットには「ooo」という文字列が含まれていたということを示す。
なお、シーン文字列符号化処理部102を、動画シーン文字データ入力処理部101で入力される全てのパケットに含まれるデータに対して符号化が行われるように構成しても良いし、動画固有辞書のキーワードが含まれていたパケットに対してのみ符号化するように構成しても良い。本シーン文字列符号化処理部102により、動画シーン文字データの文字列そのものを保持する必要がなくなるため、使用するメモリ量を削減できるという利点がある。動画データ及びそのジャンルに固有のキーワードのみ符号化されるので、使用するメモリ量を著しく削減できる。さらに、動画シーン文字データの文字列そのものを保持しないので、著作権保護の観点からも望ましい構成とすることができる。
次に、第二の実施形態にかかるシーンインデクシング処理部1205で生成されるインデクシングデータのデータ構造について説明する。
図16は、第二の実施形態にかかるインデクシングデータのデータ構造の一例である。図16に示すとおり、第二の実施形態にかかるインデクシングデータのデータ構造のうち、、キーワード1601に記述されるキーワードが動画固有辞書で規定されたキーワード1403のキーワードとなり、図4に示す、定型句符号403と異なる。これは、シーンインデクシング処理部1205が、シーン文字列符号化データから固有辞書符号1503と時刻401を取得するとともに、文字列符号化データにおいて、当該固有辞書符号と同値の固有辞書符号を持つエントリの数を数えることで位置数をカウントし、当該固有辞書符号と同値の固有辞書符号1404を持つキーワード1403を動画固有辞書から取得して、当該キーワードと、先にカウントした位置数と、それぞれの時刻とを、それぞれキーワード1601と、位置数602と、時刻情報603に記述することでインデクシングデータを生成可能となる。本インデクシングデータにより、当該インデクシングデータを参照する動画再生装置は、例えば出演者名等の動画固有のキーワードを表示するとともに、出演者名がユーザから選ばれた場合に、その出演者のシーンの位置を表示あるいは再生可能となる。
次に、第二の実施形態に係る動画インデクシング方法における全体の処理の流れを説明する。
図17は、第二の実施形態に係る動画インデクシング方法における全体の処理の流れの一例を説明するフローチャートである。
図17に示すとおり、第二の実施形態に係る動画インデクシング方法では、まず、動画情報入力処理部1201により動画データの情報が記述された動画情報を入力し(ステップ1701)、動画ジャンル判別処理部105により、動画データのジャンルを判別する(ステップ1702)。続いて、動画固有辞書生成処理部1202により、ステップ1702で入力した動画情報を基にして、動画ジャンル及び動画データに対して固有の辞書を生成し、固有の辞書を動画固有辞書保持部に保持する(ステップ1703)。続いて、動画シーン文字データ入力処理部101により、動画シーンに関する文字データ(動画シーン文字データ)を1パケットづつ入力し(ステップ1704)、シーン文字列符号化処理部102により、ステップ1703で生成した動画固有辞書を参照しながら、ステップ1704で入力したパケットの動画シーン文字データを符号化することでシーン文字列符号化データを生成する(ステップ1705)。
そして、ステップ1704とステップ1705を繰り返して、動画データにおける全てのパケットの動画シーン文字データを符号化した後(ステップ1706)、シーンインデクシング処理部1205は、ステップ1705で生成したシーン文字列符号化データと、ステップ1703で入力した動画固有辞書に基づいて、動画データのシーンに対してインデクシングを行うことでインデクシングデータを生成し、シーンインデクシングデータ記憶部1206に記憶する。
これにより、例えば、カテゴリが音楽の動画データに対し、図18に示すとおり、「xxx」という文字列1811及び1813が、動画シーン文字データ中に現れた時刻「10」1801及び「200」1803の動画シーン文字データを固有辞書符号「1」1821及び1823として符号化される。また、同様に「ooo」という文字列1812が動画シーン文字データ中に現れた時刻「150」1802の動画シーン文字データを固有辞書符号「2」1822として符号化することが出来るので文字列そのものを保持する場合と比べ使用メモリ量を削減することが出来る。また、シーンインデクシング処理部1205は、動画シーン文字データ中に「xxx」という文字列1811及び1813が現れた位置にキーワード「xxx」1851としてインデックスを付与してインデクシングデータを生成し、動画シーン文字データ中に「ooo」という文字列1812が現れた位置にキーワード「ooo」1852としてインデックスを付与してインデクシングデータを生成する。
そして、本インデクシングデータを読み込む再生装置において、ユーザに「xxx」1851及び「ooo」1852のキーワードを提示し、ユーザから「xxx」1851というキーワードが指定された時に、時刻「10」1801あるいは「200」1803の位置から動画データを再生することで、「xxx」1851をキーワードとするシーンから再生することが可能となる。同様に、ユーザから「ooo」1852というキーワードが指定された時に、時刻「150」1802の位置から動画データを再生することで、「ooo」1852をキーワードとするシーンから再生することが可能となる。なお、図18において、1800は時間軸を示し、1801、1802、及び1803は、それぞれ時刻「10」、「150」、及び「200」の時間軸上の位置である。また、1811、1812、及び1813は、それぞれ、時刻「10」1801、「150」1802、及び「200」1803の動画シーン文字データのパケットに含まれる文字列を示し、1821、1822、及び1823は、それぞれ、動画シーン文字データ1821、1822、及び1823の固有辞書符号値を示している。さらに、1831及び1833は、キーワード「xxx」1851のシーンを時間軸上にプロットした点を示し、1832は、キーワード「ooo」1851のシーンを時間軸上にプロットした点を示している。
以上説明した第二の実施形態により、ハードウェアリソースの負荷を抑え、動画データのシーンにキーワードを付すと共に、当該キーワードを提示ことにより、ユーザがキーワードを指定することで動画データの中から、観たいシーンのみを視聴可能とするインデクシングデータを生成でき、特に、動画データ固有の辞書を生成して使用するので、辞書データに必要以上のメモリを使用することなく、再生対象の動画データに適したシーンのキーワードを提示することが出来ると共に、当該辞書データの人手による更新を不要とすることが可能となる。
なお、第二の実施形態に係る動画再生装置については、本発明の第一の実施形態に係る動画再生装置をそのまま適用可能であり、動画データにおけるシーンのキーワードを提示し、ユーザがキーワードを指定することで動画データの中から、観たいシーンを簡単に視聴可能とすることができる。
次に、本発明の第三の実施形態に係る動画インデクシング方法を図面を参照して説明する。
図19は、第三の実施形態に係る動画インデクシング方法のブロック図である。図19に示すとおり、本発明の第三の実施形態に係る動画インデクシング方法は、動画シーン文字データ入力処理部101と、動画ジャンル判別処理部105と、動画情報入力処理部1201と、定型句キーワード辞書入力処理部104と、動画固有辞書生成処理部1202と、シーン文字列符号化処理部1902と、対定型句提示キーワード辞書入力処理部106と、シーンインデクシング処理部103と、定型句キーワード辞書107乃至108と、対定型句提示キーワード辞書109乃至110からなる。
ここで、動画ジャンル判別処理部105、動画シーン文字データ入力処理部101については、本発明の第一及び第二の実施形態で使用した処理部と同様であり、定型句キーワード辞書入力処理部104、対定型句提示キーワード辞書入力処理部106、定型句キーワード辞書107乃至108、及び対定型句提示キーワード辞書109乃至110については、本発明の第一の実施形態と同様である。また、動画情報入力処理部1201及び動画固有辞書生成処理部1202については、本発明の第二の実施形態と同様である。図示はしていないが、動画固有辞書保持部1203及びシーンインデクシングデータ記憶部1206も備える。
シーン文字列符号化処理部1902は、本発明の第一及び第二の実施形態におけるシーン文字列符号化処理部102とほぼ同じであるが、本発明の第三の実施形態においては、定型句キーワード辞書入力処理部104で入力した定型句キーワード辞書及び動画固有辞書生成処理部1202で生成した動画固有辞書を参照して、動画シーン文字データ入力処理部101で入力した動画シーン文字データをパケットごとに符号化する。これは、例えば、シーン文字列符号化処理部1902は、動画シーン文字データ入力処理部101で入力した1パケット分の動画シーン文字データごとに、定型句キーワード辞書入力処理部104で入力した定型句キーワード辞書及び動画固有辞書生成処理部1202で生成した動画固有辞書と照合し、当該定型句キーワード辞書あるいは動画固有辞書に記述されたキーワードが動画シーン文字データに現れた場合に、そのパケットの動画シーン文字データのPTSとともに、そのパケットの動画シーン文字データを符号化するように構成する。詳細には、シーン文字列符号化処理部1902は、本発明の第一の実施形態のシーン文字列符号化処理部102と同様に定型句キーワード辞書に記述されているキーワードが動画シーン文字データのパケットに見つかった場合に、定型句キーワード辞書に記述されている定型句符号を、後で詳細に説明する図20に示すように、シーン文字列符号化データ中の定型句符号403に書き込む。また、同時に、シーン文字列符号化処理部1902は、本発明の第二の実施形態のシーン文字列符号化処理部102と同様に動画固有辞書に記述されているキーワードが動画シーン文字データのパケットに見つかった場合に、動画固有辞書に記述されている固有辞書符号を、後で詳細に説明する図20に示すように、シーン文字列符号化データ中の固有辞書符号1503に書き込む。例えば、図3の定型句キーワード辞書のとおり、「続いては」というキーワードを定型句符号「1」で符号化するように定型句キーワード辞書に記述されている場合、シーン文字列符号化処理部1902は、動画シーン文字データのパケットごとに「続いては」という文字列を検索し、当該文字列が見つかった場合に、後で詳細に説明する図20に示すように、その動画シーン文字データのパケットのPTSとともに定型句符号「1」をシーン文字列符号化データの定型句符号403として記述し、図14の動画固有辞書のとおり、「xxx」というキーワードを固有辞書符号「1」で符号化するように動画固有辞書に記述されている場合、動画シーン文字データのパケットごとに「xxx」という文字列を検索し、当該文字列が見つかった場合に、後で詳細に説明する図20に示すように、その動画シーン文字データのパケットのPTSとともに固有辞書符号「1」をシーン文字列符号化データの固有辞書符号1503として記述することでシーン文字列符号化データを作成する。
シーンインデクシング処理部103は、本発明の第一の実施形態のシーンインデクシング処理部103や及び第二の実施例におけるシーンインデクシング処理部1205とほぼ同じであるが、第三の実施形態においては、対定型句提示キーワード辞書入力処理部106で入力した対定型句提示キーワード辞書と動画固有辞書生成処理部1202で生成した動画固有辞書を参照して、動画データのシーンに対してインデクシングすることでインデクシングデータを生成するように構成する。これは、例えば、前記シーン文字列符号化処理部102で生成したシーン文字列符号化データの中から、各パケットの定型句符号403の値及び固有辞書符号1503の値と同じ符号値を持つキーワードを、それぞれ、対定型句提示キーワード辞書入力処理部106で入力した対定型句提示キーワード辞書及び画固有辞書生成処理部1202で生成した動画固有辞書から探し出し、当該キーワードとシーン文字列符号化データ内の時刻情報をセットにして、インデクシングデータとして記述することで、インデクシングデータを作成する。
さらに詳細には、例えば、後で詳細に説明する図20のシーン文字列符号化データから、定型句符号403が「1」のエントリ404を取得して、この定型句符号「1」と同じ定型句符号501を持つエントリ503を対定型句提示キーワード辞書から探し出し、キーワード502に記述されているキーワード「トピック」を取得する。続いて、当該定型句符号「1」を持つ時刻401の時刻「30」を取得して、当該キーワード「トピック」と時刻「30」と時刻の数を、それぞれ、後述する図21のようにインデクシングデータとして、それぞれキーワード2101、時刻情報2103、位置数2102に記述する。次に、例えば、後で詳細に説明する図20のシーン文字列符号化データから、固有辞書符号1503が「1」のエントリ2003を取得して、この固有辞書符号「1」と同じ固有辞書符号(例えば図14の場合には1404)を持つエントリ1405を動画固有辞書から探し出し、キーワード1403に記述されているキーワード「xxx」を取得する。
続いて、図20の固有辞書符号「1」を持つ時刻2001の時刻「10」を取得して、当該キーワード「xxx」と時刻「10」と時刻の数を、それぞれインデクシングデータとして、それぞれ、後で詳細に説明する図21に示すように、キーワード2101、時刻情報2103、位置数2102に記述する。本処理をシーン文字列符号化データ中の全定型句符号403の種類及び全固有辞書符号1503の種類に対して行うことで、インデクシングデータを生成する。
なお、固有辞書符号により付けたインデックスの時刻は時刻的に、当該時刻より後の定型句キーワード辞書及び対定型句提示キーワード辞書により付けた時刻に設定しても良い。例えば、図20の例では、動画シーン文字データの時刻「10」のパケットに「xxx」という文字列が含まれており、シーン文字列符号化データの時刻「10」のエントリに固有辞書符号「1」が付されている。また、動画シーン文字データの時刻「30」のパケットに「続いては」という文字列が含まれており、シーン文字列符号化データの時刻「30」のエントリに定型句符号「1」が付されている。先に説明した、シーンインデクシング処理部103は、時刻「10」に「xxx」というキーワードのインデクシングを行うが、この時刻より後の定型句辞書及び対定型句提示キーワード辞書により付けた時刻、すなわち時刻「30」に「xxx」というキーワードのインデクシングを行ってもよい。これにより、例えば、「xxx」が出演者名の場合、単に出演者が出てきたシーンにインデクシングするのではなく、その出演者が実際に出演しているトピックの開始シーンにインデクシングしたインデクシングデータを生成できる。また、この動作は、例えば、動画固有辞書に規定されても良い。この場合、例えば図14で固有辞書符号1404の後に属性をつけ、この属性が、インデクシング位置の補正を意味する値が記述されていてときに、当該エントリに記述されたキーワードのインデックスを当該キーワードの出現時刻よりも時間的に後の定型句キーワード提示位置にインデクシングするように構成すればよい。また、定型句符号と固有辞書符号が一致する定型句符号から導かれる定型句キーワード提示位置にインデクシングするように構成してもよい。こうすることで、例えば人名が選ばれたときにその人が現れるトピックの先頭から視聴することが可能となる。
次に、第三の実施形態に係る動画インデクシング方法で生成するデータについて詳細に説明するまず、第三の実施形態にかかるシーン文字列符号化データのデータ構造について説明する。
図20は、第三の実施形態にかかるシーン文字列符号化データのデータ構造の一例である。図20に示すとおり、第三の実施形態にかかるシーン文字列符号化データでは、本発明の第一の実施形態におけるシーン文字列符号化データに、本発明の第二の実施形態にかかるシーン文字列符号化データの固有辞書符号1503を加えたものとなっている。そして、動画シーン文字データの各パケットに、定型句キーワード辞書のキーワードが含まれていた場合には、当該キーワードに対応する定型句キーワード辞書の定型句符号303の値が入力されるように構成し、動画シーン文字データの各パケットに、動画固有辞書のキーワードが含まれていた場合には、当該キーワードに対応する動画キーワード辞書の固有辞書符号1404の値が入力されるように構成する。その他については本発明の第一及び第二の実施形態と同様に運用すればよい。なお、図20においては、図3の定型句キーワード辞書及び図14の動画固有辞書に基づいたとすると、時刻「10」に固有辞書符号が「1」となっているので、動画シーン文字データの時刻「10」のパケットに「xxx」という文字列が含まれていたことを示しており、時刻「30」に定型句符号が「1」となっているので、動画シーン文字データの時刻「30」のパケットに「続いては」という文字列が含まれていたことを示している。同様に、時刻「50」に固有辞書符号が「2」となっているので、動画シーン文字データの時刻「50」のパケットに「ooo」という文字列が含まれていたことを示しており、時刻「150」に定型句符号が「2」となっているので、動画シーン文字データの時刻「150」のパケットに「スポーツです。」という文字列が含まれていたことを示している。
次に、第三の実施形態にかかるインデクシングデータのデータ構造について説明する。
図21は、第三の実施形態にかかるインデクシングデータのデータ構造の一例である。図21に示すとおり、第三の実施形態にかかるインデクシングデータのデータ構造自体は本発明の第一及び第二の実施形態にかかるインデクシングデータのデータ構造と同じであるが、キーワード1601に記述されるキーワードとしては対定型句提示キーワード辞書で規定されたキーワード502と動画固有辞書で規定されたキーワード1403のキーワードが混在することになる。なお、図21においては、先に説明したとおり、固有辞書符号により付けたインデックスの時刻は時刻的に、当該時刻より後の定型句キーワード辞書及び対定型句提示キーワード辞書により付けた時刻に設定しており、キーワード「xxx」の時刻情報は「10」ではなく、次の定型句キーワード辞書のキーワード出現位置、すなわちキーワード「トピック」の時刻情報「30」に設定している。同様に、キーワード「ooo」の時刻情報は「50」ではなく、次の定型句キーワード辞書のキーワード出現位置、すなわちキーワード「スポーツ」の時刻情報「150」に設定している。
次に、第三の実施形態に係る動画インデクシング方法における全体の処理の流れを説明する。図22は、第三の実施形態に係る動画インデクシング方法における全体の処理の流れの一例を説明するフローチャートである。
図22に示すとおり、第三の実施形態に係る動画インデクシング方法では、まず、動画情報入力処理部1201により動画データの情報が記述された動画情報を入力し(ステップ2201)、動画ジャンル判別処理部105により、動画データのジャンルを判別する(ステップ2202)。次に、定型句キーワード辞書入力処理部104により、ステップ2202で判別した動画ジャンルに固有な定型句キーワード辞書を入力した後(ステップ2203)、動画固有辞書生成処理部1202により、ステップ2202で判別した動画ジャンル及びステップ2201で入力した動画情報を基にして、動画ジャンル及び動画データに対して固有の辞書を生成する(ステップ2204)。続いて、動画シーン文字データ入力処理部101により、動画シーンに関する文字データ(動画シーン文字データ)を1パケットづつ入力し(ステップ2204)、シーン文字列符号化処理部102により、ステップ2203で入力した定型句キーワード辞書及びステップ2204で生成した動画固有辞書を参照しながら、ステップ2205で入力したパケットの動画シーン文字データを符号化することでシーン文字列符号化データを生成する(ステップ2206)。
そして、ステップ2205とステップ2206を繰り返して、動画データにおける全てのパケットの動画シーン文字データを符号化した後(ステップ2207)、対定型句提示キーワード辞書入力処理部106により、ステップ2202で判別した動画ジャンルに固有な定型句キーワード辞書に対応する(すなわち、定型句キーワード辞書に対して提示するキーワードを規定した)対定型句提示キーワード辞書を入力し(ステップ2208)、シーンインデクシング処理部103により、ステップ2206で生成したシーン文字列符号化と、ステップ2208で入力した対定型句提示キーワード辞書と、ステップ2204で生成した動画固有辞書に基づいて、動画データのシーンに対してインデクシングを行うことで、インデクシングデータを生成する(ステップ2209)。例えば、シーンインデクシング処理部103は、カテゴリがニュースの動画データに対し、図23に示すとおり、「続いては」という文字列2312が動画シーン文字データ中に現れた時刻「30」2303の動画シーン文字データに対して定型句符号2320を「1」2321として符号化し、「スポーツです。」という文字列150が動画シーン文字データ中に現れた時刻「150」2304の動画シーン文字データに対して定型句符号2320を「2」2322として符号化する。
また、シーンインデクシング処理部103は、「xxx」という文字列2311が動画シーン文字データ中に現れた時刻「10」2301の動画シーン文字データに対して固有辞書符号2320を「1」2331として符号化し、同様に「ooo」という文字列2313が動画シーン文字データ中に現れた時刻「50」2302の動画シーン文字データに対して固有辞書符号2320を「2」2332として符号化する。そして、シーンインデクシング処理部103は、動画シーン文字データ中に「続いては」という文字列2312が現れた位置2341にキーワード「トピック」2340としてインデックスを付与し、動画シーン文字データ中に「スポーツです。」という文字列2314が現れた位置2351にキーワード「スポーツ」2361としてインデックスを付与したインデクシングデータを生成する。また、シーンインデクシング処理部103は、動画シーン文字データ中に「xxx」という文字列2311が現れた位置2362にキーワード「xxx」2360としてインデックスを付与し、動画シーン文字データ中に「ooo」という文字列2313が現れた位置2372にキーワード「ooo」2370としてインデックスを付与したインデクシングデータを生成する。このとき、先に述べたとおり、固有辞書符号により付けたインデックスの時刻を時刻的に、当該時刻より後の定型句キーワード辞書及び対定型句提示キーワード辞書により付けた時刻に設定することで、位置2361にキーワード「xxx」としてインデックスを付与したインデクシングデータを生成する。また、シーンインデクシング処理部103は、同様に、位置2371にキーワード「ooo」2370としてインデックスを付与したインデクシングデータを生成する。こうすることで、例えばユーザーから人名「xxx」のキーワードが選ばれたときに、本インデクシングデータを読み込む動画再生装置において、その人が現れるトピックの先頭から視聴することが可能となる。
以上により、本発明の第三の実施形態のインデクシング方法により生成されたインデクシングデータを読み込む画再生装置において、ユーザに「トピック」2340、「スポーツ」2350等の定型キーワードおよび「xxx」2360及び「ooo」2370のキーワードを提示し、ユーザからこれらのキーワードが指定された時に、それぞれのキーワードのインデックスの位置から動画データを再生することで、それぞれのキーワードのシーンから再生することが可能となる。
なお、図23において、2300は時間軸をであり、2301、2302、2303及び2304は、それぞれ時刻「10」、「30」、「50」及び「150」の時間軸上の位置である。また、2311、2312、2313及び2314は、それぞれ、時刻「10」2301、「30」2303、「50」2302及び「150」2304の動画シーン文字データのパケットに含まれる文字列を示し、2321及び2322は、それぞれ、動画シーン文字データ2312及び2314の定型句符号2320の値と時間的な位置を示している。また、2331及び2332は、それぞれ、動画シーン文字データ2311及び2312の固有辞書符号2330の値と時間的な位置を示している。そして、2341は、キーワード「トピック」2340のインデックス位置を時間軸上にプロットした点を示し、2351は、キーワード「スポーツ」2350のインデックス位置を時間軸上にプロットした点を示している。また、2362及び2361は、キーワード「xxx」2360のインデックス位置を時間軸上にプロットした点を示しており、特に2361は、固有辞書符号により付けたインデックスの時刻を時刻的に、当該時刻より後の定型句キーワード辞書及び対定型句提示キーワード辞書により付けた時刻に設定した場合の位置である。また、2372及び2371は、キーワード「ooo」2370のインデックス位置を時間軸上にプロットした点を示しており、特に2371は、固有辞書符号により付けたインデックスの時刻を時刻的に、当該時刻より後の定型句キーワード辞書及び対定型句提示キーワード辞書により付けた時刻に設定した場合の位置である。
以上説明した本発明の第三の実施形態の動画インデクシング方法により、ハードウェアリソースの負荷を抑え、動画データのシーンにキーワードを付すと共に、当該キーワードを提示ことにより、ユーザがキーワードを指定することで動画データの中から、観たいシーンのみを視聴可能とするインデクシングデータを生成でき、特に、動画データのジャンルに固有の辞書と動画データ固有の辞書を生成して使用して、動画データに適したシーンのキーワードを提示することが出来ると共に、当該辞書データの人手による更新を不要とすることが可能となる。
なお、第三の実施形態に係る動画再生装置については、本発明の第一及び第二の実施形態に係る動画再生装置をそのまま適用可能であり、動画データにおけるシーンのキーワードを提示し、ユーザがキーワードを指定することで動画データの中から、観たいシーンを簡単に視聴可能とすることができる。
最後にインデクシング方法を実現するインデクシング装置のハードウェア構成の一例を説明する。
図24は、インデクシング方法を実現するインデクシング装置のハードウェア構成の一例である。図24に示すとおり、本発明インデクシング方法を実現するインデクシング装置は、中央処理装置2401と、動画入力装置2402と、記憶装置2403を有して構成される。そして、各装置は、バス2404によって接続され、各装置間で、相互にデータの送受信が可能なように構成されている。
動画入力装置2402は、記憶装置2403に記憶されている動画データを入力したり、ネットワーク経由で動画データを入力する場合には、図示しないLANカード等のネットワークカードから動画データを取得する。
記憶装置2403は、例えばランダムアクセスメモリ(RAM)やリードオンリーメモリ(ROM)、ハードディスクやDVD、CDとそれらのドライブ、あるいはフラッシュメモリ等の不揮発性メモリやiVDR等のリムーバブルハードディスク等により構成され、中央処理装置2401によって実行されるプログラムや本インデクシング方法において必要となるデータ、あるいは動画データ等を格納する。
中央処理装置2401は、マイクロプロセッサを主体に構成されており、記憶装置2403に格納されているプログラムを実行する。 本構成において、前述したインデクシング方法における処理部(図1、図12、あるいは図19における各処理部)を中央処理装置2401によって実行されるプログラムとして構成することによって、本発明のインデクシング方法を実現するインデクシング装置を実現可能となる。例えば、図24に示す、各プログラム2413、2423,2433,2443,2453,及び2463や、定型句キーワード辞書2414や対定型句提示キーワード辞書2424が記憶装置2403に格納される。中央処理装置2401がプログラムそれぞれを呼び出し、図1,12あるいは図19の各処理部を構成してもよい。なお、上記では、前述したインデクシング方法における処理部(図1、図12、あるいは図19における各処理部)を中央処理装置2401によって実行されるプログラムとして実現する例を説明したが、それぞれの処理部がハードウェアによって構成されても良いことはいうまでもない。 上述した種々の実施形態によると、動画のシーンに対するキーワードを抽出するに当たり、辞書データの容量を小さくし、当該辞書データの保持に有するメモリ量を可能な限り削減すると共に、当該辞書データの人手による更新を不要とする、動画データのシーンに対してキーワードを付与したシーンインデクシングデータを生成することが可能となる。また、動画データのシーンにキーワードを付すと共に、当該キーワードとともに、再生位置を提示するユーザインターフェースを提供することにより、ユーザのシーン選択をより容易に行うことが可能となる。
インデクシング装置と動画再生装置を別々の装置で構成される例を説明したが、ひとつの装置に、インデクシング処理と再生処理とを備えるように構成してもよい。
101…動画シーン文字データ入力処理部、105…動画ジャンル判別処理部、104…定型句キーワード辞書入力処理部、102…シーン文字列符号化処理部、106…対定型句提示キーワード辞書入力処理部、103…シーンインデクシング処理部、107…定型句キーワード辞書1、108…定型句キーワード辞書N、109…対定型句提示キーワード辞書1、110…対定型句提示キーワード辞書N、901…動画入力処理部、902…インデクシングデータ入力処理部、903…キーワードリスト提示処理部、904…キーワード入力処理部、905…シーン再生処理部、1201…動画情報入力処理部、1202…動画固有辞書生成処理部

Claims (11)

  1. 動画データのインデクシングを行う動画インデクシング方法であって、該動画インデクシング方法は、動画シーンに関する文字データを入力する動画シーン文字データ入力ステップと、動画のジャンルを判別する動画ジャンル判別ステップと、該判別した動画ジャンルに固有な定型句キーワード辞書を入力する定型句キーワード辞書入力ステップと、該入力した定型句キーワード辞書と前記入力した動画シーン文字データを基に動画データのシーンに対する文字列を符号化することでシーン文字列符号化データを生成するシーン文字列符号化ステップと、前記定型句キーワード辞書に対して提示するキーワードを規定した辞書を入力する対定型句提示キーワード辞書入力ステップと、前記シーン文字列符号化データと前記入力した対定型句提示キーワード辞書に基づいて、動画データのシーンに対してインデクシングを行うことでシーンインデクシングデータを生成するシーンインデクシングステップを備え、容量の小さな辞書データ、かつ、該辞書データの人手による更新を不要として、動画データのシーンに対してキーワードを付与したシーンインデクシングデータを生成することを特徴とする動画インデクシング方法。
  2. 動画データのインデクシングを行う動画インデクシング方法であって、該動画インデクシング方法は、動画シーンに関する文字データを入力する動画シーン文字データ入力ステップと、動画のジャンルを判別する動画ジャンル判別ステップと、動画データの情報が記述された動画情報を入力する動画情報入力ステップと、該入力した動画情報を基に動画データに対して固有の辞書を生成する動画固有辞書生成ステップと、該生成した動画固有辞書と前記入力した動画シーン文字データを基に動画データのシーンに対する文字列を符号化することでシーン文字列符号化データを生成するシーン文字列符号化ステップと、該シーン文字列符号化データと前記生成した動画固有辞書に基づいて、動画データのシーンに対してインデクシングを行うことでシーンインデクシングデータを生成するシーンインデクシングステップを備え、容量の小さな辞書データ、かつ、該辞書データの人手による更新を不要として、動画データのシーンに対してキーワードを付与したシーンインデクシングデータを生成することを特徴とする動画インデクシング方法。
  3. 動画データのインデクシングを行う動画インデクシング方法であって、該動画インデクシング方法は、動画シーンに関する文字データを入力する動画シーン文字データ入力ステップと、動画のジャンルを判別する動画ジャンル判別ステップと、該判別した動画ジャンルに固有な定型句キーワード辞書を入力する定型句キーワード辞書入力ステップと、動画データの情報が記述された動画情報を入力する動画情報入力ステップと、該入力した動画情報を基に動画データに対して固有の辞書を生成する動画固有辞書生成ステップと、該生成した動画固有辞書と、前記入力した定型句キーワード辞書と、前記入力した動画シーン文字データを基に動画データのシーンに対する文字列を符号化することでシーン文字列符号化データを生成するシーン文字列符号化ステップと、前記定型句キーワード辞書に対して提示するキーワードを規定した辞書を入力する対定型句提示キーワード辞書入力ステップと、前記シーン文字列符号化データと前記生成した動画固有辞書と前記入力した対定型句提示キーワード辞書に基づいて、動画データのシーンに対してインデクシングを行うことでシーンインデクシングデータを生成するシーンインデクシングステップと、を備えることを特徴とする動画インデクシング方法。
  4. 請求項2及び請求項3に記載の動画インデクシング方法において、前記動画情報入力ステップは、動画データの情報が記載された動画情報として、動画データに付随のSI情報を入力することを特徴とする動画インデクシング方法。
  5. 請求項2及び請求項3に記載の動画インデクシング方法において、前記動画情報入力ステップは、動画データの情報が記載された動画情報として、動画データに関するメタデータを入力することを特徴とする動画インデクシング方法。
  6. 請求項1乃至請求項5に記載の動画インデクシング方法において、前記動画シーン文字データ入力ステップは、動画データに付随する字幕データの文字列を取得することを特徴とする動画インデクシング方法。
  7. 請求項1乃至請求項5に記載の動画インデクシング方法において、前記動画シーン文字データ入力ステップは、動画データの画像上にオーバーレイされたテロップ画像のOCR結果を入力することを特徴とする動画インデクシング方法。
  8. 請求項1乃至請求項5に記載の動画インデクシング方法において、前記動画シーン文字データ入力ステップは、動画データの音声の認識結果の文字列を入力することを特徴とする動画インデクシング方法。
  9. 請求項1乃至請求項5に記載の動画インデクシング方法において、前記動画シーン文字データ入力ステップは、動画データのメタデータを入力することを特徴とする動画インデクシング方法。
  10. 動画データを再生する動画再生装置であって、再生対象の動画データのシーンに対するキーワードを含むインデクシングデータを入力するインデクシングデータ入力処理部と、該入力したインデクシングデータに基づいて、シーンのキーワードリストを表示装置に出力するキーワードリスト出力処理部と、該出力されたキーワードリストの中から選択されたキーワードを入力するキーワード入力処理部と、該入力したキーワードと前記インデクシングデータから前記キーワードのシーンを取得して、該キーワードのシーンを再生するシーン再生処理部を備えることを特徴とする動画再生装置
  11. 請求項10に記載の動画再生装置において、さらに、再生位置を示す走行バーを表示装置に出力するバー出力処理部を備え、前記バー出力処理部は、キーワード入力処理部により、キーワードの入力を受けると、該選択されたキーワードの位置を前記走行バー上に表示することを特徴とする動画再生装置。
JP2009092572A 2009-04-07 2009-04-07 動画インデクシング方法及び動画再生装置 Withdrawn JP2010245853A (ja)

Priority Applications (3)

Application Number Priority Date Filing Date Title
JP2009092572A JP2010245853A (ja) 2009-04-07 2009-04-07 動画インデクシング方法及び動画再生装置
US12/729,847 US20100257156A1 (en) 2009-04-07 2010-03-23 Moving picture indexing method and moving picture reproducing device
CN201010159408A CN101859586A (zh) 2009-04-07 2010-04-06 动画索引附加方法以及动画再生装置

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2009092572A JP2010245853A (ja) 2009-04-07 2009-04-07 動画インデクシング方法及び動画再生装置

Publications (1)

Publication Number Publication Date
JP2010245853A true JP2010245853A (ja) 2010-10-28

Family

ID=42827038

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2009092572A Withdrawn JP2010245853A (ja) 2009-04-07 2009-04-07 動画インデクシング方法及び動画再生装置

Country Status (3)

Country Link
US (1) US20100257156A1 (ja)
JP (1) JP2010245853A (ja)
CN (1) CN101859586A (ja)

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2014002728A1 (ja) * 2012-06-27 2014-01-03 シャープ株式会社 録画装置、テレビジョン受信機及び録画方法
JP2014096776A (ja) * 2012-11-12 2014-05-22 Samsung R&D Institute Japan Co Ltd チャプタ設定装置
JP2015503131A (ja) * 2011-09-12 2015-01-29 インテル・コーポレーション ビデオストリーム及び他のコンテンツのキーワードベースの非線形ナビゲーションの方法及び装置
WO2015033448A1 (ja) * 2013-09-06 2015-03-12 株式会社 東芝 電子機器、電子機器の制御方法、及び制御プログラム

Families Citing this family (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN105589816B (zh) * 2015-12-16 2018-05-08 厦门优芽网络科技有限公司 编译式情景交互动画制作与播放方法
CN106649426A (zh) * 2016-08-05 2017-05-10 浪潮软件股份有限公司 一种数据分析方法和数据分析平台以及服务器
US11468097B2 (en) * 2018-11-26 2022-10-11 IntellixAI, Inc. Virtual research platform
CN111652678B (zh) * 2020-05-27 2023-11-14 腾讯科技(深圳)有限公司 物品信息显示方法、装置、终端、服务器及可读存储介质

Family Cites Families (12)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR100988153B1 (ko) * 2002-03-29 2010-10-18 소니 주식회사 정보 검색 시스템, 정보 처리 장치 및 방법, 정보 검색장치 및 방법
JP4349277B2 (ja) * 2004-12-24 2009-10-21 株式会社日立製作所 動画再生装置
US7110605B2 (en) * 2005-02-04 2006-09-19 Dts Az Research, Llc Digital intermediate (DI) processing and distribution with scalable compression in the post-production of motion pictures
US8156114B2 (en) * 2005-08-26 2012-04-10 At&T Intellectual Property Ii, L.P. System and method for searching and analyzing media content
BRPI0708456A2 (pt) * 2006-03-03 2011-05-31 Koninkl Philips Electronics Nv método para prover um sumário de diversas imagens, dispositivo adaptado para gerar um sumário de diversas imagens, sistema, código de programa executável por computador, e, portador de dados
CN102685533B (zh) * 2006-06-23 2015-03-18 图象公司 对2d电影进行转换用于立体3d显示的方法和系统
JP2008022292A (ja) * 2006-07-13 2008-01-31 Sony Corp 出演者情報検索システム、出演者情報取得装置、出演者情報検索装置、および、その方法ならびにプログラム
US20080046819A1 (en) * 2006-08-04 2008-02-21 Decamp Michael D Animation method and appratus for educational play
CN1909641A (zh) * 2006-08-09 2007-02-07 门得扬科技股份有限公司 多媒体同步播放的编辑系统及方法
JP4861845B2 (ja) * 2007-02-05 2012-01-25 富士通株式会社 テロップ文字抽出プログラム、記録媒体、方法及び装置
JP2009004872A (ja) * 2007-06-19 2009-01-08 Buffalo Inc ワンセグ放送受信装置、ワンセグ放送受信方法、およびワンセグ放送受信プログラムを記録した媒体
CN101137152B (zh) * 2007-09-27 2010-09-15 腾讯科技(深圳)有限公司 一种在移动即时通信中交互三维动画的方法、系统及设备

Cited By (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2015503131A (ja) * 2011-09-12 2015-01-29 インテル・コーポレーション ビデオストリーム及び他のコンテンツのキーワードベースの非線形ナビゲーションの方法及び装置
US9407892B2 (en) 2011-09-12 2016-08-02 Intel Corporation Methods and apparatus for keyword-based, non-linear navigation of video streams and other content
WO2014002728A1 (ja) * 2012-06-27 2014-01-03 シャープ株式会社 録画装置、テレビジョン受信機及び録画方法
JP2014030180A (ja) * 2012-06-27 2014-02-13 Sharp Corp 録画装置、テレビジョン受信機及び録画方法
JP2014096776A (ja) * 2012-11-12 2014-05-22 Samsung R&D Institute Japan Co Ltd チャプタ設定装置
WO2015033448A1 (ja) * 2013-09-06 2015-03-12 株式会社 東芝 電子機器、電子機器の制御方法、及び制御プログラム

Also Published As

Publication number Publication date
US20100257156A1 (en) 2010-10-07
CN101859586A (zh) 2010-10-13

Similar Documents

Publication Publication Date Title
JP4905103B2 (ja) 動画再生装置
US7979879B2 (en) Video contents display system, video contents display method, and program for the same
US20070027844A1 (en) Navigating recorded multimedia content using keywords or phrases
US20090129749A1 (en) Video recorder and video reproduction method
JP2010245853A (ja) 動画インデクシング方法及び動画再生装置
CN101422041A (zh) 基于因特网搜索的电视
JP2007150724A (ja) 映像視聴支援システムおよび方法
JP4550725B2 (ja) 映像視聴支援システム
JP2010507316A (ja) エンコード方法及び装置並びにデコード方法及び装置
TWI317937B (en) Storage medium including metadata and reproduction apparatus and method therefor
JP2009118168A (ja) 番組録画再生装置、および、番組録画再生方法
JP2006115052A (ja) コンテンツ検索装置とその入力装置、コンテンツ検索システム、コンテンツ検索方法、プログラム及び記録媒体
KR20080082149A (ko) 텍스트 기반 자막 변경 방법 및 장치
JP4019085B2 (ja) 番組録画装置、番組録画方法および番組録画プログラム
JP2007267259A (ja) 画像処理装置およびファイル再生方法
JP4929128B2 (ja) 録画再生装置
KR20050012101A (ko) 시나리오를 기록한 정보저장매체, 기록장치 및 기록방법,그 정보저장매체의 재생장치 및 시나리오의 검색방법
KR100937416B1 (ko) Pvr 장치 및 방법
JPH11184867A (ja) 映像情報検索再生方法ならびに装置及び同方法がプログラムされ記録される記録媒体
US20150074113A1 (en) Electronic apparatus, method for controlling electronic apparatus, and information recording medium
JP4882687B2 (ja) 録画番組管理装置
JP2009171480A (ja) 映像記録再生装置及び映像再生装置
JP4998090B2 (ja) 映像コンテンツ再生装置および映像コンテンツ再生方法
JP6535630B2 (ja) 電子機器および映像再生方法
JP2006332765A (ja) コンテンツ検索・再生方法、コンテンツ検索・再生装置、並びにプログラムおよび記録媒体

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20120112

A761 Written withdrawal of application

Free format text: JAPANESE INTERMEDIATE CODE: A761

Effective date: 20120731