JPH10234004A - Time-varying image display device and display method - Google Patents
Time-varying image display device and display methodInfo
- Publication number
- JPH10234004A JPH10234004A JP9033490A JP3349097A JPH10234004A JP H10234004 A JPH10234004 A JP H10234004A JP 9033490 A JP9033490 A JP 9033490A JP 3349097 A JP3349097 A JP 3349097A JP H10234004 A JPH10234004 A JP H10234004A
- Authority
- JP
- Japan
- Prior art keywords
- face
- video
- predetermined
- moving image
- unit
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
Landscapes
- Image Processing (AREA)
- Television Signal Processing For Recording (AREA)
- Image Analysis (AREA)
- Processing Or Creating Images (AREA)
Abstract
Description
【0001】[0001]
【発明の属する技術分野】本発明は動画像表示装置およ
び表示方法に係り、特に所定の長さの動画像をシーンの
変化等に応じて複数の場面に区分し、その場面中に登場
する人物の所定の映像を登場回数と共に分類することが
できるようにした動画像表示装置および表示方法に関す
る。BACKGROUND OF THE INVENTION 1. Field of the Invention The present invention relates to a moving image display device and a display method, and more particularly to a method for dividing a moving image having a predetermined length into a plurality of scenes according to scene changes and the like. The present invention relates to a moving image display device and a display method capable of classifying a predetermined video together with the number of appearances.
【0002】[0002]
【従来の技術】近年の衛星放送、ケーブルテレビジョン
放送の普及などに伴い、一般家庭においても視聴可能な
映像チャンネル数は増加の一途をたどっている。また、
従来のビデオテープやレーザーディスクなどの映像記録
媒体に加えて、映像や音声の情報をディジタルデータと
して記録再生できるDVD(Digital Versatile Disc)
も1996年には製品化され、一般的なユーザが大量の
映像メディアにアクセスできる環境は充実しつつあると
いってよい。2. Description of the Related Art With the spread of satellite broadcasting and cable television broadcasting in recent years, the number of video channels that can be viewed in ordinary households is steadily increasing. Also,
DVD (Digital Versatile Disc) that can record and reproduce video and audio information as digital data in addition to conventional video recording media such as video tapes and laser disks
It was commercialized in 1996, and it can be said that the environment in which general users can access a large amount of video media is improving.
【0003】その一方で、それら大量の映像の中からユ
ーザがアクセスしたいと望んでいる目的の映像に効率よ
くアクセスできる技術の提供は従前のままである。例え
ば、テレビの視聴者は、新聞などに掲載される番組欄を
参照してみたい映像(番組)を選択したり、ビデオソフ
トパッケージを購入しようとする消費者はパッケージに
記載されているタイトルや出演者、あらすじなどを参照
して希望のビデオを選択する。これらは文字による映像
情報のテキスト記述であるが、映像のすべてに対して記
述がなされているわけでもなく、そのようにすべてに対
して記述をすることは大変な手間と時間を要するものと
なる。[0003] On the other hand, a technique for efficiently accessing a desired image desired by a user from such a large amount of images has not been provided. For example, a television viewer may select a video (program) that the user wants to refer to in a program column published in a newspaper or the like, and a consumer who wants to purchase a video software package may select a title, performer, Select the desired video by referring to the outline etc. These are text descriptions of video information in characters, but not all of the video is described, and such a description requires a lot of trouble and time. .
【0004】また、映像中のどの部分をみたいか、とい
う要求はユーザの個々によって当然異なっているはずな
ので、すべてのユーザに対して適用可能なテキスト記述
を作成することは不可能であり、また、もし作成できた
としても付加情報量の増大を招くために、主として放送
メディアなどの供給できる情報量に限界があるソースに
おいては実用化が難しいものとなる。このため、テレビ
視聴者はニュース番組中の特定の話題だけを視聴したい
場合であっても、番組の最初からテレビをスイッチオン
したままの状態で、自分が視聴したい話題が放映される
まで待ち続けなければならなかったり、別のニュース番
組で視聴した話題も繰り返し見させられたりして、著し
く時間の無駄となっている。[0004] Further, since the requirement of which part of the video the user wants to see must naturally differ for each user, it is impossible to create a text description applicable to all users. However, even if it can be created, it causes an increase in the amount of additional information, so that it is difficult to put it into practical use mainly in a source such as a broadcast medium which has a limited amount of information that can be supplied. For this reason, even if a TV viewer wants to watch only a specific topic in a news program, he / she keeps the TV switched on from the beginning of the program and waits until the topic he / she wants to watch is broadcast. It has to be had, and the topic watched on another news program has been repeatedly seen, which is a significant waste of time.
【0005】このように、情報メディアが飛躍的に進歩
しても映像アクセス環境が貧弱なままでは、近い将来、
ユーザが大量の映像情報にアクセスできる状況が実現し
た場合でも、その情報量をスムーズに享受できるとはい
えず、かえって情報量の多さに混乱するユーザが増える
懸念もある。[0005] As described above, if the video access environment remains poor even if the information media has advanced dramatically, in the near future,
Even when a situation in which a user can access a large amount of video information is realized, it cannot be said that the information amount can be enjoyed smoothly, and there is a concern that the number of users who are confused by the large amount of information increases.
【0006】[0006]
【発明が解決しようとする課題】本発明はユーザがディ
ジタル映像を視聴する際に、その映像データを構造化し
て表示することによって、ユーザが今見ている映像の全
体像をつかみやすくすることを目的とする。SUMMARY OF THE INVENTION An object of the present invention is to make it easy for a user to grasp the whole image of a video being viewed by structuring and displaying video data when the user watches a digital video. And
【0007】また、動画像に表現されている映像内容を
解析して映像中の顔領域を辞書により比較して判定し、
登場人物毎に登場回数を分類・計数することにより動画
像中に現れる人物を確認でき、迅速な検索を図ることを
目的としている。In addition, the contents of a video represented in a moving image are analyzed, and face areas in the video are compared and determined by a dictionary.
By classifying and counting the number of appearances for each character, it is possible to confirm the person appearing in the moving image, and to perform a quick search.
【0008】[0008]
【課題を解決するための手段】上記目的を達成するた
め、請求項1に係る動画像表示装置は、入力された動画
像を複数枚の静止画像として抽出する静止画像抽出手段
と、抽出された前記静止画像を1枚または任意の枚数よ
りなるショット毎に区分する画像区分手段と、前記画像
区分手段によって区分された各ショット毎に顔が撮影さ
れているか否かを判定する所定映像判定手段と、前記各
ショットに顔が存在すると判定された場合にこの顔が前
記動画像の中に既に撮影されているか否かを判定する所
定映像既出判定手段と、前記所定の英層を異なる映像毎
に分類すると共に前記動画像における各顔の登場回数を
計数する所定映像分類計数手段と、分類された前記各顔
と計数された前記各顔の登場回数に基づいて、前記動画
像の映像登場一覧を作成する映像登場一覧作成手段と、
を備えることを特徴としている。According to a first aspect of the present invention, there is provided a moving image display device for extracting a moving image as a plurality of still images, comprising: Image segmenting means for segmenting the still image into shots each consisting of one or an arbitrary number of images; and predetermined video judging means for judging whether or not a face has been shot for each shot segmented by the image segmenting means. A predetermined image existing determination means for determining whether a face has already been captured in the moving image when it is determined that a face exists in each of the shots, and the predetermined English layer for each different image A predetermined video classification and counting means for classifying and counting the number of appearances of each face in the moving image, and a video appearance list of the moving image based on the classified faces and the counted number of appearances of each face. And the video appeared list creating means for forming,
It is characterized by having.
【0009】請求項2に係る動画像表示装置は、請求項
1に係る動画像表示装置において、前記映像登場一覧作
成手段としての登場人物一覧作成手段が、上記登場人物
一覧表示を行なう際には登場回数順に並べ替えて出力す
ると共に、この並べ替えを行なわれて出力された登場人
物一覧を表示する表示手段をさらに備えることを特徴と
している。According to a second aspect of the present invention, in the moving image display device according to the first aspect, when the character list creating means as the video appearance list creating means performs the character list display, It is characterized by further comprising display means for rearranging and outputting in the order of the number of appearances, and displaying a list of characters which have been rearranged and output.
【0010】請求項3に係る動画像表示装置は、請求項
1に係る動画像表示装置において、前記画面区分手段と
しての場面分割部を用いた場面分割により分断された所
定単位の映像場面毎に、この場面内から1枚の静止画を
選び出す代表フレーム選択部と、上記映像登場一覧とし
ての登場人物一覧の表示の際に、該登場人物が登場した
映像場面の代表フレームを関連付けて、一覧表示画面に
同時に表示する表示部と、を備えることを特徴としてい
る。According to a third aspect of the present invention, there is provided the moving image display device according to the first aspect, wherein a predetermined unit of video scene divided by scene division using a scene dividing unit as the screen dividing means. In displaying a list of characters as the above-mentioned video appearance list, a representative frame selection unit for selecting one still image from this scene is associated with a representative frame of the video scene in which the character appeared, and displayed in a list. And a display unit that simultaneously displays the information on a screen.
【0011】請求項4に係る動画像表示装置は、請求項
3に係る動画像表示装置において、前記表示部に表示さ
れた前記一覧表示画面上の前記代表フレームを、利用者
が操作・指示することにより、この代表フレームが代表
する所定単位の場面から直接動画像を再生することがで
きる入力操作部を備えることを特徴としている。According to a fourth aspect of the present invention, in the moving image display device according to the third aspect, a user operates and instructs the representative frame on the list display screen displayed on the display unit. Accordingly, an input operation unit capable of reproducing a moving image directly from a predetermined unit of scene represented by the representative frame is provided.
【0012】請求項5に係る動画像表示方法は、所定の
時間的な長さを有して入力された動画像を連続する静止
画像として抽出すると共に、連続する静止画像を時間軸
上の所定単位に区分するステップと、前記区分された所
定単位の静止画像に人物の顔が含まれるか否かを判断す
るステップと、その所定単位の静止画像中に顔が含まれ
ているものと判断された場合に、その顔が始めてのもの
であるときに1つの項目として分類するステップと、前
記所定単位の静止画像中に含まれていた顔が既に分類さ
れて登録されている場合に、分類された顔の登場回数を
1つ加算するステップと、全ての所定単位の静止画像群
について顔の抽出動作を行なってその動画像における登
場人物一覧を作成するステップと、を備えることを特徴
としている。According to a fifth aspect of the present invention, in the moving image display method, a moving image input with a predetermined time length is extracted as a continuous still image, and the continuous still images are extracted on a time axis. A step of dividing the unit into units; a step of determining whether or not the classified predetermined unit of still image includes a human face; and determining that the face is included in the predetermined unit of still image. If the face is the first one, the face is classified as one item. If the face included in the still image of the predetermined unit is already classified and registered, the classification is performed. And a step of performing a face extraction operation on all the still image groups of a predetermined unit to create a list of characters in the moving image.
【0013】請求項6に係る動画像表示方法は、請求項
5に係る動画像表示方法において、前記連続する静止画
像を時間軸上の所定単位に区分するステップが、その所
定単位が表現している場面の代表的な画像を代表フレー
ムとして抽出・作成するステップを更に含むことを特徴
としている。According to a sixth aspect of the present invention, in the moving image display method according to the fifth aspect, the step of dividing the continuous still images into a predetermined unit on a time axis is performed by expressing the predetermined unit. The method further includes extracting and creating a representative image of a scene as a representative frame.
【0014】請求項7に係る動画像表示方法は、請求項
5に係る動画像表示方法において、前記登場人物を作成
するステップの前に、全ての所定単位についての処理が
行なわれたか否かを判断するステップが設けられている
ことを特徴としている。According to a seventh aspect of the present invention, in the moving image display method according to the fifth aspect, it is determined whether or not processing for all predetermined units has been performed before the step of creating the characters. The method is characterized in that a step of determining is provided.
【0015】[0015]
【発明の実施の形態】本発明の映像表示装置は、DVD
などランダムアクセス可能な映像記録再生装置と協調動
作して、付加的なユーザインタフェースを提供すること
を想定している。以下、本発明の実施形態に係る動画像
表示装置について添付図面を参照しながら詳細に説明す
る。BEST MODE FOR CARRYING OUT THE INVENTION A video display device according to the present invention
It is assumed that an additional user interface is provided by cooperating with a video recording / reproducing device capable of random access. Hereinafter, a moving image display device according to an embodiment of the present invention will be described in detail with reference to the accompanying drawings.
【0016】まず、本発明の第1実施形態に係る動画像
表示装置について図1を用いて説明する。図1におい
て、動画像表示装置は、入力された所定の長さの動画像
を複数枚の静止画像が時間的に連続するものとして、こ
れらの静止画像を抽出する静止画像抽出手段1と、抽出
された連続する前記静止画像を所定単位のショット毎に
区分する画像連続区分手段2と、前記連続画像区分手段
2によって区分された各ショット毎に人間の顔が撮影さ
れているか否かを判定する顔映像判定手段3と、前記各
ショットに顔が存在すると判定された場合にこの顔がこ
の所定長さの動画像の中に既に撮影されているか否かを
判定する顔既出判定手段4と、異なる顔毎に分類すると
共にこの所定長さの動画像における各顔の登場回数を計
数する顔分類計数手段5と、分類された前記各顔と計数
された前記各顔の登場回数に基づいて、前記動画像の登
場人物一覧を作成する登場人物一覧作成手段6と、を備
えており、この登場人物一覧作成手段6が出力する登場
人物データを受け入れて表示する表示手段7が設けられ
ていても良い。First, a moving image display device according to a first embodiment of the present invention will be described with reference to FIG. In FIG. 1, a moving image display device includes a still image extracting unit 1 for extracting a moving image of a predetermined length that has been input as a plurality of still images temporally continuous and extracting these still images. Continuous image dividing means 2 for dividing the continuous still images into shots of a predetermined unit, and determining whether or not a human face is photographed for each shot divided by the continuous image dividing means 2 A face image judging means 3, and a face appearance judging means 4 for judging whether or not this face has already been photographed in a moving image of this predetermined length when it is judged that a face exists in each of the shots; A face classification / counting unit 5 for classifying each face and counting the number of appearances of each face in the moving image having the predetermined length; and, based on each of the classified faces and the counted number of appearances of each face, Characters of the moving image The characters list generation means 6 to create a list, provided with a display means 7 for display to accept the character data output from the character list creating means 6 may be provided.
【0017】次に、第1実施形態に係る動画像表示装置
の更に詳細な構成を示す第2実施形態に係る動画像表示
装置について図2を参照しながら説明する。図2におい
て、図1の第1実施形態に係る動画像表示装置に示され
た構成要素と同一のものは、同一符号により表示するこ
とにより重複説明を省略している。第2実施形態に係る
動画像表示装置は、静止画像抽出部1と、画面連続区分
手段2としての場面分割部11と、前記画面連続区分手
段2を構成すると共に前記場面分割部11により分割さ
れた一纏まりの場面の中から代表フレームを選択する代
表フレーム選択部12と、顔映像判定手段3を構成する
顔探索部13と顔判定部14と、顔であるものと判定さ
れた映像がその動画像において既に検出されているか否
かを判定する顔既出判定部4と、判定された顔の各構成
要素(目,鼻,口等)を類似するクラスタ(集落)に分
類して複数の顔クラスタを作成する顔クラスタ作成部1
5と、作成された顔クラスタの分類を記憶するクラスタ
分類記憶部16と、前記顔判定部4により特定された顔
をカウントアップするカウントアップ部5と、クラスタ
分類記憶部より読み出された顔の分類とその顔の登場回
数とを頻出順に従い表示する表示画面17と、を備えて
いる。Next, a moving image display device according to a second embodiment showing a more detailed configuration of the moving image display device according to the first embodiment will be described with reference to FIG. In FIG. 2, the same components as those of the moving image display device according to the first embodiment of FIG. 1 are indicated by the same reference numerals, and duplicate explanations are omitted. The moving image display device according to the second embodiment comprises a still image extraction unit 1, a scene division unit 11 as a screen continuation division unit 2, and the screen continuation division unit 2 and is divided by the scene division unit 11. A representative frame selecting unit 12 for selecting a representative frame from a group of scenes, a face searching unit 13 and a face determining unit 14 constituting the face video determining unit 3, and a video determined to be a face is A face appearance determination unit 4 for determining whether or not a face has already been detected in a moving image; Face cluster creation unit 1 for creating a cluster
5, a cluster classification storage unit 16 for storing the classification of the created face cluster, a count-up unit 5 for counting up the face specified by the face determination unit 4, and a face read from the cluster classification storage unit. And a display screen 17 displaying the classification of the face and the number of appearances of the face in the order of appearance.
【0018】上記顔クラスタ作成部15とクラスタ分類
記憶部16とにより登場人物一覧作成手段6が構成され
ており、表示画面17により表示手段7が構成されてい
る。図3はこの第2実施形態に係る動画像表示装置の表
示例を示した概念図である。画面17内には、その映像
中で登場した人物が、登場回数順に順位を付されて並べ
られている。この画面には人物22に対して、その登場
回数の順位21とともに、その人物が登場したショット
の代表フレーム23が列挙されている。代表フレーム
は、カット検出によって場面の変わり目を検知し、カッ
トごとに区切られた区間をショットとして、ショットご
とに(たとえばショットの先頭フレームなど)1枚ずつ
の静止画像を代表フレームとするのが従来一般的な方法
であるが、本発明ではショット分割の手法および代表フ
レーム選択は限定しない。The face cluster creation unit 15 and the cluster classification storage unit 16 constitute a character list creation unit 6, and the display screen 17 constitutes a display unit 7. FIG. 3 is a conceptual diagram showing a display example of the moving image display device according to the second embodiment. In the screen 17, the persons who appeared in the video are arranged in order of the number of appearances. In this screen, a representative frame 23 of a shot in which the person appears is listed together with the rank 21 of the number of appearances for the person 22. Conventionally, a representative frame detects a transition of a scene by detecting a cut, and a section divided for each cut is taken as a shot, and one still image for each shot (for example, the first frame of the shot) is used as a representative frame. Although a general method, the present invention does not limit the shot division method and representative frame selection.
【0019】最も単純な方法として、映像を10秒ごと
に機械的に分割し、分割された各ショット内の5秒経過
時点の映像を代表フレームとする、などとしてもよい。
利用者は、代表フレーム23をマウスなどのポインティ
ング・デバイスで指示することにより、自分の目的の人
物22が登場している任意のショットから映像の本編を
見ることができる。As the simplest method, the video may be mechanically divided every 10 seconds, and the video at the time when 5 seconds have elapsed in each of the divided shots may be used as a representative frame.
By pointing the representative frame 23 with a pointing device such as a mouse, the user can view the main part of the video from any shot in which the target person 22 appears.
【0020】次に、上記構成を有する動画像表示装置を
用いて動画像を表示させる方法について、第3および第
4の実施形態に従って説明する。第3実施形態に係る動
画像表示方法は図2に示された第2実施形態に係る動画
像表示装置の処理動作に相当するものであり、その詳細
は図4に示されている。以下の説明においては、本発明
の第2実施形態に係る動画像表示装置が、以上の表示を
行なうための処理手順について、図4に基づいて説明す
る。図4は、本発明の映像表示装置の処理手順を示すフ
ローチャートである。動画像はまず場面分割ステップST
1によって処理単位であるショットに分けられる。ショ
ットの生成については、上述のように必ずしも映像中の
場面に即したものでなくてもよく、例えば、5秒、10
秒といった所定時間単位の機械的なものでも構わない。
以下の処理はショット単位に行なわれるものである。Next, a method for displaying a moving image using the moving image display device having the above configuration will be described with reference to third and fourth embodiments. The moving image display method according to the third embodiment corresponds to the processing operation of the moving image display device according to the second embodiment shown in FIG. 2, and the details are shown in FIG. In the following description, a processing procedure for performing the above display by the moving image display device according to the second embodiment of the present invention will be described with reference to FIG. FIG. 4 is a flowchart showing a processing procedure of the video display device of the present invention. For moving images, first, a scene division step ST
It is divided into shots as processing units by 1. The generation of the shot does not necessarily have to be based on the scene in the video as described above.
It may be a mechanical unit of a predetermined time unit such as seconds.
The following processing is performed for each shot.
【0021】ショット内のすべてのフレームは、フレー
ム内の画素領域(例えば、「20×20」画素)ごとに
顔領域が存在しているかを探索される(ステップST
2)。例えば、「20×20」画素の範囲などより成る
探索領域でフレーム内をスキャンし、また、探索領域自
体も複数の大きさでスキャンすることによって、そのフ
レーム内に顔が存在していたかどうかを探索する。All frames in the shot are searched for a face area for each pixel area (eg, “20 × 20” pixels) in the frame (step ST).
2). For example, by scanning the inside of a frame with a search area including a range of “20 × 20” pixels, and by scanning the search area itself with a plurality of sizes, it is determined whether a face exists in the frame. Explore.
【0022】ここで、顔の存在の有無の判定方法の一例
を説明する。図5は顔の判定方法を説明する概念図であ
る。以下では、探索領域として「20×20」画素を設
定した場合について説明する。この領域には400画素
を含んでいるので、各画素を座標値とした400次元の
超空間に「20×20」画素の映像を置くと1点として
表現される。あらかじめ顔であることがわかっている
「20×20」画素の映像を大量に用意して、この超空
間にプロットすると、ある偏りを持った分布になる。こ
の分布の中心位置(平均値)および共分散行列を計算す
ると、それを用いて分布の特徴量を固有ベクトルと固有
値で表現できる。Here, an example of a method for determining the presence or absence of a face will be described. FIG. 5 is a conceptual diagram illustrating a face determination method. Hereinafter, a case where “20 × 20” pixels are set as the search area will be described. Since this area includes 400 pixels, if an image of “20 × 20” pixels is placed in a 400-dimensional superspace in which each pixel has coordinate values, it is expressed as one point. When a large amount of “20 × 20” pixel images that are known to be faces in advance are prepared and plotted in this superspace, a distribution having a certain bias is obtained. When the center position (average value) and the covariance matrix of the distribution are calculated, the feature amount of the distribution can be expressed by using the eigenvector and the eigenvalue.
【0023】この固有ベクトルを、対応する固有値が大
きいものから順に適切な数量選別すると、選別された複
数の固有ベクトルによって張られる部分空間(超平面)
は、「顔らしい」広がりを代表する超平面といえる。こ
れを固有顔空間と称し、図5においては34として示し
ている。未知の「20×20」画素の画像31が入力さ
れたときに、この超空間内での固有顔空間34への距離
32を観測し、この距離32が設定された閾値以下であ
ったときに、この「20×20」画素の領域を顔であっ
たと判断すればよい。When the eigenvectors are appropriately sorted in descending order of corresponding eigenvalues, a subspace (hyperplane) spanned by the selected eigenvectors
Can be said to be a hyperplane that represents the "face-like" spread. This is called an eigenface space, and is shown as 34 in FIG. When an image 31 of unknown “20 × 20” pixels is input, a distance 32 to the unique face space 34 in this hyperspace is observed, and when the distance 32 is equal to or less than a set threshold value. The area of “20 × 20” pixels may be determined to be a face.
【0024】一方、この固有顔空間34内でも、同一人
物から生成された特徴点は近い範囲に分布しており、ク
ラスタ化することができる。これを図5においてはクラ
スタ35として示している。すでに人別のクラスタ35
が生成されていたとき、上述の未知画像31を固有顔空
間34に射影した点37と、既知顔クラスタの中心点3
6と距離33を計算して、その距離33が設定された閾
値以下であったときには、この「20×20」画素の領
域は306を含む既知顔と同じ人物であったと判定され
る。On the other hand, also in the unique face space 34, feature points generated from the same person are distributed in a close range and can be clustered. This is shown as a cluster 35 in FIG. Already a personal cluster 35
Is generated, a point 37 at which the above-described unknown image 31 is projected onto the unique face space 34 and a center point 3 of the known face cluster
6 and the distance 33 are calculated, and when the distance 33 is equal to or smaller than the set threshold value, it is determined that the area of “20 × 20” pixels is the same person as the known face including 306.
【0025】以上の距離計算は、単純に各座標値の差の
2乗和の平方根をとるユークリッド距離でもよいし、既
知顔クラスタ35の共分散行列を考慮に入れたマハラノ
ビス距離でもよい。本発明に係る動画像表示装置および
表示方法は、このような距離計算方法によって効果が限
定されるものではない。The above distance calculation may be simply the Euclidean distance taking the square root of the sum of squares of the difference between the coordinate values, or the Mahalanobis distance taking the covariance matrix of the known face cluster 35 into consideration. The effects of the moving image display device and the display method according to the present invention are not limited by such a distance calculation method.
【0026】さて、図4に戻り処理手順の説明を続ける
と、ステップST2においてショット内のフレームに顔が
存在することが調査判定された場合、次に判断ステップ
ST3において上述した手法などを用いて、その顔がショ
ット内のフレームに含まれていたか否かが判断される。
ステップST3においてフレーム内に含まれていたものと
判断された場合には、そその顔が着目している映像中で
すでに登場している顔であるかどうかがステップST4に
おいて判別される。Now, returning to FIG. 4, the description of the processing procedure will be continued. If it is determined in step ST2 that a face exists in a frame within a shot, it is determined in the next step.
In ST3, it is determined whether or not the face is included in the frame in the shot using the above-described method or the like.
If it is determined in step ST3 that the face is included in the frame, it is determined in step ST4 whether the face is a face that has already appeared in the video of interest.
【0027】ステップST4 において、もしもこの顔が初
登場であった場合、ステップST5において、ショット内
のその顔の領域映像を複数枚ピックアップし(ショット
内の映像の全てでもよい)、その顔のクラスタを作成す
る。このようにして、ステップST6のように、ショット
内の全ての顔について、登場回数を加算してゆく。In step ST4, if this face is the first appearance, in step ST5, a plurality of area images of the face in the shot are picked up (or all of the images in the shot), and the cluster of the face is picked up. Create Thus, as in step ST6, the number of appearances is added for all the faces in the shot.
【0028】この一連の処理がすべてのショットについ
て終了すると、顔別に登場回数のカウントが完了してい
る。すなわち、ステップST7においては、他のショット
についても人物の顔が含まれているか否か判断され、含
まれていなければステップST8において最後のショット
についての処理が終了したか否かが判断され、終了した
ものと判断された場合には処理ルーチンを終了する。も
しも、ステップST7において、他にも顔が含まれるもの
と判断された場合には、ステップST4に戻りステップST
6までの処理動作を繰り返すことになる。また、ステッ
プST8において最後のショットについての処理を終えて
いないものと判断された場合には、ステップST3に戻り
ステップST7までの動作を繰り返すことになる。When this series of processing is completed for all shots, the number of appearances has been counted for each face. That is, in step ST7, it is determined whether or not a person's face is included in other shots. If not, it is determined in step ST8 whether or not the processing for the last shot has been completed. If it is determined that the processing has been performed, the processing routine ends. If it is determined in step ST7 that another face is included, the process returns to step ST4 and returns to step ST4.
The processing operations up to 6 are repeated. If it is determined in step ST8 that the processing for the last shot has not been completed, the process returns to step ST3 and repeats the operations up to step ST7.
【0029】次に、図6を参照しながら本発明の第4実
施形態に係る動画図表示方法について説明する。この第
4実施形態に係る表示方法は、図1に示された第1実施
形態に係る動画像表示装置に対応するものである。図6
において、ステップST10では入力された動画像に対して
その動画像を構成する例えばフレームのような静止画像
を抽出する。動画像は抽出されたこれらの静止画像が所
定の時間的単位で連続しているものと考えることができ
る。Next, a moving picture diagram display method according to a fourth embodiment of the present invention will be described with reference to FIG. The display method according to the fourth embodiment corresponds to the moving image display device according to the first embodiment shown in FIG. FIG.
In step ST10, a still image such as a frame, which constitutes the moving image, is extracted from the input moving image. A moving image can be considered as a sequence of these extracted still images in a predetermined time unit.
【0030】ステップST11においては、連続する静止画
像を所定単位に区分する。この区分の仕方については、
一定の同一場面が連続するシーンを1つのショットとし
て区分しても良いし、一定の時間、例えば5秒間毎の静
止画像や10秒間毎の静止画像を無作為に1つの所定単
位としても良い。次に、ステップST12において、区分さ
れた所定単位の静止画像の中に人物の顔が含まれている
か否かが判断される。もしも人物の顔が含まれていない
ものと判断された場合には、次のショットについて処理
が進められる。In step ST11, a continuous still image is divided into predetermined units. For how to do this,
A scene in which a certain same scene continues may be classified as one shot, or a certain time, for example, a still image every 5 seconds or a still image every 10 seconds may be randomly set as one predetermined unit. Next, in step ST12, it is determined whether or not the face of the person is included in the divided still images of the predetermined unit. If it is determined that a person's face is not included, the process proceeds to the next shot.
【0031】ステップST12において、所定単位の画像中
に人物の顔が含まれているものと判断された場合には、
ステップST13において、以前に処理したショットの中に
現れた人物の顔であるか否かが判断される。前のショッ
トには現れておらず初めてでてきた顔である場合には、
ステップST15においてその顔を分類項目の1つとして1
回登場してきたものとして分類し、ステップST14を経て
次のショットについての処理を行なう。ステップST13に
おいて、以前の処理により既に分類されて登録されてい
る顔であるものと判断された場合には、ステップST16に
おいて、分類登録されている顔の登場回数を1回カウン
トアップして次のステップST17へと処理を進める。In step ST12, when it is determined that the image of the predetermined unit includes the face of the person,
In step ST13, it is determined whether or not the face is a person's face that has appeared in a previously processed shot. If this is your first face that has not appeared in the previous shot,
In step ST15, the face is set as one of the classification items.
It is classified as having appeared once, and the process for the next shot is performed via step ST14. If it is determined in step ST13 that the face is already classified and registered by the previous process, in step ST16, the number of appearances of the classified and registered face is counted up once and the next The process proceeds to step ST17.
【0032】ステップST17においては、最後の所定単位
すなわちショットであるか否かが判断され、最後のショ
ットであるものと判断された場合には、ステップST18に
おいて、その所定長さの動画像中に登場する人物の一覧
がその回数と共に作成されて例えば表示画面17上に表
示される。ステップST17において、最後のショットでは
ないものと判断された場合にはステップST14に戻り、以
後の処理動作を繰り返し行なうことになる。In step ST17, it is determined whether or not the shot is the last predetermined unit, that is, a shot. If it is determined that the shot is the last shot, in step ST18, a moving image having the predetermined length is included in the moving image. A list of appearing characters is created along with the number of times, and displayed on the display screen 17, for example. If it is determined in step ST17 that the shot is not the last shot, the process returns to step ST14, and the subsequent processing operations are repeated.
【0033】なお、上記の説明では登場する人物の顔が
初めて現れる場合に限ってクラスタの作成を行なってい
たが、本発明はこれには限定されず、人物の顔が2回目
以降の登場であった場合にも、クラスタを作り直して、
常に更新された新しいクラスタに登場回数をカウントア
ップして表示するようにしても良い。このようにするこ
とにより、表示画面17に表示されている顔は一番最後
に現れた顔であることになり、逆検索を行なう際に好都
合であるという特有の効果がある。In the above description, clusters are created only when the face of a person appears for the first time. However, the present invention is not limited to this, and the face of a person may appear after the second appearance. If so, recreate the cluster,
The number of appearances may be counted up and displayed in a constantly updated new cluster. By doing so, the face displayed on the display screen 17 is the face that appears last and has a unique effect that it is convenient when performing a reverse search.
【0034】[0034]
【発明の効果】以上説明したように、本発明の映像表示
装置によれば、利用者は所定の長さの動画像の全体の構
造を把握しながら、特に登場人物に関する所望の映像だ
けを選択的に見ることが可能となり、映像検索に要する
時間を大幅に短縮できるという効果を奏する。As described above, according to the video display apparatus of the present invention, the user can select only a desired video, especially regarding characters, while grasping the entire structure of a moving image of a predetermined length. This makes it possible to significantly reduce the time required for video search.
【0035】また、大量の動画像データに対しても検索
のための無駄時間をかけることなく所望の人物が登場す
るシーンを繰り返し同じ映像を見ることなく1回ずつ視
聴することができ、大量情報化社会に対して検索時間を
節約し重複視聴時間を省いて迅速に対応できるという効
果もある。Also, even for a large amount of moving image data, a scene in which a desired person appears can be viewed one by one without repeatedly viewing the same image without wasting time for searching. There is also an effect that search time can be saved and a duplicated viewing time can be saved and a quick response can be made to an evolving society.
【図1】本発明の第1実施形態に係る動画像表示装置の
基本構成を示すブロック構成図である。FIG. 1 is a block diagram showing a basic configuration of a moving image display device according to a first embodiment of the present invention.
【図2】本発明の第2実施形態に係る動画像表示装置の
詳細な構成を示すブロック構成図である。FIG. 2 is a block diagram showing a detailed configuration of a moving image display device according to a second embodiment of the present invention.
【図3】本発明の第2実施形態に係る動画像表示装置の
表示画面上の表示例を説明する概念図である。FIG. 3 is a conceptual diagram illustrating a display example on a display screen of a moving image display device according to a second embodiment of the present invention.
【図4】本発明の第3実施形態に係る動画像表示方法に
おける処理手順を説明するフローチャートである。FIG. 4 is a flowchart illustrating a processing procedure in a moving image display method according to a third embodiment of the present invention.
【図5】本発明の第3実施形態における動画像表示方法
における処理手順を説明するための概念図である。FIG. 5 is a conceptual diagram for describing a processing procedure in a moving image display method according to a third embodiment of the present invention.
【図6】本発明の第4実施形態に係る動画像表示方法の
処理手順を示すフローチャートである。FIG. 6 is a flowchart illustrating a processing procedure of a moving image display method according to a fourth embodiment of the present invention.
1 静止画像抽出手段 2 画像連続区分手段 3 顔映像判定手段 4 顔移出判定手段 5 顔分類計数手段 6 登場人物一覧作成手段 7 表示手段 11 場面分割部 12 代表フレーム選択部 13 顔探索部 14 顔判定部 15 顔クラスタ作成部 16 クラスタ分類記録部 17 表示画面 21 登場人物の登場順位 22 登場人物 23 登場人物の出演ショットの代表フレーム 34 固有顔空間 35 クラスタ DESCRIPTION OF SYMBOLS 1 Still image extraction means 2 Image continuation division means 3 Face image judgment means 4 Face transfer judgment means 5 Face classification counting means 6 Character list creation means 7 Display means 11 Scene division unit 12 Representative frame selection unit 13 Face search unit 14 Face judgment Unit 15 face cluster creation unit 16 cluster classification recording unit 17 display screen 21 appearance order of characters 22 characters 23 representative frames of appearance shots of characters 34 unique face space 35 cluster
───────────────────────────────────────────────────── フロントページの続き (72)発明者 窪 田 進 神奈川県川崎市幸区小向東芝町1 株式会 社東芝研究開発センター内 ────────────────────────────────────────────────── ─── Continuing on the front page (72) Inventor Susumu Kubota 1 Toshiba R & D Center, Komukai Toshiba-cho, Saiwai-ku, Kawasaki-shi, Kanagawa
Claims (7)
て抽出する静止画像抽出手段と、 抽出された前記静止画像を1枚または任意の枚数の画像
よりなるショット毎に区分する画像区分手段と、 前記画像区分手段によって区分された各ショット毎に所
定の映像が撮影されているか否かを判定する所定映像判
定手段と、 前記各ショットの中に所定の映像が存在すると判定され
た場合に、この所定の映像が前記動画像の中の何れかに
既に撮影されているか否かを判定する所定映像既出判定
手段と、 前記所定の映像を異なる映像毎に分類すると共に、前記
動画像における各所定の映像の登場回数を計数する所定
映像分類計数手段と、 分類された前記各所定の映像と計数された前記各所定の
映像の登場回数に基づいて、前記動画像の映像登場一覧
を作成する映像登場一覧作成手段と、 を備えることを特徴とする動画像表示装置。1. A still image extracting means for extracting an input moving image as a plurality of still images, and an image dividing means for dividing the extracted still images into shots each consisting of one or an arbitrary number of images. A predetermined video determining unit that determines whether or not a predetermined video is shot for each shot divided by the image partitioning unit; and when it is determined that the predetermined video exists in each of the shots, A predetermined-video-presence determining means for determining whether or not the predetermined video has already been captured in any of the moving images; and classifying the predetermined video into different videos, and A predetermined video classification and counting means for counting the number of appearances of the predetermined video; and a video appearance list of the moving image based on the classified predetermined video and the counted appearance of each predetermined video. Moving image display device characterized by comprising a video appeared list creating means for creating.
物一覧作成手段は、登場人物一覧表示を行なう際には登
場回数順に並べ替えて出力すると共に、この並べ替えが
行なわれて出力された登場人物一覧を表示する表示手段
をさらに備えることを特徴とする請求項1に記載の動画
像表示装置。2. A character list creating means as the video appearance list creating means, when displaying a character list, sorts and outputs the order in the number of appearances, and outputs the sorted and output characters. The moving image display device according to claim 1, further comprising a display unit that displays a person list.
いた場面分割により分断された所定単位の映像場面毎
に、この場面内から1枚の静止画を選び出す代表フレー
ム選択部と、上記映像登場一覧としての登場人物一覧を
表示する際に、該登場人物が登場した映像場面の代表フ
レームを関連付けて、一覧表示画面に同時に表示する表
示部と、を備えることを特徴とする請求項1に記載の動
画像表示装置。3. A representative frame selecting section for selecting one still image from a predetermined unit of video scene divided by scene division using a scene dividing section as the screen dividing means, and A display unit that, when displaying the character list as the character list, associates a representative frame of a video scene in which the character has appeared with the display unit and simultaneously displays the representative frame on the list display screen. The moving image display device according to the above.
上の前記代表フレームを、利用者が操作・指示すること
により、この代表フレームが代表する所定単位の場面か
ら直接動画像を再生することができる入力操作部を備え
ることを特徴とする請求項3に記載の動画像表示装置。4. A user operates and instructs the representative frame on the list display screen displayed on the display unit, thereby reproducing a moving image directly from a scene of a predetermined unit represented by the representative frame. The moving image display device according to claim 3, further comprising an input operation unit capable of performing the operation.
画像を連続する静止画像として抽出すると共に、連続す
る静止画像を時間軸上の所定単位に区分するステップ
と、 前記区分された所定単位の静止画像に人物の顔が含まれ
るか否かを判断するステップと、 その所定単位の静止画像中に顔が含まれているものと判
断された場合に、その顔が始めてのものであるときに1
つの項目として分類するステップと、 前記所定単位の静止画像中に含まれていた顔が既に分類
されて登録されている場合に、分類された顔の登場回数
を1つ加算するステップと、 全ての所定単位の静止画像群について顔の抽出動作を行
なってその動画像における登場人物一覧を作成するステ
ップと、 を備えることを特徴とする動画像表示方法。5. A step of extracting a moving image input with a predetermined time length as a continuous still image, and dividing the continuous still images into predetermined units on a time axis; Determining whether or not the face of the person is included in the obtained predetermined unit of still image. If it is determined that the face is included in the predetermined unit of still image, the face 1 when things are
Classifying as a single item, adding one to the number of appearances of the classified face when the face included in the predetermined unit of still image is already classified and registered, Performing a face extraction operation on a group of still images in a predetermined unit to create a list of characters in the moving image, and a method for displaying a moving image.
位に区分するステップにおいて、その所定単位が表現し
ている場面の代表的な画像を代表フレームとして抽出・
作成するステップを更に含むことを特徴とする請求項5
に記載の動画像表示方法。6. In the step of dividing the continuous still images into predetermined units on a time axis, a representative image of a scene represented by the predetermined unit is extracted as a representative frame.
The method of claim 5, further comprising the step of creating.
3. The moving image display method according to 1.
全ての所定単位についての処理が行なわれたか否かを判
断するステップが設けられていることを特徴とする請求
項5に記載の動画像表示方法。7. The method according to claim 1, wherein before the step of creating the characters,
The moving image display method according to claim 5, further comprising a step of determining whether or not processing has been performed for all predetermined units.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP03349097A JP3315888B2 (en) | 1997-02-18 | 1997-02-18 | Moving image display device and display method |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP03349097A JP3315888B2 (en) | 1997-02-18 | 1997-02-18 | Moving image display device and display method |
Publications (2)
Publication Number | Publication Date |
---|---|
JPH10234004A true JPH10234004A (en) | 1998-09-02 |
JP3315888B2 JP3315888B2 (en) | 2002-08-19 |
Family
ID=12388009
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP03349097A Expired - Fee Related JP3315888B2 (en) | 1997-02-18 | 1997-02-18 | Moving image display device and display method |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP3315888B2 (en) |
Cited By (21)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US6602297B1 (en) | 1998-12-05 | 2003-08-05 | Lg Electronics Inc. | Motional video browsing data structure and browsing method therefor |
US7075591B1 (en) | 1999-09-22 | 2006-07-11 | Lg Electronics Inc. | Method of constructing information on associate meanings between segments of multimedia stream and method of browsing video using the same |
JP2006244279A (en) * | 2005-03-04 | 2006-09-14 | Mitsubishi Electric Corp | Image-classifying device |
JP2007520010A (en) * | 2004-02-02 | 2007-07-19 | コーニンクレッカ フィリップス エレクトロニクス エヌ ヴィ | Continuous face recognition using online learning |
JP2009015672A (en) * | 2007-07-06 | 2009-01-22 | Mitsubishi Electric Corp | Face detector and face detecting method |
WO2009069831A1 (en) * | 2007-11-29 | 2009-06-04 | Kabushiki Kaisha Toshiba | Picture processing method and picture processing apparatus |
US7623688B2 (en) | 2002-09-13 | 2009-11-24 | Sony Corporation | Image recognition apparatus, image recognition processing method, and image recognition program |
JP2009278592A (en) * | 2008-05-19 | 2009-11-26 | Hitachi Ltd | Recording and reproducing device and method |
JP2010086414A (en) * | 2008-10-01 | 2010-04-15 | Canon Inc | Image processor, image processing method and program |
JP2010161644A (en) * | 2009-01-08 | 2010-07-22 | Nikon Corp | Electronic camera |
US7991200B2 (en) | 2004-01-21 | 2011-08-02 | Fujifilm Corporation | Photographing apparatus, method and program |
JP2011221791A (en) * | 2010-04-09 | 2011-11-04 | Sony Corp | Face clustering device, face clustering method, and program |
JP2012054948A (en) * | 2011-09-26 | 2012-03-15 | Sony Corp | Information processing apparatus and method, and program |
WO2013099282A1 (en) * | 2011-12-28 | 2013-07-04 | パナソニック株式会社 | Content playback device and content playback method |
JP2014507699A (en) * | 2010-12-17 | 2014-03-27 | オーディブル・インコーポレイテッド | Schematic representation of the relationship between the referenced object and the story |
US8782563B2 (en) | 2006-07-04 | 2014-07-15 | Sony Corporation | Information processing apparatus and method, and program |
US8838121B2 (en) | 2009-06-11 | 2014-09-16 | Kabushiki Kaisha Toshiba | Image processing apparatus, method and computer-readable storage medium |
US8913834B2 (en) | 2007-08-02 | 2014-12-16 | Kabushiki Kaisha Toshiba | Acoustic signal corrector and acoustic signal correcting method |
US9105306B2 (en) | 2006-12-27 | 2015-08-11 | Nec Corporation | Identifying objects in images using object identity probabilities based on interframe distances |
US9436741B2 (en) | 2010-12-17 | 2016-09-06 | Audible, Inc. | Graphically representing associations between referents and stories |
KR20200019405A (en) * | 2018-08-14 | 2020-02-24 | 서강대학교산학협력단 | A shot character detection system and method thereof |
Families Citing this family (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2008017042A (en) | 2006-07-04 | 2008-01-24 | Sony Corp | Information processing apparatus and method, and program |
Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPH06187379A (en) * | 1992-03-24 | 1994-07-08 | Internatl Business Mach Corp <Ibm> | Retrieval of frame row of dynamic image |
JPH0738842A (en) * | 1993-06-29 | 1995-02-07 | Toshiba Corp | Dynamic image editing device |
JPH08339379A (en) * | 1995-06-12 | 1996-12-24 | Nippon Telegr & Teleph Corp <Ntt> | Method and device for analyzing video |
-
1997
- 1997-02-18 JP JP03349097A patent/JP3315888B2/en not_active Expired - Fee Related
Patent Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPH06187379A (en) * | 1992-03-24 | 1994-07-08 | Internatl Business Mach Corp <Ibm> | Retrieval of frame row of dynamic image |
JPH0738842A (en) * | 1993-06-29 | 1995-02-07 | Toshiba Corp | Dynamic image editing device |
JPH08339379A (en) * | 1995-06-12 | 1996-12-24 | Nippon Telegr & Teleph Corp <Ntt> | Method and device for analyzing video |
Cited By (36)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US6602297B1 (en) | 1998-12-05 | 2003-08-05 | Lg Electronics Inc. | Motional video browsing data structure and browsing method therefor |
US7075591B1 (en) | 1999-09-22 | 2006-07-11 | Lg Electronics Inc. | Method of constructing information on associate meanings between segments of multimedia stream and method of browsing video using the same |
US8234675B2 (en) | 1999-09-22 | 2012-07-31 | Lg Electronics Inc. | Method of constructing information on associate meanings between segments of multimedia stream and method of browsing video using the same |
US8234674B2 (en) | 1999-09-22 | 2012-07-31 | Lg Electronics Inc. | Method of constructing information on associate meanings between segments of multimedia stream and method of browsing video using the same |
US8006267B2 (en) | 1999-09-22 | 2011-08-23 | Lg Electronics Inc. | Method of constructing information on associate meanings between segments of multimedia stream and method of browsing video using the same |
US7623688B2 (en) | 2002-09-13 | 2009-11-24 | Sony Corporation | Image recognition apparatus, image recognition processing method, and image recognition program |
US8306285B2 (en) | 2004-01-21 | 2012-11-06 | Fujifilm Corporation | Photographing apparatus, method and program |
US9712742B2 (en) | 2004-01-21 | 2017-07-18 | Fujifilm Corporation | Photographic apparatus and method using human face detection |
US8948470B2 (en) | 2004-01-21 | 2015-02-03 | Fujifilm Corporation | Photographing apparatus, method and program |
US10110803B2 (en) | 2004-01-21 | 2018-10-23 | Fujifilm Corporation | Photographing apparatus, method and medium using image recognition |
US10462357B2 (en) | 2004-01-21 | 2019-10-29 | Fujifilm Corporation | Photographing apparatus, method and medium using image recognition |
US7991200B2 (en) | 2004-01-21 | 2011-08-02 | Fujifilm Corporation | Photographing apparatus, method and program |
US11153476B2 (en) | 2004-01-21 | 2021-10-19 | Fujifilm Corporation | Photographing apparatus, method and medium using image recognition |
US12101548B2 (en) | 2004-01-21 | 2024-09-24 | Fujifilm Corporation | Photographing apparatus, method and medium using image recognition |
US11716527B2 (en) | 2004-01-21 | 2023-08-01 | Fujifilm Corporation | Photographing apparatus, method and medium using image recognition |
JP2007520010A (en) * | 2004-02-02 | 2007-07-19 | コーニンクレッカ フィリップス エレクトロニクス エヌ ヴィ | Continuous face recognition using online learning |
JP2006244279A (en) * | 2005-03-04 | 2006-09-14 | Mitsubishi Electric Corp | Image-classifying device |
US8782563B2 (en) | 2006-07-04 | 2014-07-15 | Sony Corporation | Information processing apparatus and method, and program |
US9105306B2 (en) | 2006-12-27 | 2015-08-11 | Nec Corporation | Identifying objects in images using object identity probabilities based on interframe distances |
JP2009015672A (en) * | 2007-07-06 | 2009-01-22 | Mitsubishi Electric Corp | Face detector and face detecting method |
US8913834B2 (en) | 2007-08-02 | 2014-12-16 | Kabushiki Kaisha Toshiba | Acoustic signal corrector and acoustic signal correcting method |
JP2011505601A (en) * | 2007-11-29 | 2011-02-24 | 株式会社東芝 | Video processing method and video processing apparatus |
WO2009069831A1 (en) * | 2007-11-29 | 2009-06-04 | Kabushiki Kaisha Toshiba | Picture processing method and picture processing apparatus |
JP2009278592A (en) * | 2008-05-19 | 2009-11-26 | Hitachi Ltd | Recording and reproducing device and method |
US8285008B2 (en) | 2008-10-01 | 2012-10-09 | Canon Kabushiki Kaisha | Image processing apparatus, method and program for facilitating retrieval of an individual group using a list of groups, a list of selected group members and a list of members of the groups excluding the selected group members |
JP2010086414A (en) * | 2008-10-01 | 2010-04-15 | Canon Inc | Image processor, image processing method and program |
JP2010161644A (en) * | 2009-01-08 | 2010-07-22 | Nikon Corp | Electronic camera |
US8838121B2 (en) | 2009-06-11 | 2014-09-16 | Kabushiki Kaisha Toshiba | Image processing apparatus, method and computer-readable storage medium |
JP2011221791A (en) * | 2010-04-09 | 2011-11-04 | Sony Corp | Face clustering device, face clustering method, and program |
US9436741B2 (en) | 2010-12-17 | 2016-09-06 | Audible, Inc. | Graphically representing associations between referents and stories |
JP2014507699A (en) * | 2010-12-17 | 2014-03-27 | オーディブル・インコーポレイテッド | Schematic representation of the relationship between the referenced object and the story |
JP2012054948A (en) * | 2011-09-26 | 2012-03-15 | Sony Corp | Information processing apparatus and method, and program |
US9661292B2 (en) | 2011-12-28 | 2017-05-23 | Panasonic Intellectual Property Management Co., Ltd. | Content playback device and content playback method |
JPWO2013099282A1 (en) * | 2011-12-28 | 2015-04-30 | パナソニックIpマネジメント株式会社 | Content reproduction apparatus and content reproduction method |
WO2013099282A1 (en) * | 2011-12-28 | 2013-07-04 | パナソニック株式会社 | Content playback device and content playback method |
KR20200019405A (en) * | 2018-08-14 | 2020-02-24 | 서강대학교산학협력단 | A shot character detection system and method thereof |
Also Published As
Publication number | Publication date |
---|---|
JP3315888B2 (en) | 2002-08-19 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP3315888B2 (en) | Moving image display device and display method | |
US8311277B2 (en) | Method and system for video indexing and video synopsis | |
JP5005154B2 (en) | Apparatus for reproducing an information signal stored on a storage medium | |
US7979879B2 (en) | Video contents display system, video contents display method, and program for the same | |
KR100915847B1 (en) | Streaming video bookmarks | |
Pritch et al. | Nonchronological video synopsis and indexing | |
US7016540B1 (en) | Method and system for segmentation, classification, and summarization of video images | |
KR100411437B1 (en) | Intelligent news video browsing system | |
US8457469B2 (en) | Display control device, display control method, and program | |
JP3951556B2 (en) | How to select keyframes from selected clusters | |
Gong et al. | Video summarization and retrieval using singular value decomposition | |
US20120099793A1 (en) | Video summarization using sparse basis function combination | |
KR100374040B1 (en) | Method for detecting caption synthetic key frame in video stream | |
KR20040016906A (en) | Apparatus and method for abstracting summarization video using shape information of object, and video summarization and indexing system and method using the same | |
JP2006081020A (en) | Electronic album display system, method, and program | |
JPH1139343A (en) | Video retrieval device | |
CN1692373B (en) | Video recognition system and method | |
JPH02113790A (en) | Method for retrieving moving image | |
Ding et al. | A keyframe extraction method based on transition detection and image entropy | |
JP4949307B2 (en) | Moving image scene dividing apparatus and moving image scene dividing method | |
JPH0981306A (en) | Information processor | |
Dimitrova et al. | Selective video content analysis and filtering | |
CN1965369B (en) | Device and method for recording multimedia data | |
JP3196761B2 (en) | Video viewing device | |
Luo et al. | Photo-centric multimedia authoring enhanced by cross-media indexing |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20090607 Year of fee payment: 7 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20090607 Year of fee payment: 7 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20100607 Year of fee payment: 8 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20100607 Year of fee payment: 8 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20110607 Year of fee payment: 9 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20120607 Year of fee payment: 10 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20120607 Year of fee payment: 10 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20130607 Year of fee payment: 11 |
|
LAPS | Cancellation because of no payment of annual fees |