Nothing Special   »   [go: up one dir, main page]

JP2003178078A - Additional indicator data to image and voice data, and its adding method - Google Patents

Additional indicator data to image and voice data, and its adding method

Info

Publication number
JP2003178078A
JP2003178078A JP2001378313A JP2001378313A JP2003178078A JP 2003178078 A JP2003178078 A JP 2003178078A JP 2001378313 A JP2001378313 A JP 2001378313A JP 2001378313 A JP2001378313 A JP 2001378313A JP 2003178078 A JP2003178078 A JP 2003178078A
Authority
JP
Japan
Prior art keywords
data
image
sound
voice
tag
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2001378313A
Other languages
Japanese (ja)
Inventor
Koji Nishikawa
孝司 西川
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Panasonic Holdings Corp
Original Assignee
Matsushita Electric Industrial Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Matsushita Electric Industrial Co Ltd filed Critical Matsushita Electric Industrial Co Ltd
Priority to JP2001378313A priority Critical patent/JP2003178078A/en
Publication of JP2003178078A publication Critical patent/JP2003178078A/en
Pending legal-status Critical Current

Links

Landscapes

  • Information Retrieval, Db Structures And Fs Structures Therefor (AREA)
  • Television Signal Processing For Recording (AREA)
  • Television Systems (AREA)

Abstract

<P>PROBLEM TO BE SOLVED: To solve such problems that in some cases, it is difficult to represent the demand of the viewer side with a simple text with respect to the image and voice in an archive, and further it is very difficult to add a sensuous keyword such as 'interesting' and the like in the demand of a viewer, to a scene as the metadata. <P>SOLUTION: The indicator data obtained by automatically taking in and processing the viewer's biotic reaction to the image and voice, and correlating the same for every content such as the image and the voice, and every scene in the contents, is used besides the conventional metadata. Thereby, the viewer's biotic reaction to the image or the voice is automatically taken in and processed as the indicator data to be automatically correlated to every content and every scene in the contents. <P>COPYRIGHT: (C)2003,JPO

Description

【発明の詳細な説明】Detailed Description of the Invention

【0001】[0001]

【発明の属する技術分野】本発明は、画像および音声を
含むデータに関連付ける標識データとその加工方法に関
する。
BACKGROUND OF THE INVENTION 1. Field of the Invention The present invention relates to marker data associated with data including images and sounds and a method for processing the marker data.

【0002】[0002]

【従来の技術】地上波や衛星あるいはケーブルを使った
テレビ放送やラジオ放送、昨今ではインターネット上に
存在するホームページといったメディア上で様々な映像
や音声が放送あるいは配信されている。テレビやラジオ
では「放送される映像や音声などの内容そのもの」(こ
れをコンテンツと呼ぶ)は事前にそれを送出する事業者
側で決められている。もちろん季節や、時流、あるいは
その時期、特に人々の関心を惹くことになった事柄を事
業者が敏感に察知することなどで、直前に最も適した送
出内容を選別し、視聴者の好みに合ったコンテンツを送
出することは可能であり、現実に行われている。しかし
ながら、それは不特定多数に存在する視聴者の集団に対
しての好みを推測し、適合させるように選別を行ってい
るのであり、完全な個人に対して、個別な好みや要望に
対して対応しているわけではない。
2. Description of the Related Art Various images and sounds are broadcast or distributed on media such as television broadcasts and radio broadcasts using terrestrial waves, satellites or cables, and homepages currently on the Internet these days. In television and radio, the “contents themselves such as video and audio to be broadcast” (this is called content) is determined in advance by the business operator side that transmits it. Of course, the operator may be sensitive to the season, the time, or the time, especially the things that have attracted people's attention. It is possible, and is actually being done, to send out such content. However, it estimates the tastes of an unspecified number of viewers and selects them to match, and responds to perfect individuals and individual tastes and requests. I'm not.

【0003】これに対して最近の蓄積技術の発達と通信
技術の発達を受けて、完全な個人に対して個別な好みに
答えてコンテンツを送出しようという試みがなされるよ
うになってきた。その試みの一つとしてテレビエニータ
イム(TV Anytime、TVエニータイム)とい
うものがある。このテレビエニータイムについては例え
ば文献1としてあげる「日経エレクトロニクス2001
年4月23日号173ページ」や文献2としてあげる朝
日新聞ホームページ(URL:「 HYPERLINK "http://w
ww.asahi.com./science/waza/010521.html" http://ww
w.asahi.com./science/waza/010521.html」)などに開
示されている。テレビやラジオ局、スタジオなどに蓄積
されたコンテンツ(これをアーカイブと呼ぶ)が膨大な
量におよんでおり、今後ますます増大し多様化する。ま
た、視聴者の側も例えばスポーツと言っても、国内野球
や相撲と言ったいずれの世代にも人気のあるものから、
米国大リーグやサッカーなど、視聴者の好みも多様化し
ている。そんな中、テレビ局やラジオ局が、視聴者の好
みや要求を的確に推測し、最も適したコンテンツを送出
することは難しい。また視聴者それぞれが好み、要求す
る内容が異なるため、元来、それにあった100%応え
るコンテンツの送出は無理である。そこでこの技術は、
視聴者がその時の希望にあわせて自由に最適なコンテン
ツを呼び出すために考えられた仕組みであり、現在その
実用化に向けて開発が行われているのである。特にこの
技術はアーカイブデータの中の個別のコンテンツに、映
像・音声情報とは別にその中にどういうシーンを含むか
というテキスト形式のIDを付与し、これを使って、視
聴者が好みのコンテンツを選択、呼び出すよう考えられ
ている。(この様な映像あるいは音声などのコンテンツ
本来のデータとは別に付加される、コンテンツに対する
情報を与えるデータのことを「メタデータ」と呼ぶ。)
それについて文献2本文6行目以下では以下の様に開示
されている『例えば、深夜に帰宅して録画したプロ野球
を見る。巨人戦、松井選手の打席はまずチェックした
い。その時は「松井選手の打席だけ集めて見られるよう
にする、そんな仕組みです」と日本テレビの担当者、新
技術調査企画本部の浦野丈治さんは説明する。地上波の
テレビ電波には映像と音声しか含まれていない。しか
し、デジタル放送なら他の情報も電波に乗せられる。日
本でも03年に地上波デジタル放送が始まる。そこで、
番組と一緒に、「映画」「スポーツ」「ニュース」など
のジャンルや、題名、出演者などの情報も送る。例え
ば、テレビ局が松井選手の打席の映像にIDをつけてお
けば、視聴者はその部分だけを選んで集めて見ることが
できる。浦野さんは「IDのつけ方によっては、試合を
ダイジェストにして見るのも簡単」という。』すなわ
ち、自分が視聴したいコンテンツ、シーンをあらわす様
なテキストをキーワードとして送れば、そのキーワード
に該当するテキストデータ(メタデータ)を付与された
画像や音声を選択、返送してくるため、膨大なアーカイ
ブの中から、自分の見たい、聞きたいコンテンツを抽出
してくる作業が非常に、簡単・迅速かつ広範囲に行える
ようになるだろう。
On the other hand, in response to the recent development of storage technology and communication technology, attempts have been made to send contents to perfect individuals in response to individual tastes. One of such attempts is called TV Anytime. The television anytime is described in, for example, Reference 1 “Nikkei Electronics 2001”.
April 23, 2003, page 173 "and the Asahi Shimbun homepage (URL:" HYPERLINK "http: // w
ww.asahi.com./science/waza/010521.html "http: // ww
w.asahi.com./science/waza/010521.html ”) and the like. The amount of content (called archives) accumulated in televisions, radio stations, studios, etc. has reached an enormous amount and will continue to grow and diversify. Also, from the viewer's side, even if it is called sports, it is popular with all generations such as domestic baseball and sumo,
The tastes of viewers are diversifying, such as in the US Major League and soccer. Under such circumstances, it is difficult for television stations and radio stations to accurately infer the viewer's preferences and requests and send out the most suitable content. Moreover, since the viewers have different tastes and requested contents, it is impossible to send out the contents that meet the demand, which is originally 100%. So this technology
This is a mechanism designed to allow viewers to freely call the optimum content according to their wishes at that time, and is currently being developed for practical use. In particular, this technology gives each content in the archived data a text-format ID that indicates what kind of scene is included in the content in addition to the video / audio information, and uses this to specify the content the viewer likes. Designed to be selected and called. (Data that gives information about the content, which is added separately from the original content data such as video or audio, is called "metadata".)
Regarding this, in the second line of the main text of Document 2, the following is disclosed as follows: "For example, watch a professional baseball recorded at home at midnight. First of all, I would like to check the battalion of Giants and Matsui. At that time, "It's a mechanism that allows you to collect only Matsui's at-bats and see them," explains Nippon Television's representative, Takeharu Urano of the New Technology Research and Planning Division. Terrestrial television waves contain only video and audio. However, with digital broadcasting, other information can be added to the radio waves. Terrestrial digital broadcasting will begin in 2003 in Japan. Therefore,
Information such as genres such as "movies,""sports," and "news", titles, performers, etc. are also sent with the program. For example, if the TV station attaches an ID to the at-bat image of player Matsui, the viewer can select and collect only those parts. Mr. Urano said, "Depending on how to attach the ID, it is easy to see the game as a digest." That is, if you send text that represents the content or scene you want to view as a keyword, you will select and send back images and audio with text data (metadata) corresponding to that keyword, so a huge amount It will be very easy, quick and wide-ranging to extract the contents you want to see and hear from the archive.

【0004】[0004]

【発明が解決しようとする課題】しかしながらアーカイ
ブの中の映像や音声などに対して、見たい、聞きたいと
いう要望がいつも簡単なテキストであらわすことができ
るとは限らない。視聴者側の要望を単純なテキストで現
すことが難しい場合もあれば、コンテンツの中の特徴的
なシーンを単純なテキストで現すことが難しい場合もあ
る。例えば今週のプロ野球ジャイアンツ松井のホームラ
ンシーンは、「日付」「プロ野球」「セリーグ」「ジャ
イアンツ戦」「松井」「ホームラン」「本塁打」などの
キーワードを使うことで、視聴者の要望も表すこともで
きれば、コンテンツ自身もその中の特徴的なシーンとし
て現すこともできる。またサッカーJリーグの中田のゴ
ールシーンも「日付」「場所」「サッカー」「Jリー
グ」「中田」「ゴール」などのキーワードであらわしメ
タデータとすることができる。しかしながら、例えばサ
ッカーで1対0であった試合の見所はそのたった1点のゴ
ールシーンのみではない。ゴールにいたるまでのシーン
の中に「見所」と思われるところが数多あるであろう
し、ゴールを防いだところにも「見所」は数多くあるだ
ろう。またいずれにも関係しないのだが、喝采が起こ
り、その試合中の大きな見せ場として注意を呼び起こす
シーンは決して少なくないと思われる。ところが、その
ゴールシーン以外の見所を単純なテキストで現し、メタ
データを付与することは容易ではない。例えば「歓声」
などのキーワードをある特定のシーンに付与するとして
も、それを誰がどの様に、どんな基準でどれだけ付与す
るか決めることは大変難しいし自動化もし難い。また、
視聴者の要望の中で「おもしろい」「すごい」「悲し
い」「つらい」「おだやかな」「おちつく」と言った感
覚的なキーワードをメタデータとしてシーンに付与する
ことも非常に難しい。どの様な基準でその様なキーワー
ドを対応させるかという判断が難しいとともに、判定
し、付与する作業に対して、人的労力も時間も要する。
これも自動化が難しい。
However, it is not always possible to express a request for viewing or listening to video or audio in an archive with a simple text. In some cases, it is difficult to express the viewer's request with simple text, and in other cases it is difficult to express the characteristic scene in the content with simple text. For example, this week's professional baseball Giants Matsui's home run scene should also express the viewer's request by using keywords such as “date”, “professional baseball”, “series”, “giants match”, “Matsui”, “home run”, “home run”. If possible, the content itself can be represented as a characteristic scene in it. In addition, the goal scene of Nakata in the soccer J-League can also be represented by metadata such as “date”, “place”, “soccer”, “J-League”, “Nakada”, and “goal”. However, the highlight of a match that was 1-0 in soccer, for example, is not only that one-point goal scene. There will be many places that are considered "points of interest" in the scenes leading up to the goal, and there will be many "points of interest" where the goal is prevented. Although it is not related to any of them, it seems that there are quite a few scenes where cheers occur and the attention is given as a big show during the match. However, it is not easy to express the highlights other than the goal scene with simple text and add metadata. For example, "cheers"
Even if a keyword such as is added to a certain scene, it is very difficult to determine who assigns it, how and how much it is attached, and it is difficult to automate it. Also,
It is also very difficult to attach the sensory keywords such as “interesting”, “amazing”, “sad”, “painful”, “gentle”, and “chilling” to the scene as metadata in the viewer's request. It is difficult to judge by what kind of criteria such a keyword should be associated, and it takes a lot of human labor and time for the work of judging and assigning.
This is also difficult to automate.

【0005】そこで本発明では、従来のメタデータとは
別に、画像や音声などのコンテンツやコンテンツの中の
シーン毎に、それを視聴した人間の生体的反応を自動的
に取りこみ加工して関連付ける標識データを用いること
を考えた。
Therefore, according to the present invention, in addition to the conventional metadata, a marker associated with contents such as images and sounds and scenes in the contents is automatically captured and processed to correlate the biological reaction of a person who views the contents. Considered using the data.

【0006】本発明の目的は、対象となる画像あるいは
音声などに対するその視聴した人間の生体的反応を自動
的に取りこみ加工し標識データとしてそのコンテンツや
コンテンツの中のシーン毎に自動的に関連付けること
で、単純なキーワード付けができないコンテンツやコン
テンツの中のシーンに対して、あいまいだったり感覚的
だったりするキーワードを用いて視聴者が検索、抽出、
呼び出しすることができるようにする標識データを提供
することにある。
An object of the present invention is to automatically take in a biological reaction of a human being who has been viewed with respect to a target image or sound and process it and automatically associate it with the contents or scenes in the contents as marker data. Then, for the content or scenes in the content that cannot be simply keyworded, the viewer can search, extract, using keywords that are ambiguous or sensuous.
The purpose is to provide indicator data that can be called.

【0007】[0007]

【課題を解決するための手段】人間の精神的な活動が様
々な生体的反応に現れることはよく知られている。つま
り全く運動を行わず、静止している人間においてもその
精神活動によって、生体的反応に様々な変化が現れる。
例えば心拍数が増加・減少したり、血圧が増加・減少し
たりする。また脳内の血流量が増加・減少したりして血
行の分布に変化が生じたりする。脳内の神経に電気パル
スが生じたり、その波形が変化したりする。また全身や
特定の部分の発汗が増加・減少したり、筋肉の膨張・収
縮が起こったりもする。目の瞳孔が拡大・収縮したりも
する。また呼吸数、呼吸の深さなどに変化が生じたりも
する。またその顔の表情や四肢の置き方による体位など
にも変化が現れる。
[Means for Solving the Problems] It is well known that human mental activities appear in various biological reactions. In other words, even in a human who does not exercise at all and is stationary, various changes appear in the biological response due to the mental activity.
For example, the heart rate increases / decreases, and the blood pressure increases / decreases. In addition, the blood flow in the brain increases or decreases, and the distribution of blood circulation changes. An electric pulse is generated in a nerve in the brain or its waveform is changed. Also, sweating of the whole body or a specific part may be increased or decreased, or muscles may be expanded or contracted. The pupils of the eyes also expand and contract. In addition, changes may occur in breathing rate, breathing depth, etc. In addition, the facial expression and the posture depending on how the limbs are placed will also change.

【0008】この様な人間の生体的反応は現在では様々
な機器によって検知、測定することができ、医療や生理
学研究、人間工学、スポーツなどの分野で活用されてい
る。例えば脳内の血流量などはMRIやSQUIDなど
の大掛かりな装置によっても測定することはできるが、
最近では赤外線レーザアレイを使ったヘッドギア型の小
さな装置で簡便に測定することができる。この装置には
赤外線半導体レーザと受光センサー(いずれも数ミリ
角)のものが数個〜数十個ヘッドギア内に配置されてい
るのみで、簡単かつ軽量でもあり、価格も安くどこでも
用意に用いることができる。また例えば目の瞳孔の拡大
や収縮などは小型のカメラによって観測可能であり、そ
の拡大収縮などの量についても、カメラに組み合わせた
画像認識システムによって簡単に定量化できる。セキュ
リティ対応のための瞳虹彩認識システムなどはその応用
の範疇であるが既に市販されている。また例えば心拍数
は数ミリ角の小さなセンサーで常時リアルタイムに検知
しつづけることが可能であるし、血圧測定も一般の人が
毎日の健康チェックに用いるために既に頻繁に用いられ
ており、現在では一本の指をリングに通すだけで数十秒
で測定を行うことができる。
Such human biological reactions can be detected and measured by various devices at present, and are utilized in fields such as medical and physiological research, ergonomics and sports. For example, the blood flow in the brain can be measured by a large-scale device such as MRI or SQUID,
Recently, it is possible to measure easily with a small headgear type device using an infrared laser array. This device has only a few to several tens of infrared semiconductor lasers and light receiving sensors (both of which are several millimeters square) arranged in the headgear. It is simple and lightweight, inexpensive and easy to use anywhere. You can Further, for example, the expansion and contraction of the pupil of the eye can be observed by a small camera, and the amount of expansion and contraction can be easily quantified by an image recognition system combined with the camera. The pupil / iris recognition system for security is a category of its application, but it is already on the market. Also, for example, heart rate can be continuously detected in real time with a small sensor of a few millimeters square, and blood pressure measurement is already frequently used by the general public for daily health check, and nowadays. Measurements can be made in tens of seconds by simply passing one finger through the ring.

【0009】上記にあげた例に代表される人間の生体的
反応はもちろん身体を動かす運動や作業によって変化が
もたらされることが多い。しかしそれのみならず、全く
運動や作業を行わない場合にも生体的反応に変化は生ず
る。すなわち精神的な活動が生体的反応に変化を生じせ
しめる。その精神的な活動の種類には意識的なものもあ
れば無意識的なものもある。能動的なものもあれば受動
的なものもある。身体の大きな動作は行わずとも、外部
から五感を通じて取り入れた情報に対して精神的な活動
に対して変化・反応が現れることは非常に一般的であ
る。またその精神的な変化・反応は生体的反応を引き起
こす。例えば驚きや興奮などは、どの生体的反応にも影
響を与え、心拍数を増加させたり、血圧を上げたりし、
瞬間的に瞳孔を収縮させたり手のひらの発汗を増大させ
たりもする、また当然脳内の特定の部位の血流量や電流
などの変化を生じさせることになる。
[0009] In addition to the biological reactions of humans represented by the examples given above, changes are often brought about by movements and works that move the body. However, not only that, but also when no exercise or work is performed, the biological reaction changes. That is, mental activity causes a change in biological reaction. Some types of mental activity are conscious and some are unconscious. Some are active and some are passive. It is very common for a person to change or react to mental activity in response to information received from the outside through his five senses, even if he / she does not perform a large physical action. In addition, the mental change / reaction causes a biological reaction. Surprise and excitement, for example, can affect any biological response, increase heart rate, raise blood pressure,
It may also cause the pupil to momentarily contract or increase the sweating of the palm, and naturally cause changes in the blood flow, current, etc. at specific parts of the brain.

【0010】人間が映像や音声などによるコンテンツを
視聴しているとき、その映像や音声が刺激となって視聴
者に精神的な反応あるいは活動が生ずる。もとより視聴
者は感動や感激、安らぎやおかしさ、おもしろさを求め
てコンテンツを視聴するのであるから、その結果精神的
な反応、活動が生ずるのは当然でもある。
When a human is viewing content such as video or audio, the video or audio stimulates the viewer to cause a mental reaction or activity. Of course, since viewers watch the content in search of excitement, excitement, comfort, fun, and fun, it is natural that a mental reaction or activity occurs as a result.

【0011】すなわちあるコンテンツが視聴者に感動や
感激、安らぎやおかしさ、面白さをどれだけ与えるか、
またそのコンテンツのどの部分、どのシーンが視聴者に
感動や感激、安らぎやおかしさ、面白さをどれだけ与え
るかということを、そのコンテンツに対する視聴者の一
種の評価とすることができる。そしてその評価を、視聴
者の精神的な反応・活動が反映された、視聴者の生体的
反応として情報収集することができる。そして、収集さ
れた生体的反応を的確な形のデータに加工してから、そ
のコンテンツあるいはコンテンツ中のシーンと関連付け
て保存しておけば、このデータを利用することにより、
膨大な量が蓄積されているアーカイブの中から、視聴者
の欲求に応じたコンテンツを的確に検索し、選択できる
ようになる。
[0011] In other words, how much a certain content gives the viewer excitement, excitement, comfort, humor, and fun,
Further, what part and which scene of the content gives the viewer impression, excitement, comfort, weirdness, and fun can be a kind of evaluation of the viewer for the content. Then, the evaluation can be collected as information as the biological reaction of the viewer, which reflects the mental reaction / activity of the viewer. Then, after processing the collected biological reactions into data of an appropriate shape, and storing it in association with the content or the scene in the content, by using this data,
It will be possible to accurately search and select content that meets the desires of viewers from an enormous amount of archives.

【0012】この様に、あるコンテンツに対する視聴者
の評価を、その精神的反応・活動の結果現れる生体的反
応として情報収集し、加工してもとのシーン、コンテン
ツに関連付けされたデータとし、検索に利用する。この
時この作製されたデータが視聴者の反応を評価し、ひい
てはそのシーン、コンテンツの評価としており、また元
のシーン、コンテンツに個別の標識(タグ)として関連
付けられていることから、このデータのことをアプレイ
ズドレスポンスタグ(Appraised Response Tag)略して
ARタグと呼ぶことにする(Appraised:アプレイズド
とは〈人・能力などを〉評価する;〈状況などを〉認識
する という意味である。)。
[0012] In this way, the viewer's evaluation of a certain content is collected as the biological reaction that appears as a result of the mental reaction / activity, and is processed into the data associated with the original scene and the content and retrieved. To use. At this time, this created data evaluates the viewer's reaction, and as a result, the evaluation of the scene and the content, and since it is associated with the original scene and the content as individual tags (tags), This is referred to as an AR tag for Appraised Response Tag (Appraised: Appraised means appraising <person / ability, etc .; recognizing <situation, etc.>).

【0013】以下、以上の考察から導かれた本発明につ
いて説明する。
The present invention derived from the above consideration will be described below.

【0014】本発明におけるARタグは目的とする画像
あるいは音声などに対するその視聴した人間の生体的反
応を加工し、その画像あるいは音声に関連付けたことを
特徴とする画像および音声データに対する標識データで
ある。
The AR tag in the present invention is marker data for image and voice data, which is characterized in that the biological reaction of the viewed human being to the target image or voice is processed and is associated with the image or voice. .

【0015】また本発明におけるARタグは、目的とす
る画像あるいは音声などに対するその視聴した人間の生
体的反応を、その視聴した人間の感情的反応に関連付け
て加工し、その画像あるいは音声に関連付けたことを特
徴とする画像および音声データに対する標識データであ
る。
Further, the AR tag in the present invention processes the biological reaction of the viewed person to the desired image or sound in association with the emotional reaction of the viewed person and associates it with the image or sound. It is the marker data for the image and audio data characterized by the above.

【0016】また本発明におけるARタグは、目的とす
る画像あるいは音声などに対するその視聴した人間の生
体的反応と、既にその目的とする画像あるいは音声など
のデータに関連付けられている既存の標識データとを共
に利用して加工し、あらたにその画像あるいは音声に関
連付けたことを特徴とする画像および音声データに対す
る標識データである。
The AR tag according to the present invention is the biological response of the human being who has viewed the target image or sound, and the existing tag data already associated with the target image or sound data. Is the tag data for the image and audio data, which is characterized in that it is processed by using the above and is associated with the image or audio.

【0017】また本発明におけるARタグは、目的とす
る画像あるいは音声などに対するその視聴した人間の生
体的反応を、目的とする画像あるいは音声の連続する任
意のデータ断片に対して関連付けたことを特徴とする画
像および音声データに対する標識データである。
Further, the AR tag in the present invention is characterized in that the biological reaction of the viewed human to the target image or sound is associated with any continuous data fragment of the target image or sound. It is the tag data for the image and audio data.

【0018】また本発明は、目的とする画像あるいは音
声などに対するその視聴した人間の生体的反応を加工
し、その画像あるいは音声に関連付けることを特徴とす
る画像および音声データに対する標識データの加工方法
である。
The present invention also provides a method of processing marker data for image and sound data, which is characterized by processing the biological reaction of a human being who has viewed the target image or sound and relating it to the image or sound. is there.

【0019】また本発明は、目的とする画像あるいは音
声などに対するその視聴した人間の生体的反応を、その
視聴した人間の感情的反応に関連付けて加工し、その画
像あるいは音声に関連付けることを特徴とする画像およ
び音声データに対する標識データの加工方法である。
Further, the present invention is characterized in that the biological reaction of the viewed human being with respect to a desired image or sound is processed in association with the emotional reaction of the viewed human, and is associated with the image or sound. It is a method of processing the sign data for the image and sound data.

【0020】また本発明は、目的とする画像あるいは音
声などに対するその視聴した人間の生体的反応と、既に
その目的とする画像あるいは音声などのデータに関連付
けられている既存の標識データとを共に利用して加工
し、あらたにその画像あるいは音声に関連付けらること
を特徴とする画像および音声データに対する標識データ
の加工方法である。
Further, the present invention utilizes both the biological response of the viewed human to the desired image or sound and the existing sign data already associated with the desired image or sound data. The method is a method of processing marker data for image and audio data, which is characterized by being processed and then associated with the image or audio.

【0021】また本発明は、目的とする画像あるいは音
声などに対するその視聴した人間の生体的反応を、目的
とする画像あるいは音声の連続する任意の断片に対して
関連付けることを特徴とする画像および音声データに対
する標識データの加工方法である。
Further, the present invention is characterized in that the biological reaction of the viewed human to the desired image or sound is associated with any continuous fragment of the desired image or sound. It is a method of processing label data for data.

【0022】また本発明におけるARタグは、関連付け
に用いた生体的反応を発生した個人を識別できることを
特徴とする画像および音声データに対する標識データで
ある。
The AR tag in the present invention is tag data for image and voice data, which is characterized in that it can identify an individual who has caused a biological reaction used for association.

【0023】[0023]

【発明の実施の形態】(第1の実施形態)次に本発明に
おける人間の生体的反応を加工し、目的とする画像ある
いは音声に関連付けた標識であるARタグの作製と利用
に関する実施の形態について図を参照しながら説明す
る。
BEST MODE FOR CARRYING OUT THE INVENTION (First Embodiment) Next, an embodiment relating to the production and use of an AR tag which is a marker associated with a desired image or sound by processing a human biological reaction according to the present invention Will be described with reference to the drawings.

【0024】図1は、本発明の第1の実施形態に係るA
Rタグの作製の手順についてあらわした関係図である。
先ず目的とする映像あるいは音声11が存在する。この
映像あるいは音声11は撮影したり録音したり複写した
りすることで記録可能なあらゆる種類の事象であり、現
在進行中の事象そのものでもよいし、既に撮影あるいは
録音あるいは複写された後に、再生、再現されている事
象でもよい。その様な事象には例えば通常テレビあるい
はビデオや映画などで放映されているもので代表される
様々な内容のものがあり、例えば自然現象、スポーツ、
ドラマ、バラエティ、事件報道、講義、会見、コンサー
ト、実況放送、実録報道、演芸などがあげられる。また
これは音声のみのものでもよく、例えばラジオ、CD、
カセットテープなどで聞くことのできるもので代表され
る様々な内容のものがあり、例えば自然現象、音楽曲や
ドラマ、バラエティ、事件報道、講義、会見、コンサー
ト、実況放送、実録報道、演芸などがある。これを反応
提供者12が見たり、聞いたりした場合、反応提供者の
生体的情報にそれらの映像あるいは音声に対する反応が
現れる。
FIG. 1 shows an A according to a first embodiment of the present invention.
FIG. 6 is a relational diagram showing a procedure for producing an R tag.
First, there is a desired video or audio 11. This video or audio 11 is any kind of event that can be recorded by shooting, recording, or copying, and it may be the event itself that is currently in progress, or it can be played back after it has already been filmed, recorded, or copied. It may be an event that is being reproduced. Such phenomena include various contents such as those usually shown on television or video and movies, such as natural phenomena, sports,
Dramas, varieties, case reports, lectures, interviews, concerts, live broadcasts, live coverage, and entertainment. It may also be audio only, eg radio, CD,
There are various contents typified by what you can listen to with cassette tapes, for example, natural phenomena, music songs and dramas, variety, incident coverage, lectures, conferences, concerts, live broadcasts, live coverage, performances etc. is there. When the reaction provider 12 sees or hears this, the reaction to those images or sounds appears in the biological information of the reaction provider.

【0025】なおこの反応提供者12はこのARタグ作
製のためにその事象11の視聴に対する生体的反応のデ
ータを提供してくれる個人あるいは複数の人間であり、
特にその目的で用意した人でも良く、たまたま何の目的
もなくその映像あるいは音声を視聴した人でもよい。あ
るいはこの事象11の映像あるいは音声を撮影あるいは
録音している撮影者や録音者でもよく、またこの映像あ
るいは音声を再生、編集、加工している作業者であって
もよい。またこの映像あるいは音声の事象が発生してい
るときにその事象を実行、構成、形成している本人であ
ってもよい。またコンテンツを利用している特定あるい
は不特定多数の視聴者やその集合であってもよい。
The reaction provider 12 is an individual or a plurality of people who provide the data of the biological reaction to the viewing of the event 11 for producing the AR tag,
In particular, it may be a person prepared for that purpose, or a person who happens to watch the video or audio without any purpose. Alternatively, it may be a photographer or a sound recorder who shoots or records the image or sound of the event 11, or may be an operator who reproduces, edits, or processes the image or sound. Further, the person who is executing, configuring, or forming the event when the event of the video or audio is occurring may be the person. It may also be a specific or unspecified large number of viewers who are using the content, or a set of such viewers.

【0026】データコレクタ13は反応提供者12が発
生する一種類あるいは複数種類の生体的反応のデータを
収集記録する装置であり、生体的反応を感知するための
部分とその感知したデータを一時的に保存する部分、次
の工程にあるプロセサ14に送る部分などから構成され
るが、それぞれが組み合わさって一個の装置として形を
なしたものであってもよいし、機能別に個別な装置が通
信手段によって結合されているものでもよい。その様な
例としては例えば、反応提供者に装着した脈拍計や血圧
計、脳内電流測定装置、筋電流計などを包含した装置、
あるいは反応提供者の近傍に設置した瞳撮影用カメラ、
表情撮影用カメラなど直接反応提供者に装着しないデー
タ収集装置を包含した装置でもよい。
The data collector 13 is a device for collecting and recording data of one or a plurality of types of biological reactions generated by the reaction provider 12, and a part for sensing the biological reactions and the sensed data temporarily. It is composed of a part to be stored in the device, a part to be sent to the processor 14 in the next process, etc., but may be combined to form a single device, or individual devices may communicate by function. It may be connected by means. As such an example, for example, a device including a pulse rate monitor and a sphygmomanometer attached to a reaction provider, a brain current measuring device, a muscle ammeter, and the like,
Or a camera for pupil photography installed near the reaction provider,
It may be a device including a data collection device such as a facial expression camera that is not directly attached to the reaction provider.

【0027】またデータコレクタ13は特に生体的反応
データの収集記録伝達専用の装置であってもよいが、そ
の他の機能との複合的な装置であってもよい。例えば映
像あるいは音声などの事象11そのものを記録するため
の撮影装置、録音装置、録画装置と生体的反応の収集装
置との複合した装置であってもよい。その様な例として
例えば野球中継を撮影しているカメラマンとその周辺に
ある機器などを考えることができる。この場合映像およ
び音声11は実際に目の前で行われている野球の試合で
ある。また反応提供者12はカメラマンである。データ
コレクタ13はカメラでありそのカメラにカメラマンの
生体的反応を感知する機能を持った装置やその収集した
生体的反応を記録あるいは他へ中継する装置が付加され
ている。あるいはこのデータコレクタ13は映像あるい
は音声などの事象11を記録するカメラとカメラマンの
生体的反応を感知し収集記録する装置とを通信手段によ
って結んだものでもよい。
Further, the data collector 13 may be a device specifically for collecting and transmitting the biological reaction data, or may be a device combined with other functions. For example, it may be a photographing device for recording the event 11 itself such as video or audio, a recording device, or a combined device of a recording device and a biological reaction collecting device. As such an example, for example, a cameraman shooting a baseball broadcast and devices around the cameraman can be considered. In this case, the video and audio 11 is a baseball game actually being held in front of the eyes. The reaction provider 12 is a cameraman. The data collector 13 is a camera, and a device having a function of detecting a biological reaction of a cameraman and a device for recording or relaying the collected biological reaction to another camera are added to the camera. Alternatively, the data collector 13 may be a camera that records the event 11 such as video or audio and a device that detects and collects and records the biological reaction of the cameraman by communication means.

【0028】データコレクタ13の次の工程にあるプロ
セサ14は収集された一人あるいは複数人数の反応提供
者が発生する一種類あるいは複数種類の生体的反応を適
当な形に加工しARデータとする装置であり、またもと
の事象の映像あるいは音声11の対応するシーン、コン
テンツなどに関連付けしていく作業を行う装置でもあ
る。加工の方法は様々あり、複数の生体的反応のデータ
を単純に加算してから規格化してもよいし、複数あるデ
ータの種類に応じて重み付けを行い、ある関数に基づい
て演算を行ってもよい。そのデータの大きさも様々考え
られ、通常数ビット〜10数ビット前後と考えられる。
またその様なビット数のデータを複数個備えて一つのA
Rタグとしてもよく、ARタグ同士の結合をまた新たな
ARタグとしてもよい。また反応提供者12を識別し、
その情報もARタグにとりこんでもよいし、ARタグと
は別にメタデータとしてもよい。
The processor 14 in the next step of the data collector 13 is a device for processing one kind or plural kinds of biological reactions generated by one or a plurality of reaction providers collected into an appropriate form to obtain AR data. In addition, it is also a device for performing a work of associating with the scene or content corresponding to the video or audio 11 of the original event. There are various processing methods, and data of multiple biological reactions may be simply added and then standardized, or weighting may be performed according to the types of multiple data, and calculation may be performed based on a certain function. Good. The size of the data may be various, and is usually considered to be around several bits to several tens of bits.
In addition, a plurality of data having such a bit number are provided to form one A
It may be an R tag or a combination of AR tags may be a new AR tag. Also identify the reaction provider 12,
The information may be incorporated in the AR tag or may be metadata separately from the AR tag.

【0029】加工され生成されたARタグは元の事象の
映像あるいは音声11と関連付けられるが、その関連付
けはコンテンツ全体に対してでもよいし、コンテンツ中
のあるシーンに対してでもよく、あるいはそのシーンの
中のより短い単位やフレームであってもよい。ただしそ
れぞれにおいてARタグとその関連付けられる部分の位
置情報は合致している。つまり、コンテンツ全体に関連
付けられたARタグはそのコンテンツ全体に対する評価
として加工され生成されており、あるシーン毎に関連付
けられたARタグはそのシーン毎に対する評価として加
工され生成されている必要がある。その様子を概念的に
図3に示してある。すなわちコンテンツそのものの全体
データ30に対して一つあるいは複数個のARタグを関
連付けることができる。この場合のARタグはコンテン
ツ全体に対する評価として加工、生成されている。また
コンテンツの中の断片である、あるシーン31に対して
も一つあるいは複数個のARタグを関連付けることがで
き、また更に短い断片32に対しても同様である。
The processed and generated AR tag is associated with the video or audio 11 of the original event, which may be associated with the entire content, a certain scene in the content, or the scene. It may be a shorter unit or frame in. However, in each case, the position information of the AR tag and the position associated with the AR tag match. That is, the AR tag associated with the entire content needs to be processed and generated as an evaluation for the entire content, and the AR tag associated with each certain scene needs to be processed and generated as an evaluation for each scene. The situation is conceptually shown in FIG. That is, one or a plurality of AR tags can be associated with the entire data 30 of the content itself. The AR tag in this case is processed and generated as an evaluation for the entire content. Also, one or a plurality of AR tags can be associated with a certain scene 31, which is a fragment of the content, and the same is true for a fragment 32 having a shorter length.

【0030】ある場合、生成されたARデータはもとの
事象の映像あるいは音声11の記録データそのものに付
加される。それにより、ARデータが付加された元の事
象の映像あるいは音声11の記録データであるところの
タグ付データ15ができる。このデータはある蓄積メデ
ィア16に蓄積され保存されるが、この蓄積メディア1
6はコンピュータ上のシステムに付属するデータベース
でも良いし、それらを含むサーバーやゲートウェーでも
よい。また家庭内の家電機器におけるビデオやオーディ
オにあたる蓄積メディアを持った映像あるいは音声再生
装置、送出装置でもよい。またDVDなどの光記録媒体
やVHSビデオテープなどの磁気記録媒体、あるいはフ
ラッシュメモリなどによる固体メモリなどで代表され
る、手軽に搬送可能な記憶媒体でもよい。
In some cases, the generated AR data is added to the recorded data itself of the video or audio 11 of the original event. Thereby, the tagged data 15 which is the recorded data of the video or audio 11 of the original event to which the AR data is added is formed. This data is stored and stored in a certain storage medium 16. This storage medium 1
6 may be a database attached to the system on the computer, or a server or gateway including them. Further, it may be a video or audio reproducing device or a transmitting device having a storage medium corresponding to video or audio in home electric appliances in the home. Further, an easily transportable storage medium represented by an optical recording medium such as a DVD, a magnetic recording medium such as a VHS video tape, or a solid-state memory such as a flash memory may be used.

【0031】またある場合、生成されたARタグは元の
事象の映像あるいは音声11などのコンテンツ記録デー
タそのものであるデータ17とは別に保存されてもよ
い。データ17がある蓄積メディアに18に記録される
一方、ARタグ19は同じ蓄積メディア18に蓄積され
てもよいが、全く別の蓄積メディア20に保存されても
よい。この場合データ17とARタグ19が分離してい
ることが前述の場合と異なる。分離し別々の場所に保管
されていてもARタグ19が元のデータ17に関係付け
られ、保存場所を特定できる。ARタグ自身が元のデー
タ17の保存場所を特定できなくても、元のデータ17
と、その関係付けられたARタグ19の保存場所をデー
タベース化して、別の場所21で持っておいてもよい。
蓄積メディア18と蓄積メディア20はコンピュータ上
のシステムに付属するデータベースでも良いし、サーバ
ーやゲートウェーでもよい。また家庭内の家電機器にお
けるビデオやオーディオにあたる蓄積メディアを持った
映像あるいは音声再生装置、送出装置でもよい。またD
VDやVHSビデオテープ、あるいはフラッシュメモリ
などによる固体メモリの様な手軽に搬送可能な記憶媒体
でもよい。
In some cases, the generated AR tag may be stored separately from the data 17 which is the content recording data itself such as the video or audio 11 of the original event. The AR tag 19 may be stored in the same storage medium 18, while the data 17 is recorded in 18 in one storage medium, or may be stored in a completely different storage medium 20. In this case, the fact that the data 17 and the AR tag 19 are separated is different from the above case. Even if they are separated and stored in different places, the AR tag 19 is related to the original data 17 and the storage place can be specified. Even if the AR tag itself cannot specify the storage location of the original data 17, the original data 17
The storage location of the associated AR tag 19 may be stored in a database 21 and stored in another location 21.
The storage medium 18 and the storage medium 20 may be a database attached to a system on a computer, a server or a gateway. Further, it may be a video or audio reproducing device or a transmitting device having a storage medium corresponding to video or audio in home electric appliances in the home. Also D
A storage medium that can be easily carried, such as a VD or VHS video tape, or a solid-state memory such as a flash memory may be used.

【0032】(第2の実施形態)次に本発明におけるA
Rタグ利用に関する実施の形態について図を参照しなが
ら説明する。
(Second Embodiment) Next, A in the present invention
Embodiments relating to the use of R tags will be described with reference to the drawings.

【0033】図2は、本発明におけるARタグの利用方
法についてあらわした関係図である。一般の視聴者22
は通常テレビやラジオ、インターネットを視聴する不特
定の人間であり、誰であってもよい。この一般視聴者2
2は自分が視聴したいと想像するシーンやコンテンツを
あらわす1個あるいは複数個のキーワードをプロセサ2
3に対して送る。このプロセサ23はコンピュータ上の
システムに付属するデータベースでも良いし、それらを
含むサーバーやゲートウェーでもよい。また家庭内の家
電機器におけるビデオやオーディオにあたる蓄積メディ
アを持った映像あるいは音声再生装置、送出装置でもよ
い。またDVDなどの光記録媒体やVHSビデオテープ
などの磁気記録媒体、あるいはフラッシュメモリなどに
よる固体メモリなどで代表される、手軽に搬送可能な記
憶媒体でもよい。さてこのプロセサ23に送られたその
キーワードが「場所」「時間」「人」「現象」「出来
事」などで代表される具体的なものであり、簡単なテキ
ストで表現可能である場合は、先ずそのコンテンツやシ
ーンに対して既存の技術で分類、標識付けされているメ
タデータを利用して検索、選択する。更にキーワードが
「おもしろい」「楽しい」「悲しい」「感動する」「感
激する」「おかしい」「落ち着く」「なごむ」などあい
まいな言葉であったり、感覚的な言葉であった場合、プ
ロセサ23はARタグを使って、その要望を満足させる
ことのできるアーカイブデータを検索する。このときプ
ロセサ23は、蓄積メディア24の中に蓄積されている
ARタグのついた映像や音声のコンテンツファイルを、
データにつけられたARタグを頼りに検索し、選択して
一般視聴者22に届ける。この時プロセサ23はARタ
グを付与されたタグ付データを直接検索してもよい。ま
たプロセサ23は蓄積メディア26中に蓄積されたAR
タグであるタグ27を検索し、その結果から蓄積メディ
ア28上にあるもとの映像あるいや音声のデータ29を
呼び出し、取り出してきて一般視聴者22に送ってもよ
い。
FIG. 2 is a relational diagram showing a method of using the AR tag in the present invention. General audience 22
Is an unspecified person who usually watches TV, radio, and the Internet, and can be anyone. This general viewer 2
2 is one or more keywords that represent the scene or content that you want to watch.
Send to 3. This processor 23 may be a database attached to the system on the computer, or a server or gateway including them. Further, it may be a video or audio reproducing device or a transmitting device having a storage medium corresponding to video or audio in home electric appliances in the home. Further, an easily transportable storage medium represented by an optical recording medium such as a DVD, a magnetic recording medium such as a VHS video tape, or a solid-state memory such as a flash memory may be used. If the keyword sent to the processor 23 is a concrete one represented by "place", "time", "person", "phenomenon", "event", etc., and can be expressed by simple text, first, The contents and scenes are searched and selected using the metadata classified and labeled by the existing technology. Further, if the keyword is an ambiguous word such as “interesting”, “fun”, “sad”, “impressed”, “impressed”, “funny”, “calm”, “nagomu”, or a sensory word, the processor 23 uses AR Use tags to find archived data that can meet your needs. At this time, the processor 23 stores the video and audio content files with the AR tag stored in the storage medium 24.
The AR tag attached to the data is searched for, selected, and delivered to the general viewer 22. At this time, the processor 23 may directly search the tagged data to which the AR tag is added. In addition, the processor 23 stores the AR stored in the storage medium 26.
The tag 27, which is a tag, may be searched, and from the result, the original video or audio data 29 on the storage medium 28 may be retrieved, retrieved, and sent to the general viewer 22.

【0034】またあるいはプロセサ23自身がタグ付デ
ータ25やタグ27に関するデータベースを備えたサー
バであり、そのデータベースからタグ付データ25を取
り出して来て一般視聴者22に送ってもよいし、またそ
のデータベースからタグ27を取りだし、そのタグ27
からデータ29を選択して一般視聴者22に送ってもよ
い。
Alternatively, the processor 23 itself is a server provided with a database relating to the tagged data 25 and the tags 27, and the tagged data 25 may be taken out from the database and sent to the general viewer 22. Retrieve the tag 27 from the database and add the tag 27
The data 29 may be selected and sent to the general audience 22.

【0035】一般視聴者22に送られた後のARタグは
そのままの状態であってもよいが、今、一般視聴者22
の検索要求に該当したという履歴を新たに取りこんで、
プロセサ23によって加工されてもよい。すなわち図2
で表されるこのARタグによる検索利用を、図1で説明
したARタグ生成のスタートとして、再利用してもよ
い。またその検索要求のあった一般視聴者22を識別
し、その情報もあらたにARデータとして取りこんでも
よい。
The AR tag sent to the general viewer 22 may remain as it is, but now the general viewer 22
Incorporating a new history that corresponds to the search request of
It may be processed by the processor 23. That is, FIG.
The search and use by the AR tag represented by the above may be reused as the start of the AR tag generation described in FIG. Further, the general viewer 22 who has made the search request may be identified, and that information may be newly incorporated as AR data.

【0036】[0036]

【発明の効果】本発明におけるARタグを用いることに
より、 映像や音声などの蓄積情報の中から、本来、具
体的なキーワードでは定義することが難しく、しかしな
がら印象や感覚的なキーワードでは標識付けが現実的に
難しいために的確な検索ができなかった事象について、
その検索の手がかりとなる標識タグを自動的に生成、関
係付けることができるようになり、その結果簡単に、速
く検索することが可能になる。
EFFECT OF THE INVENTION By using the AR tag of the present invention, it is originally difficult to define a specific keyword from stored information such as video and audio. However, an impression or a sensory keyword cannot be tagged. Regarding the event that could not be searched accurately because it was difficult in practice,
It becomes possible to automatically generate and associate a tag tag that serves as a clue for the search, and as a result, it becomes possible to search easily and quickly.

【図面の簡単な説明】[Brief description of drawings]

【図1】本発明の第1の実施形態に係るARタグの作製
の手順についてあらわした関係図
FIG. 1 is a relational diagram showing a procedure of manufacturing an AR tag according to a first embodiment of the present invention.

【図2】本発明の第1の実施形態に係るARタグの利用
に関する実施の手順についてあらわした関係図
FIG. 2 is a relational diagram showing an implementation procedure regarding use of an AR tag according to the first embodiment of the present invention.

【図3】本発明の第2の実施形態にARタグの付与の方
法について示した模式図
FIG. 3 is a schematic diagram showing a method of adding an AR tag in the second embodiment of the present invention.

【符号の説明】[Explanation of symbols]

11 映像・音声を含む事象 12 反応提供者 13 データコレクタ 14 プロセサ 15 タグ付コンテンツデータ 16 蓄積メディア 17 コンテンツデータ 18 蓄積メディア 19 ARタグ 20 蓄積メディア 21 データベースあるいはサーバ 22 一般視聴者 23 プロセサ 24 蓄積メディア 25 タグ付コンテンツデータ 26 蓄積メディア 27 ARタグ 28 蓄積メディア 29 コンテンツデータ 30 コンテンツデータ全体 31 コンテンツデータの断片(シーン) 32 コンテンツデータの断片(フレーム) 11 Events including video and audio 12 Reaction provider 13 Data collector 14 Processor 15 Content data with tags 16 Storage media 17 Content data 18 Storage media 19 AR tags 20 Storage media 21 Database or server 22 General audience 23 Processor 24 Storage media 25 Tagged content data 26 Storage media 27 AR Tag 28 Storage media 29 Content data 30 Content data as a whole 31 Content data fragment (scene) 32 Content data fragments (frames)

───────────────────────────────────────────────────── フロントページの続き (51)Int.Cl.7 識別記号 FI テーマコート゛(参考) H04N 7/08 H04N 7/08 Z 7/081 ─────────────────────────────────────────────────── ─── Continuation of front page (51) Int.Cl. 7 Identification code FI theme code (reference) H04N 7/08 H04N 7/08 Z 7/081

Claims (9)

【特許請求の範囲】[Claims] 【請求項1】 目的とする画像あるいは音声などに対す
るその視聴した人間の生体的反応を加工し、その画像あ
るいは音声に関連付けたことを特徴とする画像、音声デ
ータへの付加用標識データ。
1. Marking data for addition to an image or voice data, characterized by processing a biological reaction of a human being who has viewed the target image or voice or the like and associating it with the image or voice.
【請求項2】 目的とする画像あるいは音声などに対す
るその視聴した人間の生体的反応を、その視聴した人間
の感情的反応に関連付けて加工し、その画像あるいは音
声に関連付けたことを特徴とする請求項1に記載の画
像、音声データへの付加用標識データ。
2. The biological reaction of the viewed person to a target image or sound is processed in association with the emotional reaction of the viewed person, and the processed image is related to the image or sound. Label data for addition to the image and audio data according to Item 1.
【請求項3】 目的とする画像あるいは音声などに対す
るその視聴した人間の生体的反応と、既にその目的とす
る画像あるいは音声などのデータに関連付けられている
既存の標識データとを共に利用して加工し、あらたにそ
の画像あるいは音声に関連付けたことを特徴とする請求
項1又は2に記載の画像、音声データへの付加用標識デ
ータ。
3. The processing using both the biological reaction of the viewed person to the target image or sound and the existing marker data already associated with the target image or sound data. The marker data for addition to the image and voice data according to claim 1 or 2, which is newly associated with the image or voice.
【請求項4】 目的とする画像あるいは音声などに対す
るその視聴した人間の生体的反応を、目的とする画像あ
るいは音声の連続する任意のデータ断片に対して関連付
けたことを特徴とする請求項1から3のいずれかに記載
の画像、音声データへの付加用標識データ。
4. The method according to claim 1, wherein the biological response of the viewed human to the target image or sound is associated with any continuous data fragment of the target image or sound. Addition marker data to the image and audio data according to any one of 3 above.
【請求項5】 目的とする画像あるいは音声などに対す
るその視聴した人間の生体的反応を加工し、その画像あ
るいは音声に関連付けることを特徴とする画像、音声デ
ータへの付加用標識データの付加方法。
5. A method of adding tag data for addition to image or voice data, characterized by processing a biological reaction of a human being who has viewed the image or voice of interest and associating it with the image or voice.
【請求項6】 目的とする画像あるいは音声などに対す
るその視聴した人間の生体的反応を、その視聴した人間
の感情的反応に関連付けて加工し、その画像あるいは音
声に関連付けることを特徴とする請求項5に記載の画
像、音声データへの付加用標識データの付加方法。
6. The method according to claim 6, wherein the biological reaction of the viewed person to the target image or sound is processed in association with the emotional reaction of the viewed person, and the processed image is related to the image or sound. 5. The method of adding the tag data for addition to the image and audio data according to 5.
【請求項7】 目的とする画像あるいは音声などに対す
るその視聴した人間の生体的反応と、既にその目的とす
る画像あるいは音声などのデータに関連付けられている
既存の標識データとを共に利用して加工し、あらたにそ
の画像あるいは音声に関連付けることを特徴とする請求
項5又は6に記載の画像、音声データへの付加用標識デ
ータの付加方法。
7. The processing using both the biological response of the viewed human to the target image or sound and the existing marker data already associated with the target image or sound data. 7. The method of adding tag data for addition to the image or voice data according to claim 5 or 6, which is newly associated with the image or voice.
【請求項8】 目的とする画像あるいは音声などに対す
るその視聴した人間の生体的反応を、目的とする画像あ
るいは音声の連続する任意の断片に対して関連付けるこ
とを特徴とする請求項5から7のいずれかに記載の画
像、音声データへの付加用標識データの付加方法。
8. The method according to any one of claims 5 to 7, wherein the biological response of the viewed human to the target image or sound is associated with any continuous fragment of the target image or sound. A method of adding tag data for addition to the image or audio data according to any one of the above.
【請求項9】 請求項1、2、3、4記載の標識データ
において、関連付けに用いた生体的反応を発生した個人
を識別できることを特徴とする請求項1から4のいずれ
かに記載の画像、音声データへの付加用標識データ。
9. The image according to any one of claims 1 to 4, wherein in the labeling data according to any one of claims 1, 2, 3 and 4, an individual who has caused a biological reaction used for association can be identified. , Marker data for addition to voice data.
JP2001378313A 2001-12-12 2001-12-12 Additional indicator data to image and voice data, and its adding method Pending JP2003178078A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2001378313A JP2003178078A (en) 2001-12-12 2001-12-12 Additional indicator data to image and voice data, and its adding method

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2001378313A JP2003178078A (en) 2001-12-12 2001-12-12 Additional indicator data to image and voice data, and its adding method

Publications (1)

Publication Number Publication Date
JP2003178078A true JP2003178078A (en) 2003-06-27

Family

ID=19186072

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2001378313A Pending JP2003178078A (en) 2001-12-12 2001-12-12 Additional indicator data to image and voice data, and its adding method

Country Status (1)

Country Link
JP (1) JP2003178078A (en)

Cited By (28)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2005346471A (en) * 2004-06-03 2005-12-15 Canon Inc Information processing method and apparatus
JP2006050163A (en) * 2004-08-03 2006-02-16 Olympus Corp Image pickup device
JP2006050164A (en) * 2004-08-03 2006-02-16 Olympus Corp Image editing apparatus, image editing program and recording medium
US7447330B2 (en) 2004-04-14 2008-11-04 Olympus Corporation Image capturing apparatus
JP2010016482A (en) * 2008-07-01 2010-01-21 Sony Corp Information processing apparatus, and information processing method
JP2010520554A (en) * 2007-03-06 2010-06-10 エムセンス コーポレイション Method and system for creating an aggregated view of user responses in time-varying media using physiological data
JP2010244523A (en) * 2009-03-31 2010-10-28 Internatl Business Mach Corp <Ibm> Method and device for adding and processing tag accompanied by feeling data
JP2011505175A (en) * 2007-10-31 2011-02-24 エムセンス コーポレイション System and method for providing distributed collection and centralized processing of physiological responses from viewers
JP2011054158A (en) * 2009-08-31 2011-03-17 Accenture Global Services Gmbh Object customization and management system
US7945439B2 (en) 2006-06-09 2011-05-17 Sony Corporation Information processing apparatus, information processing method, and computer program
JP2012244361A (en) * 2011-05-18 2012-12-10 Nippon Hoso Kyokai <Nhk> Receiver and program
US8473044B2 (en) 2007-03-07 2013-06-25 The Nielsen Company (Us), Llc Method and system for measuring and ranking a positive or negative response to audiovisual or interactive media, products or activities using physiological signals
JP2014501985A (en) * 2010-12-20 2014-01-23 アルカテル−ルーセント Media asset management system
US8764652B2 (en) 2007-03-08 2014-07-01 The Nielson Company (US), LLC. Method and system for measuring and ranking an “engagement” response to audiovisual or interactive media, products, or activities using physiological signals
US8782681B2 (en) 2007-03-08 2014-07-15 The Nielsen Company (Us), Llc Method and system for rating media and events in media based on physiological data
US8973022B2 (en) 2007-03-07 2015-03-03 The Nielsen Company (Us), Llc Method and system for using coherence of biological responses as a measure of performance of a media
US8989835B2 (en) 2012-08-17 2015-03-24 The Nielsen Company (Us), Llc Systems and methods to gather and analyze electroencephalographic data
US9215996B2 (en) 2007-03-02 2015-12-22 The Nielsen Company (Us), Llc Apparatus and method for objectively determining human response to media
US9292858B2 (en) 2012-02-27 2016-03-22 The Nielsen Company (Us), Llc Data collection system for aggregating biologically based measures in asynchronous geographically distributed public environments
CN105426850A (en) * 2015-11-23 2016-03-23 深圳市商汤科技有限公司 Human face identification based related information pushing device and method
US9320450B2 (en) 2013-03-14 2016-04-26 The Nielsen Company (Us), Llc Methods and apparatus to gather and analyze electroencephalographic data
US9351658B2 (en) 2005-09-02 2016-05-31 The Nielsen Company (Us), Llc Device and method for sensing electrical activity in tissue
US9451303B2 (en) 2012-02-27 2016-09-20 The Nielsen Company (Us), Llc Method and system for gathering and computing an audience's neurologically-based reactions in a distributed framework involving remote storage and computing
JP2016186741A (en) * 2015-03-27 2016-10-27 株式会社東芝 Electronic apparatus and control method therefor
US9491507B2 (en) 2013-05-24 2016-11-08 Fujitsu Limited Content providing program, content providing method, and content providing apparatus
US9622703B2 (en) 2014-04-03 2017-04-18 The Nielsen Company (Us), Llc Methods and apparatus to gather and analyze electroencephalographic data
US11191439B2 (en) 2017-03-24 2021-12-07 Samsung Electronics Co., Ltd. Electronic device and method for capturing contents
EP3955137A4 (en) * 2019-04-10 2022-06-15 Sony Group Corporation Information processing device, information processing method, and program

Cited By (42)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US7447330B2 (en) 2004-04-14 2008-11-04 Olympus Corporation Image capturing apparatus
JP2005346471A (en) * 2004-06-03 2005-12-15 Canon Inc Information processing method and apparatus
JP4641389B2 (en) * 2004-06-03 2011-03-02 キヤノン株式会社 Information processing method and information processing apparatus
JP2006050163A (en) * 2004-08-03 2006-02-16 Olympus Corp Image pickup device
JP2006050164A (en) * 2004-08-03 2006-02-16 Olympus Corp Image editing apparatus, image editing program and recording medium
US10506941B2 (en) 2005-08-09 2019-12-17 The Nielsen Company (Us), Llc Device and method for sensing electrical activity in tissue
US11638547B2 (en) 2005-08-09 2023-05-02 Nielsen Consumer Llc Device and method for sensing electrical activity in tissue
US9351658B2 (en) 2005-09-02 2016-05-31 The Nielsen Company (Us), Llc Device and method for sensing electrical activity in tissue
US7945439B2 (en) 2006-06-09 2011-05-17 Sony Corporation Information processing apparatus, information processing method, and computer program
US9215996B2 (en) 2007-03-02 2015-12-22 The Nielsen Company (Us), Llc Apparatus and method for objectively determining human response to media
JP2010520554A (en) * 2007-03-06 2010-06-10 エムセンス コーポレイション Method and system for creating an aggregated view of user responses in time-varying media using physiological data
US8473044B2 (en) 2007-03-07 2013-06-25 The Nielsen Company (Us), Llc Method and system for measuring and ranking a positive or negative response to audiovisual or interactive media, products or activities using physiological signals
US8973022B2 (en) 2007-03-07 2015-03-03 The Nielsen Company (Us), Llc Method and system for using coherence of biological responses as a measure of performance of a media
US8764652B2 (en) 2007-03-08 2014-07-01 The Nielson Company (US), LLC. Method and system for measuring and ranking an “engagement” response to audiovisual or interactive media, products, or activities using physiological signals
US8782681B2 (en) 2007-03-08 2014-07-15 The Nielsen Company (Us), Llc Method and system for rating media and events in media based on physiological data
JP2011505175A (en) * 2007-10-31 2011-02-24 エムセンス コーポレイション System and method for providing distributed collection and centralized processing of physiological responses from viewers
JP2010016482A (en) * 2008-07-01 2010-01-21 Sony Corp Information processing apparatus, and information processing method
US8788495B2 (en) 2009-03-31 2014-07-22 International Business Machines Corporation Adding and processing tags with emotion data
JP2010244523A (en) * 2009-03-31 2010-10-28 Internatl Business Mach Corp <Ibm> Method and device for adding and processing tag accompanied by feeling data
JP2011054158A (en) * 2009-08-31 2011-03-17 Accenture Global Services Gmbh Object customization and management system
JP2014501985A (en) * 2010-12-20 2014-01-23 アルカテル−ルーセント Media asset management system
JP2012244361A (en) * 2011-05-18 2012-12-10 Nippon Hoso Kyokai <Nhk> Receiver and program
US9292858B2 (en) 2012-02-27 2016-03-22 The Nielsen Company (Us), Llc Data collection system for aggregating biologically based measures in asynchronous geographically distributed public environments
US9451303B2 (en) 2012-02-27 2016-09-20 The Nielsen Company (Us), Llc Method and system for gathering and computing an audience's neurologically-based reactions in a distributed framework involving remote storage and computing
US9215978B2 (en) 2012-08-17 2015-12-22 The Nielsen Company (Us), Llc Systems and methods to gather and analyze electroencephalographic data
US10842403B2 (en) 2012-08-17 2020-11-24 The Nielsen Company (Us), Llc Systems and methods to gather and analyze electroencephalographic data
US11980469B2 (en) 2012-08-17 2024-05-14 Nielsen Company Systems and methods to gather and analyze electroencephalographic data
US8989835B2 (en) 2012-08-17 2015-03-24 The Nielsen Company (Us), Llc Systems and methods to gather and analyze electroencephalographic data
US9907482B2 (en) 2012-08-17 2018-03-06 The Nielsen Company (Us), Llc Systems and methods to gather and analyze electroencephalographic data
US9060671B2 (en) 2012-08-17 2015-06-23 The Nielsen Company (Us), Llc Systems and methods to gather and analyze electroencephalographic data
US10779745B2 (en) 2012-08-17 2020-09-22 The Nielsen Company (Us), Llc Systems and methods to gather and analyze electroencephalographic data
US9320450B2 (en) 2013-03-14 2016-04-26 The Nielsen Company (Us), Llc Methods and apparatus to gather and analyze electroencephalographic data
US11076807B2 (en) 2013-03-14 2021-08-03 Nielsen Consumer Llc Methods and apparatus to gather and analyze electroencephalographic data
US9668694B2 (en) 2013-03-14 2017-06-06 The Nielsen Company (Us), Llc Methods and apparatus to gather and analyze electroencephalographic data
US9491507B2 (en) 2013-05-24 2016-11-08 Fujitsu Limited Content providing program, content providing method, and content providing apparatus
US9622703B2 (en) 2014-04-03 2017-04-18 The Nielsen Company (Us), Llc Methods and apparatus to gather and analyze electroencephalographic data
US9622702B2 (en) 2014-04-03 2017-04-18 The Nielsen Company (Us), Llc Methods and apparatus to gather and analyze electroencephalographic data
US11141108B2 (en) 2014-04-03 2021-10-12 Nielsen Consumer Llc Methods and apparatus to gather and analyze electroencephalographic data
JP2016186741A (en) * 2015-03-27 2016-10-27 株式会社東芝 Electronic apparatus and control method therefor
CN105426850A (en) * 2015-11-23 2016-03-23 深圳市商汤科技有限公司 Human face identification based related information pushing device and method
US11191439B2 (en) 2017-03-24 2021-12-07 Samsung Electronics Co., Ltd. Electronic device and method for capturing contents
EP3955137A4 (en) * 2019-04-10 2022-06-15 Sony Group Corporation Information processing device, information processing method, and program

Similar Documents

Publication Publication Date Title
JP2003178078A (en) Additional indicator data to image and voice data, and its adding method
US10176247B2 (en) Event-related media management system
Del Molino et al. Summarization of egocentric videos: A comprehensive survey
US9583146B2 (en) Media clip creation and distribution systems, apparatus, and methods
Money et al. Video summarisation: A conceptual framework and survey of the state of the art
US9654723B2 (en) Recording apparatus, reproducing apparatus, recording and reproducing apparatus, recording method, reproducing method, recording and reproducing method, and record medium
JP4284097B2 (en) Method and system for supporting media content description
CN104798346B (en) For supplementing the method and computing system of electronic information relevant to broadcast medium
US20100250554A1 (en) Adding and processing tags with emotion data
US20090089833A1 (en) Information processing terminal, information processing method, and program
US8145034B2 (en) Contents replay apparatus and contents replay method
US20120155832A1 (en) Contents replay apparatus and contents replay method
AU2015315144A1 (en) Storage and editing of video of activities using sensor and tag data of participants and spectators
CN107924416A (en) The prompting for the media content quoted in other media contents
US20030219708A1 (en) Presentation synthesizer
JP2002335473A (en) Retrieval information extraction system for moving image contents, retrieved information extraction means, retrieved information storage system, and method for distributing streaming of moving image contents
De Silva et al. Evaluation of video summarization for a large number of cameras in ubiquitous home
US20180232384A1 (en) Methods and apparatus for information capture and presentation
CN108140056A (en) Media program moment guide
JP5343658B2 (en) Recording / playback apparatus and content search program
JP2013098997A (en) Video analysis information transmitter, video analysis information distribution system and distribution method, video viewing system, and video viewing method
CN101015206A (en) Person estimation device and method, and computer program
CN108093297A (en) A kind of method and system of filmstrip automatic collection
JP2013098640A (en) Video analysis information uploading device and video viewing system and method
JP7246289B2 (en) Information processing device and information processing method