JP4600828B2 - 文書対応付け装置、および文書対応付け方法 - Google Patents
文書対応付け装置、および文書対応付け方法 Download PDFInfo
- Publication number
- JP4600828B2 JP4600828B2 JP2005517060A JP2005517060A JP4600828B2 JP 4600828 B2 JP4600828 B2 JP 4600828B2 JP 2005517060 A JP2005517060 A JP 2005517060A JP 2005517060 A JP2005517060 A JP 2005517060A JP 4600828 B2 JP4600828 B2 JP 4600828B2
- Authority
- JP
- Japan
- Prior art keywords
- document
- content
- section
- sections
- speaker
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
- 238000000034 method Methods 0.000 title claims description 149
- 238000000605 extraction Methods 0.000 claims description 167
- 230000008859 change Effects 0.000 claims description 94
- 239000000284 extract Substances 0.000 claims description 81
- 230000000007 visual effect Effects 0.000 claims description 76
- 238000009795 derivation Methods 0.000 claims description 46
- 238000004458 analytical method Methods 0.000 claims description 30
- 230000010354 integration Effects 0.000 claims description 13
- 230000001360 synchronised effect Effects 0.000 claims description 4
- 230000001815 facial effect Effects 0.000 claims description 3
- 238000003909 pattern recognition Methods 0.000 claims 3
- 239000004615 ingredient Substances 0.000 claims 1
- 238000005192 partition Methods 0.000 claims 1
- 238000012916 structural analysis Methods 0.000 claims 1
- 238000010586 diagram Methods 0.000 description 43
- 238000012545 processing Methods 0.000 description 16
- 238000010606 normalization Methods 0.000 description 12
- 238000006243 chemical reaction Methods 0.000 description 4
- 239000011295 pitch Substances 0.000 description 4
- 238000004364 calculation method Methods 0.000 description 3
- 238000007796 conventional method Methods 0.000 description 3
- 238000004891 communication Methods 0.000 description 2
- 238000004590 computer program Methods 0.000 description 2
- 238000001514 detection method Methods 0.000 description 2
- 239000000463 material Substances 0.000 description 2
- 230000008569 process Effects 0.000 description 2
- 238000011160 research Methods 0.000 description 2
- 230000011218 segmentation Effects 0.000 description 2
- 239000004606 Fillers/Extenders Substances 0.000 description 1
- 230000009471 action Effects 0.000 description 1
- 238000002474 experimental method Methods 0.000 description 1
- 230000006870 function Effects 0.000 description 1
- 230000014509 gene expression Effects 0.000 description 1
- 210000003128 head Anatomy 0.000 description 1
- 238000013507 mapping Methods 0.000 description 1
- 238000012544 monitoring process Methods 0.000 description 1
- 238000013515 script Methods 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L15/00—Speech recognition
- G10L15/06—Creation of reference templates; Training of speech recognition systems, e.g. adaptation to the characteristics of the speaker's voice
Landscapes
- Engineering & Computer Science (AREA)
- Artificial Intelligence (AREA)
- Computational Linguistics (AREA)
- Health & Medical Sciences (AREA)
- Audiology, Speech & Language Pathology (AREA)
- Human Computer Interaction (AREA)
- Physics & Mathematics (AREA)
- Acoustics & Sound (AREA)
- Multimedia (AREA)
- Television Signal Processing For Recording (AREA)
- Information Retrieval, Db Structures And Fs Structures Therefor (AREA)
Description
判定手段は、前記マッチング手段による処理結果に基づき、前記入力音声がいずれの標準パターンに類似しているかを前記所定周期毎に判定する。音声区間判別手段は、前記判定手段による判定結果に基づき、前記各話者の音声区間を判別するとを備えている。
そのコンテンツ話者識別部は、その音声情報における声の高さ、声の長さ、声の強さのうちの少なくとも一つの韻律情報の特徴に基づいて、その発話者を特定する
文書対応付け装置。
図1は、本発明の文書対応付け装置の実施の形態の構成を示す図である。文書対応付け装置10は、コンテンツ入力手段(コンテンツ入力部)1と、文書入力手段(文書入力部)2と、コンテンツ記憶手段(コンテンツ記憶部)3と、文書記憶手段(文書記憶部)4と、コンテンツ区間抽出手段(コンテンツ区間抽出部)5と、文書区間抽出手段(文書区間抽出部)6と、区間対応関係導出手段(区間対応関係導出部)7と、出力手段(出力部)8とを具備する。コンテンツ入力手段1は、音声や映像などの情報(データ)を含むコンテンツを入力する。文書入力手段2は、コンテンツに関連する文書を入力する。コンテンツ記憶手段3は、コンテンツ入力手段1から得られたコンテンツを記憶する。文書記憶手段4は、文書入力手段2から得られた文書を記憶する。コンテンツ区間抽出手段5は、コンテンツより単一話者区間を抽出する。文書区間抽出手段6は、文書から単一話者区間の抽出を行う。区間対応関係導出手段7は、コンテンツ区間抽出手段5が抽出したコンテンツ区間と文書区間抽出手段6が抽出した文書区間との対応関係を導出する。出力手段8は、区間対応関係導出手段7が導出した対応関係を出力する。
両区間の音声特徴量が異なっている場合(ステップS106:NO)、音声特徴量整合部24は、音声の発話者が変化したと判定する。出力部25は、一次記憶部23中に記憶されている開始時間と、現在の音声区間の開始時間の間の区間を単一話者の発話区間として出力する(ステップS107)。すなわち、音特徴の変化点解析により、単一話者の発話区間が検出される。同時に、一次記憶部23は、音声特徴量と開始時間を新規に得られたものに更新する(ステップS108)。音声分割部21は、音声データが終了していない場合(ステップS109:NO)、引き続き次の音声の無音区間を抽出する(ステップS101)。
その場合、音声特徴量導出部92から入力した音声特徴量と一次記憶部94に記憶されている音声特徴量との差があらかじめ定めた閾値よりも小さい場合、又は、視覚的特徴量導出部93から入力した視覚的特徴量と一次記憶部94に記憶されている視覚的特徴量との差があらかじめ定めた閾値よりも小さい場合に、同一人物による発話が終了したと判定する。
図11A〜図11Dは、本発明の文書対応付け方法の実施の形態における文書の書式情報を利用する方法の一例を示す図である。図11Aに示す例では、発話者間の発言に対して空行が挿入されている。よって、文書区間抽出手段6は、空行をもとに文書区間を抽出することができる。図11Bに示す例では、対談における文書が例示されている。そして、ホストの発言が斜字で表示されている。よって、文書区間抽出手段6は、ゲストの発言内容とホストの発言内容とを識別して、文書区間の抽出を行うことができる。図11Cに示す例では、発話者ごとに色が異なっている。複数の発話者を区別する際によく利用される。よって、文書区間抽出手段6は、色情報を用いて文書区間を抽出することができる。図11Dに示す例では、発話者ごとに記載場所が整理されている。このように発話者ごとに記載場所が整理されている場合には、発話者の名前が直接記入されていなくても、文書区間抽出手段6は、単一発話者と推定される区間を抽出することができる。なお、ここで抽出した区間はあくまで候補であり、単一発話者の区間で区切られていることが望ましいが、厳密に単一発話者の発言でまとまっていなくてもよい。なお、図11A〜図11Dを参照して説明される方法では、文書の構造解析の一例が実施されていることになる。
音声認識部61は、コンテンツ区間抽出手段5から、コンテンツ区間についての情報を入力される。また、コンテンツ記憶手段3からコンテンツ情報を入力される。そして、コンテンツ情報から音声情報を取り出し、音声認識を行って、入力音声に対する候補テキストを生成する(ステップS341)。音声認識方式については種々の手法があるが、音素をもちいた認識方法、直接単語テンプレートを利用して音声認識する方法、話者に合わせてテンプレートを変換する等、この実施の形態ではいずれの方法を用いてもよい。
Claims (51)
- コンテンツ区間抽出部と文書区間抽出部と区間対応関係導出部とを具備する文書対応付け装置を用いた文書対応付け方法であって、
(b)前記コンテンツ区間抽出部が、音声情報及び映像情報のうちの少なくとも一方を含むコンテンツを分割して複数のコンテンツ区間とするステップと、
(c)前記文書区間抽出部が、前記コンテンツの内容を記述した文書を分割して複数の文書区間とするステップと、
(d)前記区間対応関係導出部が、前記コンテンツにおける前記複数のコンテンツ区間の区間長の変化の仕方を示す第1変化パタンを、前記複数のコンテンツ区間の全区間長で割ることで正規化した正規化第1変化パタンと、前記文書における前記複数の文書区間の文書量の変化の仕方を示す第2変化パタンを、前記複数の文書区間の全文書量で割ることで正規化した正規化第2変化パタンとの比較に基づいて、前記正規化第1変化パタンにおける前記複数のコンテンツ区間の位置と、前記正規化第2変化パタンにおける前記複数の文書区間の位置とから、前記複数のコンテンツ区間と前記複数の文書区間との対応関係を導出するステップと
を具備し、
前記(d)ステップは、
(d1)前記区間対応関係導出部が、前記前記複数のコンテンツ区間の数と前記複数の文書区間の数とが一対一に対応するように、前記複数のコンテンツ区間のうちの隣接する二つのコンテンツ区間を統合して一つのコンテンツ区間とすること、及び、前記複数の文書区間のうちの隣接する二つの文書区間を統合して一つの文書区間とすること、の少なくとも一方を実行するステップを備え、
前記(d1)ステップは、
(d11)前記区間対応関係導出部が、前記二つのコンテンツ区間を統合して前記一つのコンテンツ区間とする場合には、前記複数のコンテンツ区間を分割する区切りとしての変化点を抽出するために行った変化点解析における変化点抽出の確信度が相対的に低い前記二つのコンテンツ区間を選択し、前記二つの文書区間を統合して一つの文書区間とする場合には、前記複数の文書区間を分割する区切りとしての変化点を抽出するために行った変化点解析における変化点抽出の確信度が相対的に低い前記二つの文書区間を選択するステップを含む
文書対応付け方法。 - 請求項1に記載の文書対応付け方法において、
前記(d)ステップは、
(d2)前記区間対応関係導出部が、前記コンテンツに含まれる人物を特定する特徴量に基づいて、前記正規化第1パタンにおける前記複数のコンテンツ区間の各々の話者を特定するステップと、
(d3)前記区間対応関係導出部が、前記文書に含まれる人物を特定する話者に関する情報としての話者情報に基づいて、前記正規化第2パタンにおける前記複数の文書区間の各々の話者を特定するステップと、
(d4)前記区間対応関係導出部が、前記正規化第1パタン及び前記正規化第2パタンで特定された前記話者に基づいて、前記正規化第1変化パタンと前記正規化第2変化パタンとの対応付けを行うステップと
を備える
文書対応付け方法。 - 請求項1に記載の文書対応付け方法において、
前記(d)ステップは、
(d5)前記区間対応関係導出部が、前記複数のコンテンツ区間の各々における無音区間を削除するステップと、
(d6)前記区間対応関係導出部が、無音区間を削除された前記複数のコンテンツ区間の各々の区間長を求めるステップと、
(d7)前記区間対応関係導出部が、前記無音区間を削除された複数のコンテンツ区間の区間長に基づいて、前記正規化第1変化パタンを求めるステップと
を備える
文書対応付け方法。 - 請求項1に記載の文書対応付け方法において、
前記(b)ステップは、
(b1)前記コンテンツ区間抽出部が、前記コンテンツに含まれる人物を特定する特徴量を抽出するステップと、
(b2)前記コンテンツ区間抽出部が、前記特徴量が予め設定した閾値より類似している区間を、一人の話者の発話が継続している一つのコンテンツ区間と推定して、隣り合うコンテンツ区間の話者が異なる前記複数のコンテンツ区間を抽出するステップを備える
文書対応付け方法。 - 請求項1に記載の文書対応付け方法において、
前記(c)ステップは、
(c1)前記文書区間抽出部が、前記文書に含まれる文書区切りを示す文書区切情報を抽出するステップと、
(c2)前記文書区間抽出部が、前記文書区切情報間の区間を、一人の話者の発話が継続している一つの文書区間と推定して、隣り合うコンテンツ区間の話者が異なる前記複数の文書区間を抽出するステップを備える
文書対応付け方法。 - 請求項1に記載の文書対応付け方法において、
前記(d)ステップは、
(d8)前記区間対応関係導出部が、前記複数のコンテンツ区間の前記第1変化パタンと前記複数の文書区間の前記第2変化パタンとについて、いずれか一方を標準パタンとし、他方を入力パタンとして、パタン認識におけるダイナミックプログラミングマッチングの方法により、前記対応付けを行うステップを備える
文書対応付け方法。 - 請求項1に記載の文書対応付け方法において、
前記(b)ステップは、
(b3)前記コンテンツ区間抽出部が、記憶された前記コンテンツに含まれる人物を特定する特徴量に基づいて、前記特徴量が変化した時点である前記複数の話者の一人から前記複数の話者の他の一人へ話者が変化した時点を前記コンテンツから抽出するステップと、
(b4)前記コンテンツ区間抽出部が、前記話者が変化した時点に基づいて、前記コンテンツを話者単位で分割するステップと
を含む
文書対応付け方法。 - 請求項7に記載の文書対応付け方法において、
前記(b3)ステップは、
(b31)前記コンテンツは前記音声情報であり、前記コンテンツ区間抽出部が、前記特徴量としての音声特徴量に基づいて、前記音声特徴量が変化した時点としての前記話者の音声の変化点を前記音声情報から抽出するステップを含む
文書対応付け方法。 - 請求項7記載の文書対応付け方法において、
前記(b3)ステップは、
(b32)前記コンテンツは前記映像情報であり、前記コンテンツ区間抽出部が、前記特徴量としての人物特徴量に基づいて、前記人物特徴量が変化した時点としての前記話者の映像の変化点を映像情報から抽出するステップを含む
文書対応付け方法。 - 請求項1乃至7のいずれか一項に記載の文書対応付け方法において、
前記コンテンツは、前記音声情報と前記映像情報とが同期した音声映像情報である
文書対応付け方法。 - 請求項8に記載の文書対応付け方法において、
前記(b3)ステップは、
(b33)前記コンテンツ区間抽出部が、前記音声情報の音特徴としての前記音声特徴量の変化点解析を行い、前記音声特徴量が変化した時点として、前記話者が変化した時点を導出するステップを含む
文書対応付け方法。 - 請求項9に記載の文書対応付け方法において、
前記(b3)ステップは、
(b34)前記コンテンツ区間抽出部が、前記映像情報の視覚的特徴としての前記人物特徴量の変化点解析を行い、前記人物特徴量が変化した時点として、前記話者が変化した時点を導出するステップを含む
文書対応付け方法。 - 請求項7に記載の文書対応付け方法において、
前記(b3)ステップは、
(b35)前記コンテンツは前記音声情報と前記映像情報とを含む音声映像情報であり、前記コンテンツ区間抽出部が、前記映像情報の視覚的特徴である前記特徴量としての人物特徴量の変化点解析及び前記音声情報の音特徴である前記特徴量としての音声特徴量の変化点解析を行い、双方の結果を統合して、前記特徴量が変化した時点として、前記話者が変化した時点を導出するステップを含む
文書対応付け方法。 - 請求項5に記載の文書対応付け方法において、
前記(c2)ステップは、
(c21)前記文書区間抽出部が、前記文書区切情報としての空行、フォントの相違、文字色の相違、文字レイアウト、話者の名前の少なくとも一つに基づいて前記文書の構造解析を行い、前記文書を話者単位で分割するステップを備える
文書対応付け方法。 - コンピュータに、請求項1乃至14のいずれか一項に記載された方法を実行させるプログラム。
- コンピュータにより読み取り可能な、請求項15に記載されたプログラムを記憶した記憶媒体。
- 音声情報及び映像情報のうちの少なくとも一方を含むコンテンツを分割して複数のコンテンツ区間を抽出するコンテンツ区間抽出部と、
前記コンテンツの内容を記述した文書を分割して複数の文書区間を抽出する文書区間抽出部と、
前記コンテンツにおける前記複数のコンテンツ区間の区間長の変化の仕方を示す第1変化パタンを、前記複数のコンテンツ区間の全区間長で割ることで正規化した正規化第1変化パタンと、前記文書における前記複数の文書区間の文書量の第2変化パタンを、前記複数の文書区間の全文書量で割ることで正規化した正規化第2変化パタンとの比較に基づいて、前記正規化第1変化パタンにおける前記複数のコンテンツ区間の位置と、前記正規化第2変化パタンにおける前記複数の文書区間の位置とから、前記複数のコンテンツ区間と前記複数の文書区間との対応関係を導出する区間対応関係導出部と
を具備し、
前記区間対応関係導出部は、前記前記複数のコンテンツ区間の数と前記複数の文書区間の数とが一対一に対応するように、前記複数のコンテンツ区間のうちの隣接する二つのコンテンツ区間を統合して一つのコンテンツ区間とすること、及び、前記複数の文書区間のうちの隣接する二つの文書区間を統合して一つの文書区間とすること、の少なくとも一方を実行し、
前記区間対応関係導出部は、前記二つのコンテンツ区間を統合して前記一つのコンテンツ区間とする場合には、前記複数のコンテンツ区間を分割する区切りとしての変化点を抽出するために行った変化点解析における変化点抽出の確信度が相対的に低い前記二つのコンテンツ区間を選択し、前記二つの文書区間を統合して一つの文書区間とする場合には、前記複数の文書区間を分割する区切りとしての変化点を抽出するために行った変化点解析における変化点抽出の確信度が相対的に低い前記二つの文書区間を選択する
文書対応付け装置。 - 請求項17に記載の文書対応付け装置において、
前記区間対応関係導出部は、前記コンテンツに含まれる人物を特定する特徴量に基づいて、前記正規化第1パタンにおける前記複数のコンテンツ区間の各々の話者を特定し、前記文書に含まれる人物を特定する話者に関する情報としての話者情報に基づいて、前記正規化第2パタンにおける前記複数の文書区間の各々の話者を特定し、前記正規化第1パタン及び前記正規化第2パタンで特定された前記話者に基づいて、前記正規化第1変化パタンと前記正規化第2変化パタンとの対応付けを行う
文書対応付け装置。 - 請求項17に記載の文書対応付け装置において、
前記区間対応関係導出部は、前記複数のコンテンツ区間の各々における無音区間を削除して、無音区間を削除された前記複数のコンテンツ区間の各々の区間長を求め、前記無音区間を削除された複数のコンテンツ区間の区間長に基づいて、前記正規化第1変化パタンを求める
文書対応付け装置。 - 請求項17乃至19のいずれか一項に記載の文書対応付け装置において、
前記コンテンツ区間抽出部は、前記コンテンツに含まれる人物を特定する特徴量を抽出し、前記特徴量が予め設定した閾値より類似している区間を、一人の話者の発話が継続している一つのコンテンツ区間と推定して、隣り合うコンテンツ区間の話者が異なる前記複数のコンテンツ区間を抽出する
文書対応付け装置。 - 請求項17乃至20のいずれか一項に記載の文書対応付け装置において、
前記文書区間抽出部は、前記文書に含まれる文書区切りを示す文書区切情報を抽出し、前記文書区切情報間の区間を、一人の話者の発話が継続している一つの文書区間と推定して、隣り合うコンテンツ区間の話者が異なる前記複数の文書区間を抽出する
文書対応付け装置。 - 請求項17乃至21のいずれか一項に記載の文書対応付け装置において、
前記区間対応関係導出部は、前記複数のコンテンツ区間の前記第1変化パタンと前記複数の文書区間の前記第2変化パタンとについて、いずれか一方を標準パタンとし、他方を入力パタンとして、パタン認識におけるダイナミックプログラミングマッチングの方法により、前記対応付けを行う
文書対応付け装置。 - 請求項17乃至19のいずれか一項に記載の文書対応付け装置において、
前記コンテンツは前記音声情報であり、
前記コンテンツ区間抽出部は、前記音声情報の音特徴を解析して、前記音特徴の変化する点に基づいて、前記複数のコンテンツ区間を抽出する
文書対応付け装置。 - 請求項17乃至19のいずれか一項に記載の文書対応付け装置において、
前記コンテンツは前記映像情報であり、
前記コンテンツ区間抽出部は、前記映像情報の視覚的特徴を解析して、前記視覚的特徴の変化する点に基づいて、前記複数のコンテンツ区間を抽出する
文書対応付け装置。 - 請求項17乃至19のいずれか一項に記載の文書対応付け装置において、
前記コンテンツは、前記音声情報と前記映像情報とが同期した音声映像情報であり、
前記コンテンツ区間抽出部は、前記音声情報の音特徴の解析の結果における前記音特徴の変化する点と前記映像情報の視覚的特徴の解析の結果における前記視覚的特徴の変化する点とを統合して前記複数のコンテンツ区間を抽出する
文書対応付け装置。 - 請求項25に記載の文書対応付け装置において、
コンテンツ区間抽出部は、
前記音声情報の音特徴を解析して、前記音特徴の変化する点に基づいて、前記音声情報を話者単位に分割して複数の音声区間を抽出する音声区間抽出部と、
前記映像情報の視覚的特徴を解析して、前記視覚的特徴の変化する点に基づいて、前記映像情報を話者単位に分割して複数の映像区間を抽出する映像区間抽出部と、
前記複数の音声区間に関する複数の音声区間情報と、前記複数の映像区間に関する複数の映像区間情報とに基づいて、前記複数のコンテンツ区間を抽出する音声映像区間統合部と
を含む
文書対応付け装置。 - 請求項17乃至19のいずれか一項に記載の文書対応付け装置において、
前記コンテンツ区間抽出部は、記憶された前記コンテンツに含まれる人物を特定する特徴量に基づいて、前記特徴量が変化した時点である前記複数の話者の一人から前記複数の話者の他の一人へ話者が変化した時点としての話者変化点を抽出して、前記話者が変化した時点に基づいて前記コンテンツを話者単位で分割した前記複数のコンテンツ区間を抽出する
文書対応付け装置。 - 請求項27に記載の文書対応付け装置において、
前記コンテンツは前記音声情報を含み、
前記コンテンツ区間抽出部は、前記特徴量としての前記音声情報における発話の高さ、発話速度、発話の大きさのうちの少なくとも一つの韻律情報の特徴の変化に基づいて、前記話者変化点を抽出する
文書対応付け装置。 - 請求項27に記載の文書対応付け装置において、
前記コンテンツは前記音声情報を含み、
前記コンテンツ区間抽出部は、前記特徴量としての前記音声情報における会話形態の変化に基づいて、前記話者変化点を抽出する
文書対応付け装置。 - 請求項27に記載の文書対応付け装置において、
前記コンテンツは前記映像情報を含み、
前記コンテンツ区間抽出部は、前記特徴量としての前記映像情報における人物の視覚的特徴の変化に基づいて、前記話者変化点を抽出する
文書対応付け装置。 - 請求項27に記載の文書対応付け装置において、
前記コンテンツは前記映像情報を含み、
前記コンテンツ区間抽出部は、前記特徴量としての前記映像情報における人物の顔特徴の変化に基づいて、前記話者変化点を抽出する
文書対応付け装置。 - 請求項27に記載の文書対応付け装置において、
前記コンテンツは前記映像情報を含み、
前記コンテンツ区間抽出部は、前記特徴量としての前記映像情報における人物の衣服の視覚的特徴の変化に基づいて、前記話者変化点を抽出する
文書対応付け装置。 - 請求項17乃至32のいずれか一項に記載の文書対応付け装置において、
前記文書区間抽出部は、前記文書の書式情報に基づいて、前記書式情報が同じ区間を、一人の話者の発話が継続している一つの文書区間と推定して、隣り合うコンテンツ区間の話者が異なる前記複数の文書区間を抽出する
文書対応付け装置。 - 請求項17乃至32のいずれか一項に記載の文書対応付け装置において、
前記文書区間抽出部は、前記文書に記入された話者に関する記述に基づいて、前記話者が同じ区間を、一人の話者の発話が継続している一つの文書区間と推定して、隣り合うコンテンツ区間の話者が異なる前記複数の文書区間を抽出する
文書対応付け装置。 - 請求項17乃至32のいずれか一項に記載の文書対応付け装置において、
前記文書区間抽出部は、前記文書における構造化文書のタグ情報に基づいて、前記タグ情報が同じ区間を、一人の話者の発話が継続している一つの文書区間と推定して、隣り合うコンテンツ区間の話者が異なる前記複数の文書区間を抽出する
文書対応付け装置。 - 請求項17乃至32のいずれか一項に記載の文書対応付け装置において、
前記文書区間抽出部は、前記文書における会話特徴の変化に基づいて、前記会話特徴が同じ区間を、一人の話者の発話が継続している一つの文書区間と推定して、隣り合うコンテンツ区間の話者が異なる前記複数の文書区間を抽出する
文書対応付け装置。 - 請求項18に記載の文書対応付け装置において、
前記区間対応関係導出部は、
前記特徴量に基づいて、前記複数のコンテンツ区間の各々の話者を特定するコンテンツ話者識別部と、
前記話者情報に基づいて、前記複数の文書区間の各々の話者を特定する文書話者情報抽出部と、
特定された前記複数のコンテンツ区間の各々の話者及び前記複数の文書区間の各々の話者に基づいて、前記複数のコンテンツ区間と前記複数の文書区間との整合を行う区間整合部と
を含む
文書対応付け装置。 - 請求項37の文書対応付け装置において、
前記コンテンツ話者識別部は、
前記複数のコンテンツ区間の各々の特徴量を抽出するコンテンツ特徴量抽出部と、
前記特徴量と前記話者とを対応させて記憶する話者情報記憶部と、
記憶された前記特徴量と抽出された特徴量との比較に基づいて、前記話者の識別を行う特徴量整合識別部と
を含む
文書対応付け装置。 - 請求項37又は38に記載の文書対応付け装置において、
前記コンテンツ話者識別部は、前記特徴量としての前記音声情報における声の高さ、声の長さ、声の強さのうちの少なくとも一つの韻律情報の特徴に基づいて、前記話者を特定する
文書対応付け装置。 - 請求項37又は38に記載の文書対応付け装置において、
前記コンテンツ話者識別部は、前記特徴量としての前記音声情報における会話形態の表す特徴量に基づいて、前記話者を特定する
文書対応付け装置。 - 請求項37又は38に記載の文書対応付け装置において、
前記コンテンツ話者識別部は、前記特徴量としての前記映像情報における人物の視覚的特徴量に基づいて、前記話者を特定する
文書対応付け装置。 - 請求項41に記載の文書対応付け装置において、
前記コンテンツ話者識別部は、前記人物の視覚的特徴として人物の顔特徴を用いる
文書対応付け装置。 - 請求項37乃至42のいずれか一項に記載の文書対応付け装置において、
前記文書話者情報抽出部は、前記話者情報に基づいて、前記文書に記入された話者に関する記述に基づいて、前記話者を特定する
文書対応付け装置。 - 請求項37乃至42のいずれか一項に記載の文書対応付け装置において、
前記文書話者情報抽出部は、前記話者情報に基づいて、前記文書における構造化文書のメタデータに基づいて、話者を特定する
文書対応付け装置。 - 請求項37乃至44のいずれか一項に記載の文書対応付け装置において、
前記区間整合部は、前記複数のコンテンツ区間の各々における話者と前記複数の文書区間の各々における話者とが一致するように、前記複数のコンテンツ区間と前記複数の文書区間とを対応付ける
文書対応付け装置。 - 請求項45に記載の文書対応付け装置において、
前記区間整合部は、前記複数のコンテンツ区間の前記第1変化パタンと前記複数の文書区間の前記第2変化パタンとについて、いずれか一方を標準パタンとし、他方を入力パタンとして、パタン認識におけるダイナミックプログラミングマッチングを実行した結果に基づいて、前記複数のコンテンツ区間と前記複数の文書区間とを対応付ける
文書対応付け装置。 - 請求項17乃至46のいずれか一項に記載の文書対応付け装置において、
前記コンテンツは音声情報を含み、
前記複数のコンテンツ区間における発話内容を抽出して発話テキスト情報を出力する音声認識部を更に具備し、
前記区間対応関係導出部は、前記発話テキスト情報と前記文書の文書情報との類似度に基づいて、前記複数のコンテンツ区間と前記複数の文書区間とを対応付ける
文書対応付け装置。 - 請求項47に記載の文書対応付け装置において、
前記区間対応関係導出部は、前記発話テキスト情報で出現する単語のパタンと前記文書情報で出現する単語のパタンとについて、いずれか一方を標準パタンとし、他方を入力パタンとして、パタン認識におけるダイナミックプログラムマッチングを実行した結果に基づいて、前記発話テキスト情報と前記文書情報とを整合させる
文書対応付け装置。 - 請求項47又は48記載の文書対応付け装置において、
前記区間対応関係導出部は、
前記発話テキスト情報における前記複数のコンテンツ区間の各々で使用されている一つまたは複数の第1基本単語と、前記複数の文書区間の各々で使用されている一つまたは複数の第2基本単語とをそれぞれ抽出する基本単語抽出部と、
前記複数の第1基本単語と、前記複数の第2基本単語との間の類似度を測定する基本単語群類似度導出部とを含み、
前記類似度に基づいて、前記対応関係を導出する
文書対応付け装置。 - 請求項47又は48に記載の文書対応付け装置において、
前記区間対応関係導出部は、前記類似度を、ダイナミックプログラミングマッチングにより対応付けることによって対応関係を導出する
文書対応付け装置。 - 請求項17乃至50のいずれか一項に記載の文書対応付け装置において、
前記コンテンツを入力するコンテンツ入力部と、
前記コンテンツを記憶するコンテンツ記憶部と、
前記文書情報を入力する文書入力部と、
前記文書を記憶する文書記憶部と、
前記対応関係に関する情報を出力する出力部と
を更に具備する
文書対応付け装置。
Applications Claiming Priority (3)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2004006713 | 2004-01-14 | ||
JP2004006713 | 2004-01-14 | ||
PCT/JP2005/000333 WO2005069171A1 (ja) | 2004-01-14 | 2005-01-14 | 文書対応付け装置、および文書対応付け方法 |
Publications (2)
Publication Number | Publication Date |
---|---|
JPWO2005069171A1 JPWO2005069171A1 (ja) | 2008-09-04 |
JP4600828B2 true JP4600828B2 (ja) | 2010-12-22 |
Family
ID=34792152
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2005517060A Active JP4600828B2 (ja) | 2004-01-14 | 2005-01-14 | 文書対応付け装置、および文書対応付け方法 |
Country Status (2)
Country | Link |
---|---|
JP (1) | JP4600828B2 (ja) |
WO (1) | WO2005069171A1 (ja) |
Families Citing this family (107)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US8645137B2 (en) | 2000-03-16 | 2014-02-04 | Apple Inc. | Fast, language-independent method for user authentication by voice |
ATE512411T1 (de) * | 2003-12-05 | 2011-06-15 | Koninkl Philips Electronics Nv | System und verfahren zur integrierten analyse von intrinsischen und extrinsischen audiovisuellen daten |
US8677377B2 (en) | 2005-09-08 | 2014-03-18 | Apple Inc. | Method and apparatus for building an intelligent automated assistant |
JP2007304642A (ja) * | 2006-05-08 | 2007-11-22 | Nippon Hoso Kyokai <Nhk> | 文書データ分類装置及び文書データ分類プログラム |
JP4807189B2 (ja) * | 2006-08-31 | 2011-11-02 | 富士ゼロックス株式会社 | 情報処理装置及びプログラム |
US9318108B2 (en) | 2010-01-18 | 2016-04-19 | Apple Inc. | Intelligent automated assistant |
WO2008050718A1 (fr) * | 2006-10-26 | 2008-05-02 | Nec Corporation | Dispositif d'extraction d'informations de droit, procédé d'extraction d'informations de droit et programme |
US8977255B2 (en) | 2007-04-03 | 2015-03-10 | Apple Inc. | Method and system for operating a multi-function portable electronic device using voice-activation |
JP4964044B2 (ja) * | 2007-07-06 | 2012-06-27 | 三菱電機株式会社 | 顔検出装置及び顔検出方法 |
US9330720B2 (en) | 2008-01-03 | 2016-05-03 | Apple Inc. | Methods and apparatus for altering audio output signals |
US8996376B2 (en) | 2008-04-05 | 2015-03-31 | Apple Inc. | Intelligent text-to-speech conversion |
US10496753B2 (en) | 2010-01-18 | 2019-12-03 | Apple Inc. | Automatically adapting user interfaces for hands-free interaction |
US20100030549A1 (en) | 2008-07-31 | 2010-02-04 | Lee Michael M | Mobile device having human language translation capability with positional feedback |
US10241644B2 (en) | 2011-06-03 | 2019-03-26 | Apple Inc. | Actionable reminder entries |
US10241752B2 (en) | 2011-09-30 | 2019-03-26 | Apple Inc. | Interface for a virtual digital assistant |
US10706373B2 (en) | 2011-06-03 | 2020-07-07 | Apple Inc. | Performing actions associated with task items that represent tasks to perform |
US9858925B2 (en) | 2009-06-05 | 2018-01-02 | Apple Inc. | Using context information to facilitate processing of commands in a virtual assistant |
US9431006B2 (en) | 2009-07-02 | 2016-08-30 | Apple Inc. | Methods and apparatuses for automatic speech recognition |
US10679605B2 (en) | 2010-01-18 | 2020-06-09 | Apple Inc. | Hands-free list-reading by intelligent automated assistant |
US10705794B2 (en) | 2010-01-18 | 2020-07-07 | Apple Inc. | Automatically adapting user interfaces for hands-free interaction |
US10553209B2 (en) | 2010-01-18 | 2020-02-04 | Apple Inc. | Systems and methods for hands-free notification summaries |
US10276170B2 (en) | 2010-01-18 | 2019-04-30 | Apple Inc. | Intelligent automated assistant |
DE112011100329T5 (de) | 2010-01-25 | 2012-10-31 | Andrew Peter Nelson Jerram | Vorrichtungen, Verfahren und Systeme für eine Digitalkonversationsmanagementplattform |
US8682667B2 (en) | 2010-02-25 | 2014-03-25 | Apple Inc. | User profiling for selecting user specific voice input processing information |
TW201230008A (en) * | 2011-01-11 | 2012-07-16 | Hon Hai Prec Ind Co Ltd | Apparatus and method for converting voice to text |
US9262612B2 (en) | 2011-03-21 | 2016-02-16 | Apple Inc. | Device access using voice authentication |
TWI488174B (zh) * | 2011-06-03 | 2015-06-11 | Apple Inc | 自動地建立文字資料與音訊資料間之映射 |
US10057736B2 (en) | 2011-06-03 | 2018-08-21 | Apple Inc. | Active transport based notifications |
US8994660B2 (en) | 2011-08-29 | 2015-03-31 | Apple Inc. | Text correction processing |
US9483461B2 (en) | 2012-03-06 | 2016-11-01 | Apple Inc. | Handling speech synthesis of content for multiple languages |
US9280610B2 (en) | 2012-05-14 | 2016-03-08 | Apple Inc. | Crowd sourcing information to fulfill user requests |
US9721563B2 (en) | 2012-06-08 | 2017-08-01 | Apple Inc. | Name recognition system |
US9495129B2 (en) | 2012-06-29 | 2016-11-15 | Apple Inc. | Device, method, and user interface for voice-activated navigation and browsing of a document |
US9547647B2 (en) | 2012-09-19 | 2017-01-17 | Apple Inc. | Voice-based media searching |
WO2014197334A2 (en) | 2013-06-07 | 2014-12-11 | Apple Inc. | System and method for user-specified pronunciation of words for speech synthesis and recognition |
WO2014197336A1 (en) | 2013-06-07 | 2014-12-11 | Apple Inc. | System and method for detecting errors in interactions with a voice-based digital assistant |
US9582608B2 (en) | 2013-06-07 | 2017-02-28 | Apple Inc. | Unified ranking with entropy-weighted information for phrase-based semantic auto-completion |
WO2014197335A1 (en) | 2013-06-08 | 2014-12-11 | Apple Inc. | Interpreting and acting upon commands that involve sharing information with remote devices |
JP6259911B2 (ja) | 2013-06-09 | 2018-01-10 | アップル インコーポレイテッド | デジタルアシスタントの2つ以上のインスタンスにわたる会話持続を可能にするための機器、方法、及びグラフィカルユーザインタフェース |
US10176167B2 (en) | 2013-06-09 | 2019-01-08 | Apple Inc. | System and method for inferring user intent from speech inputs |
WO2014199602A1 (ja) * | 2013-06-10 | 2014-12-18 | パナソニック インテレクチュアル プロパティ コーポレーション オブ アメリカ | 話者識別方法、話者識別装置及び情報管理方法 |
JP2015127929A (ja) * | 2013-12-27 | 2015-07-09 | 昭仁 島田 | 会話を記録された成員から或る主題を討議するのに最適な班構成を判別する方法 |
US9760559B2 (en) | 2014-05-30 | 2017-09-12 | Apple Inc. | Predictive text input |
US9430463B2 (en) | 2014-05-30 | 2016-08-30 | Apple Inc. | Exemplar-based natural language processing |
CN110797019B (zh) | 2014-05-30 | 2023-08-29 | 苹果公司 | 多命令单一话语输入方法 |
US9715875B2 (en) | 2014-05-30 | 2017-07-25 | Apple Inc. | Reducing the need for manual start/end-pointing and trigger phrases |
US10078631B2 (en) | 2014-05-30 | 2018-09-18 | Apple Inc. | Entropy-guided text prediction using combined word and character n-gram language models |
US9785630B2 (en) | 2014-05-30 | 2017-10-10 | Apple Inc. | Text prediction using combined word N-gram and unigram language models |
US9842101B2 (en) | 2014-05-30 | 2017-12-12 | Apple Inc. | Predictive conversion of language input |
US10659851B2 (en) | 2014-06-30 | 2020-05-19 | Apple Inc. | Real-time digital assistant knowledge updates |
US9338493B2 (en) | 2014-06-30 | 2016-05-10 | Apple Inc. | Intelligent automated assistant for TV user interactions |
US10446141B2 (en) | 2014-08-28 | 2019-10-15 | Apple Inc. | Automatic speech recognition based on user feedback |
US9818400B2 (en) | 2014-09-11 | 2017-11-14 | Apple Inc. | Method and apparatus for discovering trending terms in speech requests |
US10789041B2 (en) | 2014-09-12 | 2020-09-29 | Apple Inc. | Dynamic thresholds for always listening speech trigger |
US10074360B2 (en) | 2014-09-30 | 2018-09-11 | Apple Inc. | Providing an indication of the suitability of speech recognition |
US9646609B2 (en) | 2014-09-30 | 2017-05-09 | Apple Inc. | Caching apparatus for serving phonetic pronunciations |
US10127911B2 (en) | 2014-09-30 | 2018-11-13 | Apple Inc. | Speaker identification and unsupervised speaker adaptation techniques |
US9668121B2 (en) | 2014-09-30 | 2017-05-30 | Apple Inc. | Social reminders |
US9886432B2 (en) | 2014-09-30 | 2018-02-06 | Apple Inc. | Parsimonious handling of word inflection via categorical stem + suffix N-gram language models |
US10552013B2 (en) | 2014-12-02 | 2020-02-04 | Apple Inc. | Data detection |
US9865280B2 (en) | 2015-03-06 | 2018-01-09 | Apple Inc. | Structured dictation using intelligent automated assistants |
US9721566B2 (en) | 2015-03-08 | 2017-08-01 | Apple Inc. | Competing devices responding to voice triggers |
US10567477B2 (en) | 2015-03-08 | 2020-02-18 | Apple Inc. | Virtual assistant continuity |
US9886953B2 (en) | 2015-03-08 | 2018-02-06 | Apple Inc. | Virtual assistant activation |
US9899019B2 (en) | 2015-03-18 | 2018-02-20 | Apple Inc. | Systems and methods for structured stem and suffix language models |
US9842105B2 (en) | 2015-04-16 | 2017-12-12 | Apple Inc. | Parsimonious continuous-space phrase representations for natural language processing |
US10083688B2 (en) | 2015-05-27 | 2018-09-25 | Apple Inc. | Device voice control for selecting a displayed affordance |
US10127220B2 (en) | 2015-06-04 | 2018-11-13 | Apple Inc. | Language identification from short strings |
US10101822B2 (en) | 2015-06-05 | 2018-10-16 | Apple Inc. | Language input correction |
US9578173B2 (en) | 2015-06-05 | 2017-02-21 | Apple Inc. | Virtual assistant aided communication with 3rd party service in a communication session |
US10186254B2 (en) | 2015-06-07 | 2019-01-22 | Apple Inc. | Context-based endpoint detection |
US10255907B2 (en) | 2015-06-07 | 2019-04-09 | Apple Inc. | Automatic accent detection using acoustic models |
US11025565B2 (en) | 2015-06-07 | 2021-06-01 | Apple Inc. | Personalized prediction of responses for instant messaging |
US10747498B2 (en) | 2015-09-08 | 2020-08-18 | Apple Inc. | Zero latency digital assistant |
US10671428B2 (en) | 2015-09-08 | 2020-06-02 | Apple Inc. | Distributed personal assistant |
US9697820B2 (en) | 2015-09-24 | 2017-07-04 | Apple Inc. | Unit-selection text-to-speech synthesis using concatenation-sensitive neural networks |
US11010550B2 (en) | 2015-09-29 | 2021-05-18 | Apple Inc. | Unified language modeling framework for word prediction, auto-completion and auto-correction |
US10366158B2 (en) | 2015-09-29 | 2019-07-30 | Apple Inc. | Efficient word encoding for recurrent neural network language models |
US11587559B2 (en) | 2015-09-30 | 2023-02-21 | Apple Inc. | Intelligent device identification |
US10691473B2 (en) | 2015-11-06 | 2020-06-23 | Apple Inc. | Intelligent automated assistant in a messaging environment |
US10049668B2 (en) | 2015-12-02 | 2018-08-14 | Apple Inc. | Applying neural network language models to weighted finite state transducers for automatic speech recognition |
US10223066B2 (en) | 2015-12-23 | 2019-03-05 | Apple Inc. | Proactive assistance based on dialog communication between devices |
US10446143B2 (en) | 2016-03-14 | 2019-10-15 | Apple Inc. | Identification of voice inputs providing credentials |
US9934775B2 (en) | 2016-05-26 | 2018-04-03 | Apple Inc. | Unit-selection text-to-speech synthesis based on predicted concatenation parameters |
US9972304B2 (en) | 2016-06-03 | 2018-05-15 | Apple Inc. | Privacy preserving distributed evaluation framework for embedded personalized systems |
US10249300B2 (en) | 2016-06-06 | 2019-04-02 | Apple Inc. | Intelligent list reading |
US10049663B2 (en) | 2016-06-08 | 2018-08-14 | Apple, Inc. | Intelligent automated assistant for media exploration |
DK179309B1 (en) | 2016-06-09 | 2018-04-23 | Apple Inc | Intelligent automated assistant in a home environment |
US10509862B2 (en) | 2016-06-10 | 2019-12-17 | Apple Inc. | Dynamic phrase expansion of language input |
US10067938B2 (en) | 2016-06-10 | 2018-09-04 | Apple Inc. | Multilingual word prediction |
US10586535B2 (en) | 2016-06-10 | 2020-03-10 | Apple Inc. | Intelligent digital assistant in a multi-tasking environment |
US10192552B2 (en) | 2016-06-10 | 2019-01-29 | Apple Inc. | Digital assistant providing whispered speech |
US10490187B2 (en) | 2016-06-10 | 2019-11-26 | Apple Inc. | Digital assistant providing automated status report |
DK201670540A1 (en) | 2016-06-11 | 2018-01-08 | Apple Inc | Application integration with a digital assistant |
DK179343B1 (en) | 2016-06-11 | 2018-05-14 | Apple Inc | Intelligent task discovery |
DK179049B1 (en) | 2016-06-11 | 2017-09-18 | Apple Inc | Data driven natural language event detection and classification |
DK179415B1 (en) | 2016-06-11 | 2018-06-14 | Apple Inc | Intelligent device arbitration and control |
US10043516B2 (en) | 2016-09-23 | 2018-08-07 | Apple Inc. | Intelligent automated assistant |
WO2018078463A1 (en) * | 2016-10-24 | 2018-05-03 | Sony Mobile Communications Inc | Methods, computer program products and devices for automatically synchronizing an audio track with a plurality of pages |
US10593346B2 (en) | 2016-12-22 | 2020-03-17 | Apple Inc. | Rank-reduced token representation for automatic speech recognition |
DK201770439A1 (en) | 2017-05-11 | 2018-12-13 | Apple Inc. | Offline personal assistant |
DK179496B1 (en) | 2017-05-12 | 2019-01-15 | Apple Inc. | USER-SPECIFIC Acoustic Models |
DK179745B1 (en) | 2017-05-12 | 2019-05-01 | Apple Inc. | SYNCHRONIZATION AND TASK DELEGATION OF A DIGITAL ASSISTANT |
DK201770432A1 (en) | 2017-05-15 | 2018-12-21 | Apple Inc. | Hierarchical belief states for digital assistants |
DK201770431A1 (en) | 2017-05-15 | 2018-12-20 | Apple Inc. | Optimizing dialogue policy decisions for digital assistants using implicit feedback |
DK179549B1 (en) | 2017-05-16 | 2019-02-12 | Apple Inc. | FAR-FIELD EXTENSION FOR DIGITAL ASSISTANT SERVICES |
US20200082279A1 (en) | 2018-09-11 | 2020-03-12 | Synaptics Incorporated | Neural network inferencing on protected data |
Citations (8)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPH08212190A (ja) * | 1995-02-06 | 1996-08-20 | Nippon Telegr & Teleph Corp <Ntt> | マルチメディアデータ作成支援装置 |
JPH1173297A (ja) * | 1997-08-29 | 1999-03-16 | Hitachi Ltd | 音声とジェスチャによるマルチモーダル表現の時間的関係を用いた認識方法 |
JPH11289512A (ja) * | 1998-04-03 | 1999-10-19 | Sony Corp | 編集リスト作成装置 |
JP2000235585A (ja) * | 1998-12-30 | 2000-08-29 | Xerox Corp | トピックに基づくテキストと音声とのクロスインデックスの方法及びシステム |
JP2000352995A (ja) * | 1999-06-14 | 2000-12-19 | Canon Inc | 会議音声処理方法および記録装置、情報記憶媒体 |
JP2001325250A (ja) * | 2000-05-15 | 2001-11-22 | Ricoh Co Ltd | 議事録作成装置および議事録作成方法および記録媒体 |
JP2003255979A (ja) * | 2002-03-06 | 2003-09-10 | Nippon Telegr & Teleph Corp <Ntt> | データ編集方法、データ編集装置、データ編集プログラム |
JP2004007358A (ja) * | 2002-03-28 | 2004-01-08 | Fujitsu Ltd | 同期コンテンツ情報生成プログラム、同期コンテンツ情報生成装置および同期コンテンツ情報生成方法 |
-
2005
- 2005-01-14 WO PCT/JP2005/000333 patent/WO2005069171A1/ja active Application Filing
- 2005-01-14 JP JP2005517060A patent/JP4600828B2/ja active Active
Patent Citations (8)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPH08212190A (ja) * | 1995-02-06 | 1996-08-20 | Nippon Telegr & Teleph Corp <Ntt> | マルチメディアデータ作成支援装置 |
JPH1173297A (ja) * | 1997-08-29 | 1999-03-16 | Hitachi Ltd | 音声とジェスチャによるマルチモーダル表現の時間的関係を用いた認識方法 |
JPH11289512A (ja) * | 1998-04-03 | 1999-10-19 | Sony Corp | 編集リスト作成装置 |
JP2000235585A (ja) * | 1998-12-30 | 2000-08-29 | Xerox Corp | トピックに基づくテキストと音声とのクロスインデックスの方法及びシステム |
JP2000352995A (ja) * | 1999-06-14 | 2000-12-19 | Canon Inc | 会議音声処理方法および記録装置、情報記憶媒体 |
JP2001325250A (ja) * | 2000-05-15 | 2001-11-22 | Ricoh Co Ltd | 議事録作成装置および議事録作成方法および記録媒体 |
JP2003255979A (ja) * | 2002-03-06 | 2003-09-10 | Nippon Telegr & Teleph Corp <Ntt> | データ編集方法、データ編集装置、データ編集プログラム |
JP2004007358A (ja) * | 2002-03-28 | 2004-01-08 | Fujitsu Ltd | 同期コンテンツ情報生成プログラム、同期コンテンツ情報生成装置および同期コンテンツ情報生成方法 |
Also Published As
Publication number | Publication date |
---|---|
WO2005069171A1 (ja) | 2005-07-28 |
JPWO2005069171A1 (ja) | 2008-09-04 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP4600828B2 (ja) | 文書対応付け装置、および文書対応付け方法 | |
JP4466564B2 (ja) | 文書作成閲覧装置、文書作成閲覧ロボットおよび文書作成閲覧プログラム | |
JP5104762B2 (ja) | コンテンツ要約システムと方法とプログラム | |
WO2020024690A1 (zh) | 语音标注方法、装置及设备 | |
KR100828166B1 (ko) | 동영상의 음성 인식과 자막 인식을 통한 메타데이터 추출방법, 메타데이터를 이용한 동영상 탐색 방법 및 이를기록한 기록매체 | |
CN107562760B (zh) | 一种语音数据处理方法及装置 | |
CN108242238B (zh) | 一种音频文件生成方法及装置、终端设备 | |
JP2005150841A (ja) | 情報処理方法及び情報処理装置 | |
JP6280312B2 (ja) | 議事録記録装置、議事録記録方法及びプログラム | |
JP5779032B2 (ja) | 話者分類装置、話者分類方法および話者分類プログラム | |
US20240064383A1 (en) | Method and Apparatus for Generating Video Corpus, and Related Device | |
JP2008032825A (ja) | 発言者表示システム、発言者表示方法および発言者表示プログラム | |
JP2004343488A (ja) | 字幕挿入方法、字幕挿入システム、および字幕挿入プログラム | |
JP4405418B2 (ja) | 情報処理装置及びその方法 | |
JP2001272990A (ja) | 対話記録編集装置 | |
JP5997813B2 (ja) | 話者分類装置、話者分類方法および話者分類プログラム | |
JP5713782B2 (ja) | 情報処理装置、情報処理方法及びプログラム | |
KR100348901B1 (ko) | 오디오/영상물의 음향적 장면분할방법 | |
JP4631251B2 (ja) | メディア検索装置およびメディア検索プログラム | |
CN118413708B (zh) | 一种非经营性交互式直播数据智能分析系统 | |
JP2019213160A (ja) | 動画編集装置、動画編集方法、及び動画編集プログラム | |
US12125501B2 (en) | Face-aware speaker diarization for transcripts and text-based video editing | |
KR102274275B1 (ko) | 음성파일이 연동된 텍스트 링크 생성 어플리케이션 및 방법 | |
US20240134597A1 (en) | Transcript question search for text-based video editing | |
US20240134909A1 (en) | Visual and text search interface for text-based video editing |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20100304 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20100428 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20100601 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20100802 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20100903 |
|
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20100916 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20131008 Year of fee payment: 3 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 4600828 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 Free format text: JAPANESE INTERMEDIATE CODE: R150 |