JPWO2005069171A1 - 文書対応付け装置、および文書対応付け方法 - Google Patents
文書対応付け装置、および文書対応付け方法 Download PDFInfo
- Publication number
- JPWO2005069171A1 JPWO2005069171A1 JP2005517060A JP2005517060A JPWO2005069171A1 JP WO2005069171 A1 JPWO2005069171 A1 JP WO2005069171A1 JP 2005517060 A JP2005517060 A JP 2005517060A JP 2005517060 A JP2005517060 A JP 2005517060A JP WO2005069171 A1 JPWO2005069171 A1 JP WO2005069171A1
- Authority
- JP
- Japan
- Prior art keywords
- document
- content
- information
- speaker
- section
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
- 238000000034 method Methods 0.000 title claims abstract description 147
- 238000000605 extraction Methods 0.000 claims description 124
- 239000000284 extract Substances 0.000 claims description 73
- 230000000007 visual effect Effects 0.000 claims description 72
- 238000004458 analytical method Methods 0.000 claims description 22
- 238000009795 derivation Methods 0.000 claims description 19
- 238000004590 computer program Methods 0.000 claims description 4
- 230000001815 facial effect Effects 0.000 claims description 4
- 230000001360 synchronised effect Effects 0.000 claims description 4
- 238000010586 diagram Methods 0.000 description 43
- 238000012545 processing Methods 0.000 description 15
- 238000010606 normalization Methods 0.000 description 13
- 230000010354 integration Effects 0.000 description 11
- 238000004364 calculation method Methods 0.000 description 3
- 238000007796 conventional method Methods 0.000 description 3
- 238000012916 structural analysis Methods 0.000 description 3
- 238000004891 communication Methods 0.000 description 2
- 238000001514 detection method Methods 0.000 description 2
- 239000000463 material Substances 0.000 description 2
- 238000011160 research Methods 0.000 description 2
- 239000004606 Fillers/Extenders Substances 0.000 description 1
- 238000006243 chemical reaction Methods 0.000 description 1
- 238000002474 experimental method Methods 0.000 description 1
- 230000006870 function Effects 0.000 description 1
- 230000014509 gene expression Effects 0.000 description 1
- 210000003128 head Anatomy 0.000 description 1
- 238000013507 mapping Methods 0.000 description 1
- 238000012544 monitoring process Methods 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L15/00—Speech recognition
- G10L15/06—Creation of reference templates; Training of speech recognition systems, e.g. adaptation to the characteristics of the speaker's voice
Landscapes
- Engineering & Computer Science (AREA)
- Artificial Intelligence (AREA)
- Computational Linguistics (AREA)
- Health & Medical Sciences (AREA)
- Audiology, Speech & Language Pathology (AREA)
- Human Computer Interaction (AREA)
- Physics & Mathematics (AREA)
- Acoustics & Sound (AREA)
- Multimedia (AREA)
- Television Signal Processing For Recording (AREA)
- Information Retrieval, Db Structures And Fs Structures Therefor (AREA)
Abstract
Description
判定手段は、前記マッチング手段による処理結果に基づき、前記入力音声がいずれの標準パターンに類似しているかを前記所定周期毎に判定する。音声区間判別手段は、前記判定手段による判定結果に基づき、前記各話者の音声区間を判別するとを備えている。
そのコンテンツ話者識別部は、その音声情報における声の高さ、声の長さ、声の強さのうちの少なくとも一つの韻律情報の特徴に基づいて、その発話者を特定する
文書対応付け装置。
図1は、本発明の文書対応付け装置の実施の形態の構成を示す図である。文書対応付け装置10は、コンテンツ入力手段(コンテンツ入力部)1と、文書入力手段(文書入力部)2と、コンテンツ記憶手段(コンテンツ記憶部)3と、文書記憶手段(文書記憶部)4と、コンテンツ区間抽出手段(コンテンツ区間抽出部)5と、文書区間抽出手段(文書区間抽出部)6と、区間対応関係導出手段(区間対応関係導出部)7と、出力手段(出力部)8とを具備する。コンテンツ入力手段1は、音声や映像などの情報(データ)を含むコンテンツを入力する。文書入力手段2は、コンテンツに関連する文書を入力する。コンテンツ記憶手段3は、コンテンツ入力手段1から得られたコンテンツを記憶する。文書記憶手段4は、文書入力手段2から得られた文書を記憶する。コンテンツ区間抽出手段5は、コンテンツより単一話者区間を抽出する。文書区間抽出手段6は、文書から単一話者区間の抽出を行う。区間対応関係導出手段7は、コンテンツ区間抽出手段5が抽出したコンテンツ区間と文書区間抽出手段6が抽出した文書区間との対応関係を導出する。出力手段8は、区間対応関係導出手段7が導出した対応関係を出力する。
両区間の音声特徴量が異なっている場合(ステップS106:NO)、音声特徴量整合部24は、音声の発話者が変化したと判定する。出力部25は、一次記憶部23中に記憶されている開始時間と、現在の音声区間の開始時間の間の区間を単一話者の発話区間として出力する(ステップS107)。すなわち、音特徴の変化点解析により、単一話者の発話区間が検出される。同時に、一次記憶部23は、音声特徴量と開始時間を新規に得られたものに更新する(ステップS108)。音声分割部21は、音声データが終了していない場合(ステップS109:NO)、引き続き次の音声の無音区間を抽出する(ステップS101)。
その場合、音声特徴量導出部92から入力した音声特徴量と一次記憶部94に記憶されている音声特徴量との差があらかじめ定めた閾値よりも小さい場合、又は、視覚的特徴量導出部93から入力した視覚的特徴量と一次記憶部94に記憶されている視覚的特徴量との差があらかじめ定めた閾値よりも小さい場合に、同一人物による発話が終了したと判定する。
図11A〜図11Dは、本発明の文書対応付け方法の実施の形態における文書の書式情報を利用する方法の一例を示す図である。図11Aに示す例では、発話者間の発言に対して空行が挿入されている。よって、文書区間抽出手段6は、空行をもとに文書区間を抽出することができる。図11Bに示す例では、対談における文書が例示されている。そして、ホストの発言が斜字で表示されている。よって、文書区間抽出手段6は、ゲストの発言内容とホストの発言内容とを識別して、文書区間の抽出を行うことができる。図11Cに示す例では、発話者ごとに色が異なっている。複数の発話者を区別する際によく利用される。よって、文書区間抽出手段6は、色情報を用いて文書区間を抽出することができる。図11Dに示す例では、発話者ごとに記載場所が整理されている。このように発話者ごとに記載場所が整理されている場合には、発話者の名前が直接記入されていなくても、文書区間抽出手段6は、単一発話者と推定される区間を抽出することができる。なお、ここで抽出した区間はあくまで候補であり、単一発話者の区間で区切られていることが望ましいが、厳密に単一発話者の発言でまとまっていなくてもよい。なお、図11A〜図11Dを参照して説明される方法では、文書の構造解析の一例が実施されていることになる。
音声認識部61は、コンテンツ区間抽出手段5から、コンテンツ区間についての情報を入力される。また、コンテンツ記憶手段3からコンテンツ情報を入力される。そして、コンテンツ情報から音声情報を取り出し、音声認識を行って、入力音声に対する候補テキストを生成する(ステップS341)。音声認識方式については種々の手法があるが、音素をもちいた認識方法、直接単語テンプレートを利用して音声認識する方法、話者に合わせてテンプレートを変換する等、この実施の形態ではいずれの方法を用いてもよい。
Claims (44)
- (a)複数の話者が発話者として登場する音声情報及び映像情報のうちの少なくとも一方を含むコンテンツと、前記コンテンツの内容を記述した文書とを準備するステップと、
(b)前記コンテンツと前記文書との対応関係を、話者単位で導出するステップと
を具備する
文書対応付け方法。 - 請求項1に記載の文書対応付け方法において、
前記(b)ステップは、
(b1)前記コンテンツを話者単位で分割して複数のコンテンツ区間とするステップと、
(b2)前記文書を話者単位で分割して複数の文書区間とするステップと、
(b3)前記複数のコンテンツ区間と前記複数の文書区間との対応付けを行うステップと
を備える
文書対応付け方法。 - 請求項2に記載の文書対応付け方法において、
前記(b2)ステップは、
(b21)前記複数の話者の一人から前記複数の話者の他の一人へ発話者が変化した時点をコンテンツから抽出するステップと、
(b22)前記発話者が変化した時点に基づいて、前記コンテンツを話者単位で分割するステップと
を含む
文書対応付け方法。 - 請求項3記載の文書対応付け方法において、
前記(b21)ステップは、
(b211)前記コンテンツは前記音声情報であり、前記発話者の音声の変化点を前記音声情報から抽出するステップを含む
文書対応付け方法。 - 請求項3記載の文書対応付け方法において、
前記(b21)ステップは、
(b212)前記コンテンツは前記映像情報であり、前記発話者の映像の変化点前記を映像情報から抽出するステップを含む
文書対応付け方法。 - 請求項1乃至3のいずれか一項に記載の文書対応付け方法において、
前記コンテンツは、前記音声情報と前記映像情報とが同期した音声映像情報である
文書対応付け方法。 - 請求項3または5に記載の文書対応付け方法において、
前記(b21)ステップは、
(b213)前記音声情報の音特徴の変化点解析を行い、前記発話者が変化した時点を導出するステップを含む
文書対応付け方法。 - 請求項3または5に記載の文書対応付け方法において、
前記(b21)ステップは、
(b214)前記映像情報の視覚的特徴の変化点解析を行い、前記発話者が変化した時点を導出するステップを含む
文書対応付け方法。 - 請求項3または6に記載の文書対応付け方法において、
前記(b21)ステップは、
(b215)前記映像情報の視覚的特徴の変化点解析及び前記音声情報の音特徴の変化点解析を行い、双方の結果を統合して、前記発話者が変化した時点を導出するステップを含む
文書対応付け方法。 - 請求項4乃至9のいずれか一項に記載の文書対応付け方法において、
前記(b)ステップは、
(b4)前記文書の構造解析を行い、前記文書を話者単位で分割するステップを備える
文書対応付け方法。 - コンピュータ上で使用したときに、請求項1乃至10のいずれか一項に記載された全てのステップを実行するプログラムコード手段を有するコンピュータプログラム製品。
- コンピュータにより読み取り可能な記憶手段に記憶された、請求項11に記載されたプログラムコード手段を有するコンピュータプログラム製品。
- 複数の話者が発話者として登場する音声情報及び映像情報のうちの少なくとも一方を含むコンテンツについて、前記コンテンツを話者単位で分割して複数のコンテンツ区間を抽出するコンテンツ区間抽出部と、
前記コンテンツの内容を記述した文書を話者単位で分割して複数の文書区間を抽出する文書区間抽出部と、
前記複数のコンテンツ区間と前記複数の文書区間との対応関係を導出する区間対応関係導出部と
を具備する
文書対応付け装置。 - 請求項13に記載の文書対応付け装置において、
前記コンテンツは前記音声情報であり、
前記コンテンツ区間抽出部は、前記音声情報の音特徴を解析して前記複数のコンテンツ区間を抽出する
文書対応付け装置。 - 請求項13に記載の文書対応付け装置において、
前記コンテンツは前記映像情報であり、
前記コンテンツ区間抽出部は、前記映像情報の視覚的特徴を解析して前記複数のコンテンツ区間を抽出する
文書対応付け装置。 - 請求項13に記載の文書対応付け装置において、
前記コンテンツは、前記音声情報と前記映像情報とが同期した音声映像情報であり、
前記コンテンツ区間抽出部は、前記音声情報の音特徴の解析の結果と前記映像情報の視覚的特徴の解析の結果とを統合して前記複数のコンテンツ区間を抽出する
文書対応付け装置。 - 請求項16に記載の文書対応付け装置において、
コンテンツ抽出部は、
前記音声情報の音特徴を解析して、前記音声情報を話者単位に分割して複数の音声区間を抽出する音声区間抽出部と、
前記映像情報の視覚的特徴を解析して、前記映像情報を話者単位に分割して複数の映像区間を抽出する映像区間抽出部と、
前記複数の音声区間に関する複数の音声区間情報と、前記複数の映像区間に関する複数の映像区間情報とに基づいて、前記複数のコンテンツ区間を抽出する音声映像区間統合部と
を含む
文書対応付け装置。 - 請求項13に記載の文書対応付け装置において、
前記コンテンツ区間抽出部は、前記コンテンツにおける前記複数の話者の一人から前記複数の話者の他の一人へ発話者が変化した時点としての発話者変化点を抽出して、前記複数のコンテンツ区間を抽出する
文書対応付け装置。 - 請求項18に記載の文書対応付け装置において、
前記コンテンツは前記音声情報を含み、
前記コンテンツ区間抽出部は、前記音声情報における発話の高さ、発話速度、発話の大きさのうちの少なくとも一つの韻律情報の特徴の変化に基づいて、前記発話者変化点を抽出する
文書対応付け装置。 - 請求項18に記載の文書対応付け装置において、
前記コンテンツは前記音声情報を含み、
前記コンテンツ区間抽出部は、前記音声情報における会話形態の変化に基づいて、前記発話者変化点を抽出する
文書対応付け装置。 - 請求項18に記載の文書対応付け装置において、
前記コンテンツは前記映像情報を含み、
前記コンテンツ区間抽出部は、前記映像情報における人物の視覚的特徴の変化に基づいて、前記発話者変化点を抽出する
文書対応付け装置。 - 請求項18に記載の文書対応付け装置において、
前記コンテンツは前記映像情報を含み、
前記コンテンツ区間抽出部は、前記映像情報における人物の顔特徴の変化に基づいて、前記発話者変化点を抽出する
文書対応付け装置。 - 請求項18に記載の文書対応付け装置において、
前記コンテンツは前記映像情報を含み、
前記コンテンツ区間抽出部は、前記映像情報における人物の衣服の視覚的特徴の変化に基づいて、前記発話者変化点を抽出する
文書対応付け装置。 - 請求項13乃至23のいずれか一項に記載の文書対応付け装置において、
前記文書区間抽出部は、前記文書の書式情報に基づいて、前記複数の文書区間を抽出する
文書対応付け装置。 - 請求項13乃至23のいずれか一項に記載の文書対応付け装置において、
前記文書区間抽出部は、前記文書に記入された発話者に関する記述に基づいて、前記複数の文書区間を抽出する
文書対応付け装置。 - 請求項13乃至23のいずれか一項に記載の文書対応付け装置において、
前記文書区間抽出部は、前記文書における構造化文書のタグ情報に基づいて、前記複数の文書区間を抽出する
文書対応付け装置。 - 請求項13乃至23のいずれか一項に記載の文書対応付け装置において、
前記文書区間抽出部は、前記文書における会話特徴の変化に基づいて、前記複数の文書区間を抽出する
文書対応付け装置。 - 請求項13乃至27のいずれか一項に記載の文書対応付け装置において、
前記区間対応関係導出部は、前記複数のコンテンツ区間の区間長と前記複数の文書区間の文書量とを比較に基づいて、前記複数のコンテンツ区間と前記複数の文書区間との対応付けを行う
文書対応付け装置。 - 請求項28の文書対応付け装置において、
前記区間対応関係導出部は、前記複数のコンテンツ区間及び前記複数の文書区間に対するダイナミックプログラミングマッチングの実行結果に基づいて、前記対応付けを行う
文書対応付け装置。 - 請求項13乃至29のいずれか一項に記載の文書対応付け装置において、
前記区間対応関係導出部は、
前記複数のコンテンツ区間のうちの少なくとも一つにおける発話者を特定するコンテンツ話者識別部と、
前記複数の文書区間のうちの少なくとも一つにおける発話者を特定して、前記発話者の情報としての話者情報を得る文書話者情報抽出部と、
前記話者情報に基づいて、前記複数のコンテンツ区間と前記複数の文書区間との整合を行う区間整合部と
を含む
文書対応付け装置。 - 請求項30の文書対応付け装置において、
前記コンテンツ話者識別部は、
前記複数のコンテンツ区間のうちの少なくとも一つにおける特徴量を抽出するコンテンツ特徴量抽出部と、
前記特徴量と前記発話者とを対応させて記憶する話者情報記憶部と、
記憶された前記特徴量と抽出された特徴量との比較に基づいて、前記発話者の識別を行う特徴量整合識別部と
を含む
文書対応付け装置。 - 請求項30又は31に記載の文書対応付け装置において、
前記コンテンツ話者識別部は、前記音声情報における声の高さ、声の長さ、声の強さのうちの少なくとも一つの韻律情報の特徴に基づいて、前記発話者を特定する
文書対応付け装置。 - 請求項30又は31に記載の文書対応付け装置において、
前記コンテンツ話者識別部は、前記音声情報における会話形態の表す特徴量に基づいて、前記発話者を特定する
文書対応付け装置。 - 請求項30又は31に記載の文書対応付け装置において、
前記コンテンツ話者識別部は、前記映像情報における人物の視覚的特徴量に基づいて、前記発話者を特定する
文書対応付け装置。 - 請求項34に記載の文書対応付け装置において、
前記コンテンツ話者識別部は、前記人物の視覚的特徴として人物の顔特徴を用いる
文書対応付け装置。 - 請求項30乃至35のいずれか一項に記載の文書対応付け装置において、
前記文書話者情報抽出部は、前記文書に記入された発話者に関する記述に基づいて、前記発話者を特定する
文書対応付け装置。 - 請求項30乃至35のいずれか一項に記載の文書対応付け装置において、
前記文書話者情報抽出部は、前記文書における構造化文書のメタデータに基づいて、話者を特定する
文書対応付け装置。 - 請求項30乃至37のいずれか一項に記載の文書対応付け装置において、
前記区間整合部は、前記複数のコンテンツ区間の各々における発話者と前記複数の文書区間の各々における発話者とが一致するように、前記複数のコンテンツ区間と前記複数の文書区間とを対応付ける
文書対応付け装置。 - 請求項38に記載の文書対応付け装置において、
前記区間整合部は、前記複数のコンテンツ区間と前記複数の文書区間とに対するダイナミックプログラミングマッチングの実行結果に基づいて、前記複数のコンテンツ区間と前記複数の文書区間とを対応付ける
文書対応付け装置。 - 請求項13乃至39のいずれか一項に記載の文書対応付け装置において、
前記コンテンツは音声情報を含み、
前記複数のコンテンツ区間における発話内容を抽出して発話テキスト情報を出力する音声認識部を更に具備し、
前記区間対応関係導出部は、前記発話テキスト情報と前記文書の文書情報との類似度に基づいて、前記複数のコンテンツ区間と前記複数の文書区間とを対応付ける
文書対応付け装置。 - 請求項40に記載の文書対応付け装置において、
前記区間対応関係導出部は、前記発話テキスト情報で出現する単語と前記文書情報で出現する単語との間のダイナミックプログラムマッチングの実行結果に基づいて、前記発話テキスト情報と前記文書情報とを整合させる
請求項38記載の文書対応付け装置。 - 請求項40または請求項41記載の文書対応付け装置において、
前記区間対応関係導出部は、
前記発話テキスト情報における前記複数のコンテンツ区間の各々で使用されている一つまたは複数の第1基本単語と、前記複数の文書区間の各々で使用されている一つまたは複数の第2基本単語とをそれぞれ抽出する基本単語抽出部と、
前記複数の第1基本単語と、前記複数の第2基本単語との間の類似度を測定する基本単語群類似度導出部とを含み、
前記類似度に基づいて、前記対応関係を導出する
文書対応付け装置。 - 請求項40または請求項41記載の文書対応付け装置において、
前記区間対応関係導出部は、前記類似度を、ダイナミックプログラミングマッチングにより対応付けることによって対応関係を導出する
文書対応付け装置。 - 請求項13乃至43のいずれか一項に記載の文書対応付け装置において、
前記コンテンツを入力するコンテンツ入力部と、
前記コンテンツを記憶するコンテンツ記憶部と、
前記文書情報を入力する文書入力部と、
前記文書を記憶する文書記憶部と、
前記対応関係に関する情報を出力する出力部と
を更に具備する
文書対応付け装置。
Applications Claiming Priority (3)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2004006713 | 2004-01-14 | ||
JP2004006713 | 2004-01-14 | ||
PCT/JP2005/000333 WO2005069171A1 (ja) | 2004-01-14 | 2005-01-14 | 文書対応付け装置、および文書対応付け方法 |
Publications (2)
Publication Number | Publication Date |
---|---|
JPWO2005069171A1 true JPWO2005069171A1 (ja) | 2008-09-04 |
JP4600828B2 JP4600828B2 (ja) | 2010-12-22 |
Family
ID=34792152
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2005517060A Active JP4600828B2 (ja) | 2004-01-14 | 2005-01-14 | 文書対応付け装置、および文書対応付け方法 |
Country Status (2)
Country | Link |
---|---|
JP (1) | JP4600828B2 (ja) |
WO (1) | WO2005069171A1 (ja) |
Families Citing this family (107)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US8645137B2 (en) | 2000-03-16 | 2014-02-04 | Apple Inc. | Fast, language-independent method for user authentication by voice |
ATE512411T1 (de) * | 2003-12-05 | 2011-06-15 | Koninkl Philips Electronics Nv | System und verfahren zur integrierten analyse von intrinsischen und extrinsischen audiovisuellen daten |
US8677377B2 (en) | 2005-09-08 | 2014-03-18 | Apple Inc. | Method and apparatus for building an intelligent automated assistant |
JP2007304642A (ja) * | 2006-05-08 | 2007-11-22 | Nippon Hoso Kyokai <Nhk> | 文書データ分類装置及び文書データ分類プログラム |
JP4807189B2 (ja) * | 2006-08-31 | 2011-11-02 | 富士ゼロックス株式会社 | 情報処理装置及びプログラム |
US9318108B2 (en) | 2010-01-18 | 2016-04-19 | Apple Inc. | Intelligent automated assistant |
WO2008050718A1 (fr) * | 2006-10-26 | 2008-05-02 | Nec Corporation | Dispositif d'extraction d'informations de droit, procédé d'extraction d'informations de droit et programme |
US8977255B2 (en) | 2007-04-03 | 2015-03-10 | Apple Inc. | Method and system for operating a multi-function portable electronic device using voice-activation |
JP4964044B2 (ja) * | 2007-07-06 | 2012-06-27 | 三菱電機株式会社 | 顔検出装置及び顔検出方法 |
US9330720B2 (en) | 2008-01-03 | 2016-05-03 | Apple Inc. | Methods and apparatus for altering audio output signals |
US8996376B2 (en) | 2008-04-05 | 2015-03-31 | Apple Inc. | Intelligent text-to-speech conversion |
US10496753B2 (en) | 2010-01-18 | 2019-12-03 | Apple Inc. | Automatically adapting user interfaces for hands-free interaction |
US20100030549A1 (en) | 2008-07-31 | 2010-02-04 | Lee Michael M | Mobile device having human language translation capability with positional feedback |
US10241644B2 (en) | 2011-06-03 | 2019-03-26 | Apple Inc. | Actionable reminder entries |
US10241752B2 (en) | 2011-09-30 | 2019-03-26 | Apple Inc. | Interface for a virtual digital assistant |
US10706373B2 (en) | 2011-06-03 | 2020-07-07 | Apple Inc. | Performing actions associated with task items that represent tasks to perform |
US9858925B2 (en) | 2009-06-05 | 2018-01-02 | Apple Inc. | Using context information to facilitate processing of commands in a virtual assistant |
US9431006B2 (en) | 2009-07-02 | 2016-08-30 | Apple Inc. | Methods and apparatuses for automatic speech recognition |
US10679605B2 (en) | 2010-01-18 | 2020-06-09 | Apple Inc. | Hands-free list-reading by intelligent automated assistant |
US10705794B2 (en) | 2010-01-18 | 2020-07-07 | Apple Inc. | Automatically adapting user interfaces for hands-free interaction |
US10553209B2 (en) | 2010-01-18 | 2020-02-04 | Apple Inc. | Systems and methods for hands-free notification summaries |
US10276170B2 (en) | 2010-01-18 | 2019-04-30 | Apple Inc. | Intelligent automated assistant |
DE112011100329T5 (de) | 2010-01-25 | 2012-10-31 | Andrew Peter Nelson Jerram | Vorrichtungen, Verfahren und Systeme für eine Digitalkonversationsmanagementplattform |
US8682667B2 (en) | 2010-02-25 | 2014-03-25 | Apple Inc. | User profiling for selecting user specific voice input processing information |
TW201230008A (en) * | 2011-01-11 | 2012-07-16 | Hon Hai Prec Ind Co Ltd | Apparatus and method for converting voice to text |
US9262612B2 (en) | 2011-03-21 | 2016-02-16 | Apple Inc. | Device access using voice authentication |
TWI488174B (zh) * | 2011-06-03 | 2015-06-11 | Apple Inc | 自動地建立文字資料與音訊資料間之映射 |
US10057736B2 (en) | 2011-06-03 | 2018-08-21 | Apple Inc. | Active transport based notifications |
US8994660B2 (en) | 2011-08-29 | 2015-03-31 | Apple Inc. | Text correction processing |
US9483461B2 (en) | 2012-03-06 | 2016-11-01 | Apple Inc. | Handling speech synthesis of content for multiple languages |
US9280610B2 (en) | 2012-05-14 | 2016-03-08 | Apple Inc. | Crowd sourcing information to fulfill user requests |
US9721563B2 (en) | 2012-06-08 | 2017-08-01 | Apple Inc. | Name recognition system |
US9495129B2 (en) | 2012-06-29 | 2016-11-15 | Apple Inc. | Device, method, and user interface for voice-activated navigation and browsing of a document |
US9547647B2 (en) | 2012-09-19 | 2017-01-17 | Apple Inc. | Voice-based media searching |
WO2014197334A2 (en) | 2013-06-07 | 2014-12-11 | Apple Inc. | System and method for user-specified pronunciation of words for speech synthesis and recognition |
WO2014197336A1 (en) | 2013-06-07 | 2014-12-11 | Apple Inc. | System and method for detecting errors in interactions with a voice-based digital assistant |
US9582608B2 (en) | 2013-06-07 | 2017-02-28 | Apple Inc. | Unified ranking with entropy-weighted information for phrase-based semantic auto-completion |
WO2014197335A1 (en) | 2013-06-08 | 2014-12-11 | Apple Inc. | Interpreting and acting upon commands that involve sharing information with remote devices |
JP6259911B2 (ja) | 2013-06-09 | 2018-01-10 | アップル インコーポレイテッド | デジタルアシスタントの2つ以上のインスタンスにわたる会話持続を可能にするための機器、方法、及びグラフィカルユーザインタフェース |
US10176167B2 (en) | 2013-06-09 | 2019-01-08 | Apple Inc. | System and method for inferring user intent from speech inputs |
WO2014199602A1 (ja) * | 2013-06-10 | 2014-12-18 | パナソニック インテレクチュアル プロパティ コーポレーション オブ アメリカ | 話者識別方法、話者識別装置及び情報管理方法 |
JP2015127929A (ja) * | 2013-12-27 | 2015-07-09 | 昭仁 島田 | 会話を記録された成員から或る主題を討議するのに最適な班構成を判別する方法 |
US9760559B2 (en) | 2014-05-30 | 2017-09-12 | Apple Inc. | Predictive text input |
US9430463B2 (en) | 2014-05-30 | 2016-08-30 | Apple Inc. | Exemplar-based natural language processing |
CN110797019B (zh) | 2014-05-30 | 2023-08-29 | 苹果公司 | 多命令单一话语输入方法 |
US9715875B2 (en) | 2014-05-30 | 2017-07-25 | Apple Inc. | Reducing the need for manual start/end-pointing and trigger phrases |
US10078631B2 (en) | 2014-05-30 | 2018-09-18 | Apple Inc. | Entropy-guided text prediction using combined word and character n-gram language models |
US9785630B2 (en) | 2014-05-30 | 2017-10-10 | Apple Inc. | Text prediction using combined word N-gram and unigram language models |
US9842101B2 (en) | 2014-05-30 | 2017-12-12 | Apple Inc. | Predictive conversion of language input |
US10659851B2 (en) | 2014-06-30 | 2020-05-19 | Apple Inc. | Real-time digital assistant knowledge updates |
US9338493B2 (en) | 2014-06-30 | 2016-05-10 | Apple Inc. | Intelligent automated assistant for TV user interactions |
US10446141B2 (en) | 2014-08-28 | 2019-10-15 | Apple Inc. | Automatic speech recognition based on user feedback |
US9818400B2 (en) | 2014-09-11 | 2017-11-14 | Apple Inc. | Method and apparatus for discovering trending terms in speech requests |
US10789041B2 (en) | 2014-09-12 | 2020-09-29 | Apple Inc. | Dynamic thresholds for always listening speech trigger |
US10074360B2 (en) | 2014-09-30 | 2018-09-11 | Apple Inc. | Providing an indication of the suitability of speech recognition |
US9646609B2 (en) | 2014-09-30 | 2017-05-09 | Apple Inc. | Caching apparatus for serving phonetic pronunciations |
US10127911B2 (en) | 2014-09-30 | 2018-11-13 | Apple Inc. | Speaker identification and unsupervised speaker adaptation techniques |
US9668121B2 (en) | 2014-09-30 | 2017-05-30 | Apple Inc. | Social reminders |
US9886432B2 (en) | 2014-09-30 | 2018-02-06 | Apple Inc. | Parsimonious handling of word inflection via categorical stem + suffix N-gram language models |
US10552013B2 (en) | 2014-12-02 | 2020-02-04 | Apple Inc. | Data detection |
US9865280B2 (en) | 2015-03-06 | 2018-01-09 | Apple Inc. | Structured dictation using intelligent automated assistants |
US9721566B2 (en) | 2015-03-08 | 2017-08-01 | Apple Inc. | Competing devices responding to voice triggers |
US10567477B2 (en) | 2015-03-08 | 2020-02-18 | Apple Inc. | Virtual assistant continuity |
US9886953B2 (en) | 2015-03-08 | 2018-02-06 | Apple Inc. | Virtual assistant activation |
US9899019B2 (en) | 2015-03-18 | 2018-02-20 | Apple Inc. | Systems and methods for structured stem and suffix language models |
US9842105B2 (en) | 2015-04-16 | 2017-12-12 | Apple Inc. | Parsimonious continuous-space phrase representations for natural language processing |
US10083688B2 (en) | 2015-05-27 | 2018-09-25 | Apple Inc. | Device voice control for selecting a displayed affordance |
US10127220B2 (en) | 2015-06-04 | 2018-11-13 | Apple Inc. | Language identification from short strings |
US10101822B2 (en) | 2015-06-05 | 2018-10-16 | Apple Inc. | Language input correction |
US9578173B2 (en) | 2015-06-05 | 2017-02-21 | Apple Inc. | Virtual assistant aided communication with 3rd party service in a communication session |
US10186254B2 (en) | 2015-06-07 | 2019-01-22 | Apple Inc. | Context-based endpoint detection |
US10255907B2 (en) | 2015-06-07 | 2019-04-09 | Apple Inc. | Automatic accent detection using acoustic models |
US11025565B2 (en) | 2015-06-07 | 2021-06-01 | Apple Inc. | Personalized prediction of responses for instant messaging |
US10747498B2 (en) | 2015-09-08 | 2020-08-18 | Apple Inc. | Zero latency digital assistant |
US10671428B2 (en) | 2015-09-08 | 2020-06-02 | Apple Inc. | Distributed personal assistant |
US9697820B2 (en) | 2015-09-24 | 2017-07-04 | Apple Inc. | Unit-selection text-to-speech synthesis using concatenation-sensitive neural networks |
US11010550B2 (en) | 2015-09-29 | 2021-05-18 | Apple Inc. | Unified language modeling framework for word prediction, auto-completion and auto-correction |
US10366158B2 (en) | 2015-09-29 | 2019-07-30 | Apple Inc. | Efficient word encoding for recurrent neural network language models |
US11587559B2 (en) | 2015-09-30 | 2023-02-21 | Apple Inc. | Intelligent device identification |
US10691473B2 (en) | 2015-11-06 | 2020-06-23 | Apple Inc. | Intelligent automated assistant in a messaging environment |
US10049668B2 (en) | 2015-12-02 | 2018-08-14 | Apple Inc. | Applying neural network language models to weighted finite state transducers for automatic speech recognition |
US10223066B2 (en) | 2015-12-23 | 2019-03-05 | Apple Inc. | Proactive assistance based on dialog communication between devices |
US10446143B2 (en) | 2016-03-14 | 2019-10-15 | Apple Inc. | Identification of voice inputs providing credentials |
US9934775B2 (en) | 2016-05-26 | 2018-04-03 | Apple Inc. | Unit-selection text-to-speech synthesis based on predicted concatenation parameters |
US9972304B2 (en) | 2016-06-03 | 2018-05-15 | Apple Inc. | Privacy preserving distributed evaluation framework for embedded personalized systems |
US10249300B2 (en) | 2016-06-06 | 2019-04-02 | Apple Inc. | Intelligent list reading |
US10049663B2 (en) | 2016-06-08 | 2018-08-14 | Apple, Inc. | Intelligent automated assistant for media exploration |
DK179309B1 (en) | 2016-06-09 | 2018-04-23 | Apple Inc | Intelligent automated assistant in a home environment |
US10509862B2 (en) | 2016-06-10 | 2019-12-17 | Apple Inc. | Dynamic phrase expansion of language input |
US10067938B2 (en) | 2016-06-10 | 2018-09-04 | Apple Inc. | Multilingual word prediction |
US10586535B2 (en) | 2016-06-10 | 2020-03-10 | Apple Inc. | Intelligent digital assistant in a multi-tasking environment |
US10192552B2 (en) | 2016-06-10 | 2019-01-29 | Apple Inc. | Digital assistant providing whispered speech |
US10490187B2 (en) | 2016-06-10 | 2019-11-26 | Apple Inc. | Digital assistant providing automated status report |
DK201670540A1 (en) | 2016-06-11 | 2018-01-08 | Apple Inc | Application integration with a digital assistant |
DK179343B1 (en) | 2016-06-11 | 2018-05-14 | Apple Inc | Intelligent task discovery |
DK179049B1 (en) | 2016-06-11 | 2017-09-18 | Apple Inc | Data driven natural language event detection and classification |
DK179415B1 (en) | 2016-06-11 | 2018-06-14 | Apple Inc | Intelligent device arbitration and control |
US10043516B2 (en) | 2016-09-23 | 2018-08-07 | Apple Inc. | Intelligent automated assistant |
WO2018078463A1 (en) * | 2016-10-24 | 2018-05-03 | Sony Mobile Communications Inc | Methods, computer program products and devices for automatically synchronizing an audio track with a plurality of pages |
US10593346B2 (en) | 2016-12-22 | 2020-03-17 | Apple Inc. | Rank-reduced token representation for automatic speech recognition |
DK201770439A1 (en) | 2017-05-11 | 2018-12-13 | Apple Inc. | Offline personal assistant |
DK179496B1 (en) | 2017-05-12 | 2019-01-15 | Apple Inc. | USER-SPECIFIC Acoustic Models |
DK179745B1 (en) | 2017-05-12 | 2019-05-01 | Apple Inc. | SYNCHRONIZATION AND TASK DELEGATION OF A DIGITAL ASSISTANT |
DK201770432A1 (en) | 2017-05-15 | 2018-12-21 | Apple Inc. | Hierarchical belief states for digital assistants |
DK201770431A1 (en) | 2017-05-15 | 2018-12-20 | Apple Inc. | Optimizing dialogue policy decisions for digital assistants using implicit feedback |
DK179549B1 (en) | 2017-05-16 | 2019-02-12 | Apple Inc. | FAR-FIELD EXTENSION FOR DIGITAL ASSISTANT SERVICES |
US20200082279A1 (en) | 2018-09-11 | 2020-03-12 | Synaptics Incorporated | Neural network inferencing on protected data |
Citations (8)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPH08212190A (ja) * | 1995-02-06 | 1996-08-20 | Nippon Telegr & Teleph Corp <Ntt> | マルチメディアデータ作成支援装置 |
JPH1173297A (ja) * | 1997-08-29 | 1999-03-16 | Hitachi Ltd | 音声とジェスチャによるマルチモーダル表現の時間的関係を用いた認識方法 |
JPH11289512A (ja) * | 1998-04-03 | 1999-10-19 | Sony Corp | 編集リスト作成装置 |
JP2000235585A (ja) * | 1998-12-30 | 2000-08-29 | Xerox Corp | トピックに基づくテキストと音声とのクロスインデックスの方法及びシステム |
JP2000352995A (ja) * | 1999-06-14 | 2000-12-19 | Canon Inc | 会議音声処理方法および記録装置、情報記憶媒体 |
JP2001325250A (ja) * | 2000-05-15 | 2001-11-22 | Ricoh Co Ltd | 議事録作成装置および議事録作成方法および記録媒体 |
JP2003255979A (ja) * | 2002-03-06 | 2003-09-10 | Nippon Telegr & Teleph Corp <Ntt> | データ編集方法、データ編集装置、データ編集プログラム |
JP2004007358A (ja) * | 2002-03-28 | 2004-01-08 | Fujitsu Ltd | 同期コンテンツ情報生成プログラム、同期コンテンツ情報生成装置および同期コンテンツ情報生成方法 |
-
2005
- 2005-01-14 WO PCT/JP2005/000333 patent/WO2005069171A1/ja active Application Filing
- 2005-01-14 JP JP2005517060A patent/JP4600828B2/ja active Active
Patent Citations (8)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPH08212190A (ja) * | 1995-02-06 | 1996-08-20 | Nippon Telegr & Teleph Corp <Ntt> | マルチメディアデータ作成支援装置 |
JPH1173297A (ja) * | 1997-08-29 | 1999-03-16 | Hitachi Ltd | 音声とジェスチャによるマルチモーダル表現の時間的関係を用いた認識方法 |
JPH11289512A (ja) * | 1998-04-03 | 1999-10-19 | Sony Corp | 編集リスト作成装置 |
JP2000235585A (ja) * | 1998-12-30 | 2000-08-29 | Xerox Corp | トピックに基づくテキストと音声とのクロスインデックスの方法及びシステム |
JP2000352995A (ja) * | 1999-06-14 | 2000-12-19 | Canon Inc | 会議音声処理方法および記録装置、情報記憶媒体 |
JP2001325250A (ja) * | 2000-05-15 | 2001-11-22 | Ricoh Co Ltd | 議事録作成装置および議事録作成方法および記録媒体 |
JP2003255979A (ja) * | 2002-03-06 | 2003-09-10 | Nippon Telegr & Teleph Corp <Ntt> | データ編集方法、データ編集装置、データ編集プログラム |
JP2004007358A (ja) * | 2002-03-28 | 2004-01-08 | Fujitsu Ltd | 同期コンテンツ情報生成プログラム、同期コンテンツ情報生成装置および同期コンテンツ情報生成方法 |
Non-Patent Citations (4)
Title |
---|
CSNG199800756013, 柳沼良知、外2名, "同期されたシナリオ文書を用いた映像編集方式の一提案", 電子情報通信学会論文誌, 19960425, 第J79−D−II巻,第4号, p.547−558, JP, 社団法人電子情報通信学会 * |
CSNG199800757011, 柳沼良知、外1名, "DPマッチングを用いたドラマ映像・音声・シナリオ文章の対応付け手法の一提案", 電子情報通信学会論文誌, 19960525, 第J79−D−II巻,第5号, p.747−755, JP, 社団法人電子情報通信学会 * |
JPN6010030555, 柳沼良知、外1名, "DPマッチングを用いたドラマ映像・音声・シナリオ文章の対応付け手法の一提案", 電子情報通信学会論文誌, 19960525, 第J79−D−II巻,第5号, p.747−755, JP, 社団法人電子情報通信学会 * |
JPN6010030559, 柳沼良知、外2名, "同期されたシナリオ文書を用いた映像編集方式の一提案", 電子情報通信学会論文誌, 19960425, 第J79−D−II巻,第4号, p.547−558, JP, 社団法人電子情報通信学会 * |
Also Published As
Publication number | Publication date |
---|---|
JP4600828B2 (ja) | 2010-12-22 |
WO2005069171A1 (ja) | 2005-07-28 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP4600828B2 (ja) | 文書対応付け装置、および文書対応付け方法 | |
JP4466564B2 (ja) | 文書作成閲覧装置、文書作成閲覧ロボットおよび文書作成閲覧プログラム | |
JP5142769B2 (ja) | 音声データ検索システム及び音声データの検索方法 | |
KR100828166B1 (ko) | 동영상의 음성 인식과 자막 인식을 통한 메타데이터 추출방법, 메타데이터를 이용한 동영상 탐색 방법 및 이를기록한 기록매체 | |
JP3848319B2 (ja) | 情報処理方法及び情報処理装置 | |
JP5104762B2 (ja) | コンテンツ要約システムと方法とプログラム | |
CN108242238B (zh) | 一种音频文件生成方法及装置、终端设备 | |
JP2002091482A (ja) | 感情検出方法及び感情検出装置ならびに記録媒体 | |
KR20070118038A (ko) | 정보처리 장치 및 정보처리 방법과 컴퓨터·프로그램 | |
JP6280312B2 (ja) | 議事録記録装置、議事録記録方法及びプログラム | |
CN110781328A (zh) | 基于语音识别的视频生成方法、系统、装置和存储介质 | |
JP5218766B2 (ja) | 権利情報抽出装置、権利情報抽出方法及びプログラム | |
US20240064383A1 (en) | Method and Apparatus for Generating Video Corpus, and Related Device | |
JP2008032825A (ja) | 発言者表示システム、発言者表示方法および発言者表示プログラム | |
JP2002132287A (ja) | 音声収録方法および音声収録装置および記憶媒体 | |
JP2013029690A (ja) | 話者分類装置、話者分類方法および話者分類プログラム | |
US11176943B2 (en) | Voice recognition device, voice recognition method, and computer program product | |
JP2009278202A (ja) | 映像編集装置及び方法及びプログラム及びコンピュータ読み取り可能な記録媒体 | |
JP4405418B2 (ja) | 情報処理装置及びその方法 | |
CN113345407A (zh) | 一种风格语音合成方法、装置、电子设备及存储介质 | |
JP5713782B2 (ja) | 情報処理装置、情報処理方法及びプログラム | |
JP2015200913A (ja) | 話者分類装置、話者分類方法および話者分類プログラム | |
KR100348901B1 (ko) | 오디오/영상물의 음향적 장면분할방법 | |
JP4631251B2 (ja) | メディア検索装置およびメディア検索プログラム | |
CN118413708B (zh) | 一种非经营性交互式直播数据智能分析系统 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20100304 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20100428 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20100601 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20100802 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20100903 |
|
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20100916 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20131008 Year of fee payment: 3 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 4600828 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 Free format text: JAPANESE INTERMEDIATE CODE: R150 |