JP7159655B2 - 感情推定システムおよびプログラム - Google Patents
感情推定システムおよびプログラム Download PDFInfo
- Publication number
- JP7159655B2 JP7159655B2 JP2018129928A JP2018129928A JP7159655B2 JP 7159655 B2 JP7159655 B2 JP 7159655B2 JP 2018129928 A JP2018129928 A JP 2018129928A JP 2018129928 A JP2018129928 A JP 2018129928A JP 7159655 B2 JP7159655 B2 JP 7159655B2
- Authority
- JP
- Japan
- Prior art keywords
- vowel
- emotion
- segment
- probability
- feature amount
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
- 230000008451 emotion Effects 0.000 title claims description 223
- 230000007704 transition Effects 0.000 claims description 82
- 238000000034 method Methods 0.000 claims description 16
- 230000008569 process Effects 0.000 claims description 13
- 238000012545 processing Methods 0.000 description 43
- 238000000605 extraction Methods 0.000 description 19
- 238000010586 diagram Methods 0.000 description 14
- 230000005236 sound signal Effects 0.000 description 6
- 230000008859 change Effects 0.000 description 5
- 239000000284 extract Substances 0.000 description 5
- 230000006870 function Effects 0.000 description 5
- 230000007246 mechanism Effects 0.000 description 3
- 230000004048 modification Effects 0.000 description 3
- 238000012986 modification Methods 0.000 description 3
- 238000004364 calculation method Methods 0.000 description 2
- 230000000694 effects Effects 0.000 description 2
- 238000013528 artificial neural network Methods 0.000 description 1
- 238000007796 conventional method Methods 0.000 description 1
- 230000008909 emotion recognition Effects 0.000 description 1
- 230000000877 morphologic effect Effects 0.000 description 1
- 230000002093 peripheral effect Effects 0.000 description 1
- 239000007787 solid Substances 0.000 description 1
- 238000001228 spectrum Methods 0.000 description 1
- 238000012549 training Methods 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L25/00—Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00
- G10L25/48—Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00 specially adapted for particular use
- G10L25/51—Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00 specially adapted for particular use for comparison or discrimination
- G10L25/63—Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00 specially adapted for particular use for comparison or discrimination for estimating an emotional state
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L15/00—Speech recognition
- G10L15/02—Feature extraction for speech recognition; Selection of recognition unit
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L25/00—Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00
- G10L25/93—Discriminating between voiced and unvoiced parts of speech signals
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L15/00—Speech recognition
- G10L15/02—Feature extraction for speech recognition; Selection of recognition unit
- G10L2015/025—Phonemes, fenemes or fenones being the recognition units
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L25/00—Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00
- G10L25/03—Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00 characterised by the type of extracted parameters
- G10L25/15—Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00 characterised by the type of extracted parameters the extracted parameters being formant information
Landscapes
- Engineering & Computer Science (AREA)
- Health & Medical Sciences (AREA)
- Multimedia (AREA)
- Computational Linguistics (AREA)
- Audiology, Speech & Language Pathology (AREA)
- Human Computer Interaction (AREA)
- Physics & Mathematics (AREA)
- Acoustics & Sound (AREA)
- Signal Processing (AREA)
- Child & Adolescent Psychology (AREA)
- General Health & Medical Sciences (AREA)
- Hospice & Palliative Care (AREA)
- Psychiatry (AREA)
- Computer Vision & Pattern Recognition (AREA)
- User Interface Of Digital Computer (AREA)
- Information Retrieval, Db Structures And Fs Structures Therefor (AREA)
Description
収録された発話音声を解析して予め定められた特徴量を抽出する特徴量抽出手段と、
前記特徴量抽出手段により抽出された前記特徴量に基づいて母音が発音された区間を特定する母音区間特定手段と、
前記母音区間特定手段により特定された母音区間の前記特徴量に基づいて発話者の感情を推定する推定手段と、を備え、
前記推定手段は、
前記母音区間特定手段により特定された母音区間ごとに当該母音区間の特徴量から当該母音区間における発話者の感情を推定し、
母音の組み合わせごとに一の母音区間における感情から他の一の母音区間の感情の遷移確率を記録した遷移確率データベースを参照して、前記発話音声に含まれる複数の母音区間の各々に対して推定された母音間の感情の遷移確率を求め、
前記母音区間ごとの感情の推定結果および各母音区間の間の感情の遷移確率に基づき、前記発話音声全体における発話者の感情を特定することを特徴とする、感情推定システムである。
請求項2に係る本発明は、
前記推定手段は、各母音に関して予め定められた感情の種類ごとに特徴量のパターンを記録した母音別確率データベースを参照し、前記母音区間特定手段により特定された母音区間の特徴量のパターンが前記感情の種類の各々に該当する確率を求めることを特徴とする、請求項1に記載の感情推定システムである。
請求項3に係る本発明は、
前記推定手段は、前記母音区間特定手段により特定された母音区間を複数のフレームに分割し、当該フレームごとの特徴量のパターンに関して、前記母音別確率データベースを参照して前記感情の種類の各々に該当する確率を求め、得られたフレームごとの当該確率に基づいて当該母音区間が該当する感情の種類を特定することを特徴とする、請求項2に記載の感情推定システムである。
請求項4に係る本発明は、
前記母音区間における前記フレームごとの特徴量のパターンを、当該母音区間に対応する母音の特徴量のパターンとして前記母音別確率データベースに記録する母音別確率データベース更新手段をさらに備えることを特徴とする、請求項3に記載の感情推定システムである。
請求項5に係る本発明は、
前記推定手段により得られた前記発話音声に含まれる各母音間の感情の遷移確率に基づき、該当する母音間の感情の遷移確率を更新する遷移確率データベース更新手段をさらに備えることを特徴とする、請求項1に記載の感情推定システムである。
請求項6に係る本発明は、
コンピュータに読み込まれて実行されるプログラムであって、
収録された発話音声を解析して予め定められた特徴量を抽出する特徴量抽出手段と、
前記特徴量抽出手段により抽出された前記特徴量に基づいて母音が発音された区間を特定する母音区間特定手段と、
前記母音区間特定手段により特定された母音区間の前記特徴量に基づいて発話者の感情を推定する推定手段として、
前記コンピュータを機能させ、
前記推定手段の機能として、
前記母音区間特定手段により特定された母音区間ごとに当該母音区間の特徴量から当該母音区間における発話者の感情を推定し、
母音の組み合わせごとに一の母音区間における感情から他の一の母音区間の感情の遷移確率を記録した遷移確率データベースを参照して、前記発話音声に含まれる複数の母音区間の各々に対して推定された母音間の感情の遷移確率を求め、
前記母音区間ごとの感情の推定結果および各母音区間の間の感情の遷移確率に基づき、前記発話音声全体における発話者の感情を特定する処理を前記コンピュータに実行させることを特徴とする、プログラムである。
請求項7に係る本発明は、
前記推定手段の機能として、各母音に関して予め定められた感情の種類ごとに特徴量のパターンを記録した母音別確率データベースを参照し、前記母音区間特定手段により特定された母音区間の特徴量のパターンが前記感情の種類の各々に該当する確率を求める処理を前記コンピュータに実行させることを特徴とする、請求項6に記載のプログラムである。
請求項8に係る本発明は、
前記推定手段の機能として、前記母音区間特定手段により特定された母音区間を複数のフレームに分割し、当該フレームごとの特徴量のパターンに関して、前記母音別確率データベースを参照して前記感情の種類の各々に該当する確率を求め、得られたフレームごとの当該確率に基づいて当該母音区間が該当する感情の種類を特定する処理を前記コンピュータに実行させることを特徴とする、請求項7に記載のプログラムである。
請求項9に係る本発明は、
前記母音区間における前記フレームごとの特徴量のパターンを、当該母音区間に対応する母音の特徴量のパターンとして前記母音別確率データベースに記録する母音別確率データベース更新手段として、前記コンピュータを機能させることを特徴とする、請求項8に記載のプログラムである。
請求項10に係る本発明は、
前記推定手段により得られた前記発話音声に含まれる各母音間の感情の遷移確率に基づき、該当する母音間の感情の遷移確率を更新する遷移確率データベース更新手段として、前記コンピュータを機能させることを特徴とする、請求項6に記載のプログラムである。
請求項2の発明によれば、特徴量パターンのマッチングで推定することにより、音声認識を用いた推定と比較して、処理の負荷を減少させることができる。
請求項3の発明によれば、母音区間を細分化して判断することにより、音声認識で得られた母音ごとに推定を行う構成と比較して、精度を向上させることができる。
請求項4の発明によれば、予め用意されたデータベースのデータのみを用いて処理を行う構成と比較して、ユーザの発話における特徴をデータベースに反映させることができ、推定の精度を向上させることができる。
請求項5の発明によれば、予め用意されたデータベースのデータのみを用いて処理を行う構成と比較して、母音間の感情の遷移確率に関して、ユーザの発話における特徴をデータベースに反映させることができ、推定の精度を向上させることができる。
請求項6の発明によれば、本発明のプログラムを実装したコンピュータにおいて、母音区間ごとの推定結果のみを用いて音声全体の感情の推定を行う構成と比較して、母音区間ごとの推定結果に表れる突発的な変化等の影響を抑制することができ、推定の精度を向上させることができる。
請求項7の発明によれば、本発明のプログラムを実装したコンピュータにおいて、特徴量パターンのマッチングで推定することにより、音声認識を用いた推定と比較して、処理の負荷を減少させることができる。
請求項8の発明によれば、本発明のプログラムを実装したコンピュータにおいて、母音区間を細分化して判断することにより、音声認識で得られた母音ごとに推定を行う構成と比較して、精度を向上させることができる。
請求項9の発明によれば、本発明のプログラムを実装したコンピュータにおいて、予め用意されたデータベースのデータのみを用いて処理を行う構成と比較して、ユーザの発話における特徴をデータベースに反映させることができ、推定の精度を向上させることができる。
請求項10の発明によれば、本発明のプログラムを実装したコンピュータにおいて、予め用意されたデータベースのデータのみを用いて処理を行う構成と比較して、母音間の感情の遷移確率に関して、ユーザの発話における特徴をデータベースに反映させることができ、推定の精度を向上させることができる。
図1は、本実施形態による感情推定システムの全体構成を示す図である。感情推定システム100は、音声取得部10と、特徴量抽出部20と、母音区間特定部30と、感情推定部40と、母音別確率データベース(DB)50と、遷移確率データベース(DB)60と、出力部70とを備える。
次に、特徴量抽出部20による特徴量の抽出処理について説明する。特徴量抽出部20は、処理対象の音声信号を単位時間ごとの音声フレームに分割し、この音声フレームごとに各特徴量の値を特定する。
次に、母音区間特定部30による母音区間の特定処理について説明する。母音区間特定部30は、特徴量抽出部20により抽出された音声フレームごとの特徴量を用いて母音区間を特定する。
次に、母音別感情推定部41による母音区間ごとの感情推定処理について説明する。母音別感情推定部41は、母音区間特定部30により特定された母音区間ごとに、母音別確率DB50に格納されている設定された感情ごとの特徴量のパターンの確率分布を参照して、各母音区間が設定された各感情に該当する確率を求め、得られた確率に応じて各母音区間における発話者の感情を推定する。
次に、母音間状態遷移解析部42による母音間の状態遷移解析処理について説明する。母音間状態遷移解析部42は、母音別感情推定部41による母音区間ごとの感情の推定結果に基づき、遷移確率DB60に格納されている母音間状態遷移確率を参照して、各母音区間の間で感情が遷移する確率を求める。
次に、感情推定部40による処理対象の音声全体に対する感情の推定処理について説明する。感情推定部40は、母音別感情推定部41による母音区間ごとの感情の推定結果と、母音間状態遷移解析部42により得られた母音間状態遷移確率に基づいて、これらの母音区間が含まれる音声における発話者の感情を推定する。具体的には、感情推定部40は、感情推定システム100において設定された感情の種類の各々に関して、処理対象の音声における発話者の感情が該当する確率を求め、最も高い確率である感情を発話者の感情とする。処理対象の音声Xにおける発話者の感情が、感情推定システム100において設定された感情の種類のうちの一の感情ej(j=1~E)に該当する確率P(ej|X)は、例えば、次式(数2)で表される。
図7は、感情推定システム100の動作を示すフローチャートである。感情推定システム100による処理においては、まず、音声取得部10が、処理対象の音声(対象音声)を取得する(S701)。ここで、対象音声は、一人の話者による発話音声である。収録音声が複数の話者による発話音声を含んでいる場合、収録音声の中から一人の話者による発話音声を切り出して対象音声とする。なお、一人の話者による発話音声の切り出しは、人が音声を聞いて行っても良いし、一定時間の空白部分で切り分ける等の既存の手法を用いて行っても良い。
図8は、感情推定システム100として用いられるコンピュータのハードウェア構成例を示す図である。図8に示すコンピュータ200は、演算手段であるCPU(Central Processing Unit)201と、記憶手段である主記憶装置(メイン・メモリ)202および外部記憶装置203を備える。CPU201は、外部記憶装置203に格納されたプログラムを主記憶装置202に読み込んで実行する。主記憶装置202としては、例えばRAM(Random Access Memory)が用いられる。外部記憶装置203としては、例えば磁気ディスク装置やSSD(Solid State Drive)等が用いられる。また、コンピュータ200は、表示装置210に表示出力を行うための表示機構204と、コンピュータ200のユーザによる入力操作が行われる入力デバイス205とを備える。入力デバイス205としては、例えばキーボードやマウス等が用いられる。また、コンピュータ200は、ネットワークに接続するためのネットワーク・インターフェイス206を備える。なお、図7に示すコンピュータ200の構成は一例に過ぎず、本実施形態で用いられるコンピュータは図8の構成例に限定されるものではない。例えば、記憶装置としてフラッシュ・メモリ等の不揮発性メモリやROM(Read Only Memory)を備える構成としても良い。
本実施形態の感情推定システム100において、母音別確率DB50に格納されている特徴量のパターンの確率分布および遷移確率DB60に格納されている母音間状態遷移確率は、サンプルとして収集された音声(サンプル音声)に対して統計処理を行うことにより、予め用意されている。本実施形態の変形例として、具体的な音声に関して感情を推定する処理を行った結果を感情推定システム100にフィードバックする構成を設けても良い。具体的には、感情推定システム100により発話者の感情を推定する過程で抽出された音声フレームの特徴量のパターンおよび母音間の状態遷移のパターンを、母音別確率DB50および遷移確率DB60に格納し、反映させる。発話音声における特徴量のパターンや母音間の状態遷移のパターンには発話者ごとの個人差があることが想定される。そこで、発話者の具体的な音声に対する実際の処理結果を感情推定システム100にフィードバックして各データベースに反映させることにより、感情推定システム100が発話者の発話音声に対して最適化され、推定精度が向上する。感情推定システム100により感情を推定される発話者が複数存在する場合、処理結果の情報に発話者の識別情報を付加してフィードバックし、発話者ごとに最適化されたデータベースを構築しても良い。
Claims (10)
- 収録された発話音声を解析して予め定められた特徴量を抽出する特徴量抽出手段と、
前記特徴量抽出手段により抽出された前記特徴量に基づいて母音が発音された区間を特定する母音区間特定手段と、
前記母音区間特定手段により特定された母音区間の前記特徴量に基づいて発話者の感情を推定する推定手段と、を備え、
前記推定手段は、
前記母音区間特定手段により特定された母音区間ごとに当該母音区間の特徴量から当該母音区間における発話者の感情を推定し、
母音の組み合わせごとに一の母音区間における感情から他の一の母音区間の感情の遷移確率を記録した遷移確率データベースを参照して、前記発話音声に含まれる複数の母音区間の各々に対して推定された母音間の感情の遷移確率を求め、
前記母音区間ごとの感情の推定結果および各母音区間の間の感情の遷移確率に基づき、前記発話音声全体における発話者の感情を特定することを特徴とする、感情推定システム。 - 前記推定手段は、各母音に関して予め定められた感情の種類ごとに特徴量のパターンを記録した母音別確率データベースを参照し、前記母音区間特定手段により特定された母音区間の特徴量のパターンが前記感情の種類の各々に該当する確率を求めることを特徴とする、請求項1に記載の感情推定システム。
- 前記推定手段は、前記母音区間特定手段により特定された母音区間を複数のフレームに分割し、当該フレームごとの特徴量のパターンに関して、前記母音別確率データベースを参照して前記感情の種類の各々に該当する確率を求め、得られたフレームごとの当該確率に基づいて当該母音区間が該当する感情の種類を特定することを特徴とする、請求項2に記載の感情推定システム。
- 前記母音区間における前記フレームごとの特徴量のパターンを、当該母音区間に対応する母音の特徴量のパターンとして前記母音別確率データベースに記録する母音別確率データベース更新手段をさらに備えることを特徴とする、請求項3に記載の感情推定システム。
- 前記推定手段により得られた前記発話音声に含まれる各母音間の感情の遷移確率に基づき、該当する母音間の感情の遷移確率を更新する遷移確率データベース更新手段をさらに備えることを特徴とする、請求項1に記載の感情推定システム。
- コンピュータに読み込まれて実行されるプログラムであって、
収録された発話音声を解析して予め定められた特徴量を抽出する特徴量抽出手段と、
前記特徴量抽出手段により抽出された前記特徴量に基づいて母音が発音された区間を特定する母音区間特定手段と、
前記母音区間特定手段により特定された母音区間の前記特徴量に基づいて発話者の感情を推定する推定手段として、前記コンピュータを機能させ、
前記推定手段の機能として、
前記母音区間特定手段により特定された母音区間ごとに当該母音区間の特徴量から当該母音区間における発話者の感情を推定し、
母音の組み合わせごとに一の母音区間における感情から他の一の母音区間の感情の遷移確率を記録した遷移確率データベースを参照して、前記発話音声に含まれる複数の母音区間の各々に対して推定された母音間の感情の遷移確率を求め、
前記母音区間ごとの感情の推定結果および各母音区間の間の感情の遷移確率に基づき、前記発話音声全体における発話者の感情を特定する処理を前記コンピュータに実行させることを特徴とする、プログラム。 - 前記推定手段の機能として、各母音に関して予め定められた感情の種類ごとに特徴量のパターンを記録した母音別確率データベースを参照し、前記母音区間特定手段により特定された母音区間の特徴量のパターンが前記感情の種類の各々に該当する確率を求める処理を前記コンピュータに実行させることを特徴とする、請求項6に記載のプログラム。
- 前記推定手段の機能として、前記母音区間特定手段により特定された母音区間を複数のフレームに分割し、当該フレームごとの特徴量のパターンに関して、前記母音別確率データベースを参照して前記感情の種類の各々に該当する確率を求め、得られたフレームごとの当該確率に基づいて当該母音区間が該当する感情の種類を特定する処理を前記コンピュータに実行させることを特徴とする、請求項7に記載のプログラム。
- 前記母音区間における前記フレームごとの特徴量のパターンを、当該母音区間に対応する母音の特徴量のパターンとして前記母音別確率データベースに記録する母音別確率データベース更新手段として、前記コンピュータを機能させることを特徴とする、請求項8に記載のプログラム。
- 前記推定手段により得られた前記発話音声に含まれる各母音間の感情の遷移確率に基づき、該当する母音間の感情の遷移確率を更新する遷移確率データベース更新手段として、前記コンピュータを機能させることを特徴とする、請求項6に記載のプログラム。
Priority Applications (3)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2018129928A JP7159655B2 (ja) | 2018-07-09 | 2018-07-09 | 感情推定システムおよびプログラム |
CN201910170895.6A CN110706689A (zh) | 2018-07-09 | 2019-03-07 | 感情推测系统以及计算机可读介质 |
US16/458,200 US11355140B2 (en) | 2018-07-09 | 2019-07-01 | Emotion estimation system and non-transitory computer readable medium |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2018129928A JP7159655B2 (ja) | 2018-07-09 | 2018-07-09 | 感情推定システムおよびプログラム |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2020008730A JP2020008730A (ja) | 2020-01-16 |
JP7159655B2 true JP7159655B2 (ja) | 2022-10-25 |
Family
ID=69102440
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2018129928A Active JP7159655B2 (ja) | 2018-07-09 | 2018-07-09 | 感情推定システムおよびプログラム |
Country Status (3)
Country | Link |
---|---|
US (1) | US11355140B2 (ja) |
JP (1) | JP7159655B2 (ja) |
CN (1) | CN110706689A (ja) |
Families Citing this family (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP7159655B2 (ja) * | 2018-07-09 | 2022-10-25 | 富士フイルムビジネスイノベーション株式会社 | 感情推定システムおよびプログラム |
Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2003099084A (ja) | 2001-07-13 | 2003-04-04 | Sony France Sa | 音声による感情合成方法及び装置 |
WO2008032787A1 (fr) | 2006-09-13 | 2008-03-20 | Nippon Telegraph And Telephone Corporation | ProcÉDÉ de dÉtection de sensations, dispositif de dÉtection de sensations, programme de dÉtection de sensations contenant le procÉDÉ, et support d'enregistrement contenant le programme |
JP2017111760A (ja) | 2015-12-18 | 2017-06-22 | カシオ計算機株式会社 | 感情推定器生成方法、感情推定器生成装置、感情推定方法、感情推定装置及びプログラム |
Family Cites Families (10)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2007148493A1 (ja) | 2006-06-23 | 2007-12-27 | Panasonic Corporation | 感情認識装置 |
CN1975856B (zh) * | 2006-10-30 | 2011-11-09 | 邹采荣 | 一种基于支持向量机的语音情感识别方法 |
CN101930735B (zh) * | 2009-06-23 | 2012-11-21 | 富士通株式会社 | 语音情感识别设备和进行语音情感识别的方法 |
US8756061B2 (en) * | 2011-04-01 | 2014-06-17 | Sony Computer Entertainment Inc. | Speech syllable/vowel/phone boundary detection using auditory attention cues |
US10237399B1 (en) * | 2014-04-01 | 2019-03-19 | Securus Technologies, Inc. | Identical conversation detection method and apparatus |
US9621713B1 (en) * | 2014-04-01 | 2017-04-11 | Securus Technologies, Inc. | Identical conversation detection method and apparatus |
US20190279644A1 (en) * | 2016-09-14 | 2019-09-12 | Nec Corporation | Speech processing device, speech processing method, and recording medium |
WO2018124584A1 (ko) * | 2016-12-28 | 2018-07-05 | 삼성전자 주식회사 | 개인 안전 장치 및 그 동작방법 |
JP6845489B2 (ja) * | 2017-03-07 | 2021-03-17 | 日本電気株式会社 | 音声処理装置、音声処理方法、および音声処理プログラム |
JP7159655B2 (ja) * | 2018-07-09 | 2022-10-25 | 富士フイルムビジネスイノベーション株式会社 | 感情推定システムおよびプログラム |
-
2018
- 2018-07-09 JP JP2018129928A patent/JP7159655B2/ja active Active
-
2019
- 2019-03-07 CN CN201910170895.6A patent/CN110706689A/zh active Pending
- 2019-07-01 US US16/458,200 patent/US11355140B2/en active Active
Patent Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2003099084A (ja) | 2001-07-13 | 2003-04-04 | Sony France Sa | 音声による感情合成方法及び装置 |
WO2008032787A1 (fr) | 2006-09-13 | 2008-03-20 | Nippon Telegraph And Telephone Corporation | ProcÉDÉ de dÉtection de sensations, dispositif de dÉtection de sensations, programme de dÉtection de sensations contenant le procÉDÉ, et support d'enregistrement contenant le programme |
JP2017111760A (ja) | 2015-12-18 | 2017-06-22 | カシオ計算機株式会社 | 感情推定器生成方法、感情推定器生成装置、感情推定方法、感情推定装置及びプログラム |
Non-Patent Citations (1)
Title |
---|
Shashidhar Koolagudi G, et al.,Contribution of Telugu Vowels in Identifying Emotions,2015 Eighth International Conference on Advances in Pattern Recognition,IEEE,2015年03月02日,p.1-6 |
Also Published As
Publication number | Publication date |
---|---|
CN110706689A (zh) | 2020-01-17 |
US20200013428A1 (en) | 2020-01-09 |
JP2020008730A (ja) | 2020-01-16 |
US11355140B2 (en) | 2022-06-07 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US9536525B2 (en) | Speaker indexing device and speaker indexing method | |
JP4911034B2 (ja) | 音声判別システム、音声判別方法及び音声判別用プログラム | |
Zelinka et al. | Impact of vocal effort variability on automatic speech recognition | |
JP4322785B2 (ja) | 音声認識装置、音声認識方法および音声認識プログラム | |
JP7342915B2 (ja) | 音声処理装置、音声処理方法、およびプログラム | |
Origlia et al. | Continuous emotion recognition with phonetic syllables | |
CN106875936B (zh) | 语音识别方法及装置 | |
Martinez et al. | Prosodic features and formant modeling for an ivector-based language recognition system | |
JP3006677B2 (ja) | 音声認識装置 | |
JP2017111760A (ja) | 感情推定器生成方法、感情推定器生成装置、感情推定方法、感情推定装置及びプログラム | |
JP5050698B2 (ja) | 音声処理装置およびプログラム | |
JP4353202B2 (ja) | 韻律識別装置及び方法、並びに音声認識装置及び方法 | |
JP5382780B2 (ja) | 発話意図情報検出装置及びコンピュータプログラム | |
JP2006171750A (ja) | 音声認識のための特徴ベクトル抽出方法 | |
JP7159655B2 (ja) | 感情推定システムおよびプログラム | |
Stasiak et al. | Fundamental frequency extraction in speech emotion recognition | |
KR20080052248A (ko) | 고속 음성 인식 방법 및 시스템 | |
KR100744288B1 (ko) | 음성 신호에서 음소를 분절하는 방법 및 그 시스템 | |
JP2001312293A (ja) | 音声認識方法およびその装置、並びにコンピュータ読み取り可能な記憶媒体 | |
Grewal et al. | Isolated word recognition system for English language | |
Laleye et al. | Automatic text-independent syllable segmentation using singularity exponents and rényi entropy | |
Laleye et al. | Automatic boundary detection based on entropy measures for text-independent syllable segmentation | |
Bhardwaj et al. | A Study of Methods Involved In Voice Emotion Recognition | |
Tripathi et al. | Robust vowel region detection method for multimode speech | |
Khan et al. | detection of questions in Arabic audio monologues using prosodic features |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20210621 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20220311 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20220323 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20220523 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20220913 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20220926 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 7159655 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |