Nothing Special   »   [go: up one dir, main page]

JP7159655B2 - 感情推定システムおよびプログラム - Google Patents

感情推定システムおよびプログラム Download PDF

Info

Publication number
JP7159655B2
JP7159655B2 JP2018129928A JP2018129928A JP7159655B2 JP 7159655 B2 JP7159655 B2 JP 7159655B2 JP 2018129928 A JP2018129928 A JP 2018129928A JP 2018129928 A JP2018129928 A JP 2018129928A JP 7159655 B2 JP7159655 B2 JP 7159655B2
Authority
JP
Japan
Prior art keywords
vowel
emotion
segment
probability
feature amount
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2018129928A
Other languages
English (en)
Other versions
JP2020008730A (ja
Inventor
旋 羅
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Fujifilm Business Innovation Corp
Original Assignee
Fuji Xerox Co Ltd
Fujifilm Business Innovation Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Fuji Xerox Co Ltd, Fujifilm Business Innovation Corp filed Critical Fuji Xerox Co Ltd
Priority to JP2018129928A priority Critical patent/JP7159655B2/ja
Priority to CN201910170895.6A priority patent/CN110706689A/zh
Priority to US16/458,200 priority patent/US11355140B2/en
Publication of JP2020008730A publication Critical patent/JP2020008730A/ja
Application granted granted Critical
Publication of JP7159655B2 publication Critical patent/JP7159655B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L25/00Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00
    • G10L25/48Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00 specially adapted for particular use
    • G10L25/51Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00 specially adapted for particular use for comparison or discrimination
    • G10L25/63Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00 specially adapted for particular use for comparison or discrimination for estimating an emotional state
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L15/00Speech recognition
    • G10L15/02Feature extraction for speech recognition; Selection of recognition unit
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L25/00Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00
    • G10L25/93Discriminating between voiced and unvoiced parts of speech signals
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L15/00Speech recognition
    • G10L15/02Feature extraction for speech recognition; Selection of recognition unit
    • G10L2015/025Phonemes, fenemes or fenones being the recognition units
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L25/00Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00
    • G10L25/03Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00 characterised by the type of extracted parameters
    • G10L25/15Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00 characterised by the type of extracted parameters the extracted parameters being formant information

Landscapes

  • Engineering & Computer Science (AREA)
  • Health & Medical Sciences (AREA)
  • Multimedia (AREA)
  • Computational Linguistics (AREA)
  • Audiology, Speech & Language Pathology (AREA)
  • Human Computer Interaction (AREA)
  • Physics & Mathematics (AREA)
  • Acoustics & Sound (AREA)
  • Signal Processing (AREA)
  • Child & Adolescent Psychology (AREA)
  • General Health & Medical Sciences (AREA)
  • Hospice & Palliative Care (AREA)
  • Psychiatry (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • User Interface Of Digital Computer (AREA)
  • Information Retrieval, Db Structures And Fs Structures Therefor (AREA)

Description

本発明は、感情推定システムおよびプログラムに関する。
音声から発話者の感情を推定する従来技術がある。下記の特許文献1には、教師データの元となる音声データに対して音声認識処理した結果を形態素解析処理およびアクセント句抽出処理することにより音声データの特徴量を解析する解析区間を設定する解析区間設定部と、解析区間に含まれる音声データの特徴量の変化するパターンを、複数のクラスに分類された変化パターンに基づいて、解析区間に含まれる音声データの特徴量の変化パターンとして決定するアクセント型決定部と、特徴量の変化パターンごとに分類された音声データを教師データとして、特徴量の変化パターンごとに、音声を発話したときの発話者の感情を推定する感情推定器を生成する感情推定器生成部と、を備える感情推定器生成装置が開示されている。
また、下記の特許文献2には、入力音声から特定の感情と関連する特徴的音色を検出する特徴的音色検出手段と、特徴的音色検出手段で検出した特徴的音色に基づいて、入力音声に含まれる音韻の種類を認識する音声認識手段と、音声認識手段で認識された音韻の種類に基づいて、特徴的音色の発生され易さを示す特徴的音色発生指標を音韻ごとに計算する特徴的音色発生指標計算手段と、特徴的音色発生指標が小さいほど感情が強くなる規則に基づいて、特徴的音色発生指標計算手段で計算された特徴的音色発生指標から特徴的音色が発生した音韻における入力音声の発話者の感情を判定する感情判定手段とを備え、入力音声から当該入力音声の発話者の感情を認識する感情認識装置が開示されている。
特開2017-111760号公報 特許第4085130号公報
音声に対して音声認識処理を行った結果を解析して発話者の感情を推定する場合、音声認識処理を行うことによる負荷が大きかった。また、雑音等の影響を受けやすく感情推定の精度が低かった。
本発明は、音声認識した結果に基づいて発話者の感情を推定する構成と比較して、処理の負荷が小さく、雑音等の影響を受けにくく、精度の高い、発話音声に基づく発話者の感情の推定技術を提供することを目的とする。
請求項1に係る本発明は、
収録された発話音声を解析して予め定められた特徴量を抽出する特徴量抽出手段と、
前記特徴量抽出手段により抽出された前記特徴量に基づいて母音が発音された区間を特定する母音区間特定手段と、
前記母音区間特定手段により特定された母音区間の前記特徴量に基づいて発話者の感情を推定する推定手段と、を備え
前記推定手段は、
前記母音区間特定手段により特定された母音区間ごとに当該母音区間の特徴量から当該母音区間における発話者の感情を推定し、
母音の組み合わせごとに一の母音区間における感情から他の一の母音区間の感情の遷移確率を記録した遷移確率データベースを参照して、前記発話音声に含まれる複数の母音区間の各々に対して推定された母音間の感情の遷移確率を求め、
前記母音区間ごとの感情の推定結果および各母音区間の間の感情の遷移確率に基づき、前記発話音声全体における発話者の感情を特定することを特徴とする、感情推定システムである。
請求項2に係る本発明は、
前記推定手段は、各母音に関して予め定められた感情の種類ごとに特徴量のパターンを記録した母音別確率データベースを参照し、前記母音区間特定手段により特定された母音区間の特徴量のパターンが前記感情の種類の各々に該当する確率を求めることを特徴とする、請求項1に記載の感情推定システムである。
請求項3に係る本発明は、
前記推定手段は、前記母音区間特定手段により特定された母音区間を複数のフレームに分割し、当該フレームごとの特徴量のパターンに関して、前記母音別確率データベースを参照して前記感情の種類の各々に該当する確率を求め、得られたフレームごとの当該確率に基づいて当該母音区間が該当する感情の種類を特定することを特徴とする、請求項2に記載の感情推定システムである。
請求項4に係る本発明は、
前記母音区間における前記フレームごとの特徴量のパターンを、当該母音区間に対応する母音の特徴量のパターンとして前記母音別確率データベースに記録する母音別確率データベース更新手段をさらに備えることを特徴とする、請求項3に記載の感情推定システムである。
請求項5に係る本発明は、
前記推定手段により得られた前記発話音声に含まれる各母音間の感情の遷移確率に基づき、該当する母音間の感情の遷移確率を更新する遷移確率データベース更新手段をさらに備えることを特徴とする、請求項1に記載の感情推定システムである。
請求項に係る本発明は、
コンピュータに読み込まれて実行されるプログラムであって、
収録された発話音声を解析して予め定められた特徴量を抽出する特徴量抽出手段と、
前記特徴量抽出手段により抽出された前記特徴量に基づいて母音が発音された区間を特定する母音区間特定手段と、
前記母音区間特定手段により特定された母音区間の前記特徴量に基づいて発話者の感情を推定する推定手段として、
前記コンピュータを機能させ
前記推定手段の機能として、
前記母音区間特定手段により特定された母音区間ごとに当該母音区間の特徴量から当該母音区間における発話者の感情を推定し、
母音の組み合わせごとに一の母音区間における感情から他の一の母音区間の感情の遷移確率を記録した遷移確率データベースを参照して、前記発話音声に含まれる複数の母音区間の各々に対して推定された母音間の感情の遷移確率を求め、
前記母音区間ごとの感情の推定結果および各母音区間の間の感情の遷移確率に基づき、前記発話音声全体における発話者の感情を特定する処理を前記コンピュータに実行させることを特徴とする、プログラムである。
請求項7に係る本発明は、
前記推定手段の機能として、各母音に関して予め定められた感情の種類ごとに特徴量のパターンを記録した母音別確率データベースを参照し、前記母音区間特定手段により特定された母音区間の特徴量のパターンが前記感情の種類の各々に該当する確率を求める処理を前記コンピュータに実行させることを特徴とする、請求項6に記載のプログラムである。
請求項8に係る本発明は、
前記推定手段の機能として、前記母音区間特定手段により特定された母音区間を複数のフレームに分割し、当該フレームごとの特徴量のパターンに関して、前記母音別確率データベースを参照して前記感情の種類の各々に該当する確率を求め、得られたフレームごとの当該確率に基づいて当該母音区間が該当する感情の種類を特定する処理を前記コンピュータに実行させることを特徴とする、請求項7に記載のプログラムである。
請求項9に係る本発明は、
前記母音区間における前記フレームごとの特徴量のパターンを、当該母音区間に対応する母音の特徴量のパターンとして前記母音別確率データベースに記録する母音別確率データベース更新手段として、前記コンピュータを機能させることを特徴とする、請求項8に記載のプログラムである。
請求項10に係る本発明は、
前記推定手段により得られた前記発話音声に含まれる各母音間の感情の遷移確率に基づき、該当する母音間の感情の遷移確率を更新する遷移確率データベース更新手段として、前記コンピュータを機能させることを特徴とする、請求項6に記載のプログラムである。
請求項1の発明によれば、母音区間ごとの推定結果のみを用いて音声全体の感情の推定を行う構成と比較して、母音区間ごとの推定結果に表れる突発的な変化等の影響を抑制することができ、推定の精度を向上させることができる。
請求項2の発明によれば、特徴量パターンのマッチングで推定することにより、音声認識を用いた推定と比較して、処理の負荷を減少させることができる。
請求項3の発明によれば、母音区間を細分化して判断することにより、音声認識で得られた母音ごとに推定を行う構成と比較して、精度を向上させることができる。
請求項4の発明によれば、予め用意されたデータベースのデータのみを用いて処理を行う構成と比較して、ユーザの発話における特徴をデータベースに反映させることができ、推定の精度を向上させることができる。
請求項5の発明によれば、予め用意されたデータベースのデータのみを用いて処理を行う構成と比較して、母音間の感情の遷移確率に関して、ユーザの発話における特徴をデータベースに反映させることができ、推定の精度を向上させることができる。
請求項の発明によれば、本発明のプログラムを実装したコンピュータにおいて、母音区間ごとの推定結果のみを用いて音声全体の感情の推定を行う構成と比較して、母音区間ごとの推定結果に表れる突発的な変化等の影響を抑制することができ、推定の精度を向上させることができる。
請求項7の発明によれば、本発明のプログラムを実装したコンピュータにおいて、特徴量パターンのマッチングで推定することにより、音声認識を用いた推定と比較して、処理の負荷を減少させることができる。
請求項8の発明によれば、本発明のプログラムを実装したコンピュータにおいて、母音区間を細分化して判断することにより、音声認識で得られた母音ごとに推定を行う構成と比較して、精度を向上させることができる。
請求項9の発明によれば、本発明のプログラムを実装したコンピュータにおいて、予め用意されたデータベースのデータのみを用いて処理を行う構成と比較して、ユーザの発話における特徴をデータベースに反映させることができ、推定の精度を向上させることができる。
請求項10の発明によれば、本発明のプログラムを実装したコンピュータにおいて、予め用意されたデータベースのデータのみを用いて処理を行う構成と比較して、母音間の感情の遷移確率に関して、ユーザの発話における特徴をデータベースに反映させることができ、推定の精度を向上させることができる。
本実施形態による感情推定システムの全体構成を示す図である。 特徴量抽出部による音声フレームの設定例を示す図である。 母音区間の特定処理を示す図であり、図3(A)は、母音区間の始点および終点を特定した様子を示す図であり、図3(B)は、母音区間を特定してIDを付した様子を示す図である。 第1フォルマントおよび第2フォルマントの周波数と日本語の母音との関係を示す図である。 母音区間の感情推定処理を示す図である。 母音区間の間の状態遷移解析処理を示す図である。 感情推定システムの動作を示すフローチャートである。 感情推定システムとして用いられるコンピュータのハードウェア構成例を示す図である。
発話音声に関して、発話者の感情が発話音声における母音の音響に影響することが知られている。また、音声のうち母音の音響は、子音の音響と比較して雑音等の影響を受けにくい。そこで、本発明では、発話音声における母音の音響に着目して発話者の感情を推定する。以下、添付図面を参照して、本発明の実施の形態について詳細に説明する。
<システム構成>
図1は、本実施形態による感情推定システムの全体構成を示す図である。感情推定システム100は、音声取得部10と、特徴量抽出部20と、母音区間特定部30と、感情推定部40と、母音別確率データベース(DB)50と、遷移確率データベース(DB)60と、出力部70とを備える。
音声取得部10は、感情を推定する処理対象の音声を取得する手段である。音声取得部10としては、例えばマイクロフォンが用いられる。また、ネットワーク・インターフェイスを介して外部装置に接続し、この外部装置から処理対象の音声データを受信する構成としても良い。また、システムの周辺装置として音声データを記憶した記憶装置を設けておき、この記憶装置から処理対象の音声データを読み出す構成としても良い。なお、本実施形態では、一人の話者の音声を取得するものとする。
特徴量抽出部20は、音声取得部10により取得した音声を解析し、予め定められた特徴量を抽出する。特徴量抽出部20は、特徴量抽出手段の一例である。ここで、特徴量とは、音声から母音の区間を特定するために用いられる、音声信号の特徴を示す値である。言い換えれば、特徴量とは、母音の音声信号を特徴付ける要素に関する値である。特徴量としては、例えば、音声信号の振幅、零点交差率、フォルマント(formant)等が用いられる。特徴量抽出部20の処理および特徴量の詳細については後述する。
母音区間特定部30は、特徴量抽出部20により抽出された特徴量に基づいて、音声取得部10により取得した音声から母音の区間を特定する。母音区間特定部30は、母音区間特定手段の一例である。母音区間特定部30は、処理対象の音声信号から母音区間を特定する。母音区間とは、処理対象の音声信号のうち、特徴量に基づき母音の特徴を有する区間である。これにより、処理対象の音声信号から母音区間が特定される。母音区間特定部30は、音声信号のうち母音区間を特定するのみであり、母音を特定する音声認識処理は行わない。母音区間特定部30の処理の詳細は後述する。
感情推定部40は、母音区間特定部30により特定された母音区間の特徴量に基づいて処理対象の音声を発した際の発話者の感情を推定する。感情推定部40は、推定手段の一例である。感情推定部40は、母音別感情推定部41と母音間状態遷移解析部42とを有する。母音別感情推定部41は、母音区間ごとに、その母音区間の音声信号の特徴量に基づいて、その母音区間の音声を発した発話者の感情を推定する。母音間状態遷移解析部42は、一の母音区間に対して推定された感情と、この一の母音区間に続く他の一の母音区間に対して推定された感情との関係を解析する。感情推定部40は、母音別感情推定部41の推定結果および母音間状態遷移解析部42の解析結果を用いて、音声取得部10により取得した音声を発した際の発話者の感情を推定する。母音別感情推定部41および母音間状態遷移解析部42の処理を含む感情推定部40の処理の詳細は後述する。
母音別確率DB50は、母音の種類ごとに、予め定められた感情の種類に対して対応する特徴量のパターンの情報を格納している。ここで、感情の種類とは、感情推定システム100により推定される予め設定された感情の種類である。具体的な種別は、個々のシステムごとに個別に設定し得る。例えば、「喜」、「怒」、「哀」、「楽」の4種類としても良いし、これらに加えて「驚き」や「嫌悪」や「落胆」等の感情を設定しても良い。また、「ポジティブ」と「ネガティブ」の2種類、あるいはこれに中間状態を加えた3種類等としても良い。その他、感情推定システム100の利用者の利用目的等に応じて様々に感情の種類を設定し得る。
ここでいう特徴量とは、特徴量抽出部20により抽出される音声信号の特徴量である。そして、特徴量のパターンとは、複数の特徴量の組み合わせパターンである。母音別確率DB50には、母音の種類ごとに、予め設定されている感情の種類の各々に対する各特徴量のパターンの確率分布の情報が格納されている。ここで、感情の種類に対する各特徴量のパターンの確率分布とは、発話者がある感情ejであるときにある特徴量のパターンVkhが発生する確率b(Vkh|ej)の各感情の種類に対する分布である。母音別感情推定部41は、この母音別確率DB50を参照し、処理対象の音声における母音区間から得られた特徴量のパターンが各感情に該当する確率(母音区間別確率)を得る。そして、母音別感情推定部41は、得られた母音区間別確率に基づき、この母音区間における発話者の感情を推定する。
遷移確率DB60は、母音の種類の組み合わせごとに母音間状態遷移確率の情報を格納している。ここで、母音間状態遷移確率とは、一の母音区間における発話者の感情から他の一の母音区間における発話者の感情へ状態遷移する確率である。例えば、感情の種類として「喜」、「怒」、「哀」、「楽」の4種類が設定されており、一の母音区間における発話者の感情が「喜」である場合を考える。この母音区間の次の母音区間における発話者の感情が「怒」である確率が、「喜」から「怒」へ(以下、「喜」→「怒」と記載)の母音間状態遷移確率である。この場合、「喜」を起点とすると「喜」→「喜」、「喜」→「怒」、「喜」→「哀」、「喜」→「楽」の4種類の状態遷移があり得るので、この4種類の状態遷移に関してそれぞれ母音間状態遷移確率が得られる。同様に、「怒」、「哀」、「楽」をそれぞれ起点として4種類ずつの状態遷移があり、それぞれ母音間状態遷移確率が得られる。これらの母音間状態遷移確率は、サンプルとして収集された音声における母音区間ごとの感情の推定結果を用い、隣接する母音区間の組み合わせにおける状態遷移のパターンを処理することにより得られる。状態遷移のパターンの集合から母音間状態遷移確率を求める手法としては、例えば、隠れマルコフモデルを用いた処理、再帰型ニューラルネットワークによる処理、その他、既存の種々の統計的処理等を用いて良い。母音間状態遷移解析部42は、この遷移確率DB60を参照し、母音別感情推定部41により推定された各母音区間の感情に基づいて、各母音区間の間の母音間状態遷移確率を求める。
出力部70は、感情推定部40による推定結果を出力する。詳しくは後述するが、感情推定部40は、音声を発した際の発話者の感情として、予め定められた感情の種類ごとに該当する確率を特定する。したがって、出力内容としては、最も確率の高い感情の種類を推定結果として出力しても良い。また、推定結果としての感情の種類に確率の値を付して出力しても良い。また、設定されている感情の種類ごとの確率値を出力しても良い。出力手段としては、表示装置に上記のような出力内容を表示出力しても良いし、音声出力機構を用いて音声メッセージにより上記のような出力内容を出力しても良い。
<特徴量の抽出処理>
次に、特徴量抽出部20による特徴量の抽出処理について説明する。特徴量抽出部20は、処理対象の音声信号を単位時間ごとの音声フレームに分割し、この音声フレームごとに各特徴量の値を特定する。
図2は、特徴量抽出部20による音声フレームの設定例を示す図である。特徴量抽出部20は、処理対象の音声信号に対して設定された音声フレームごとに特徴量を抽出する。音声フレームの長さ(単位時間の長さ)およびシフト幅は特に限定されず、音声の収録特性等に応じて設定して良い。図2に示す例では、フレームF1~Fiの音声フレームが図中の矢印方向に順に切り出される様子が示されている。また、図2に示す例では、フレームF1とフレームF2とが重なっており、フレーム長よりも短いシフト幅で移動しながら音声フレームが取得される。なお、図2において、音声フレームF2は、音声フレームF1と重なる位置にあるため、図面上で識別しやすくするために、破線で、音声フレームF1よりも若干小さく表示されているが、実際にはフレームF1からフレームFiまで同じサイズの音声フレームが取得される。また、図2に示す例では、図示された音声信号の部分的な範囲にフレームF1~Fiが表示されているが、実際には、音声取得部10により取得された音声の最初から最後までを対象として音声フレームが取得される。また、音声取得部10により取得された音声のうち、一定以上の大きさの音声が収録されている個所について音声フレームを取得するようにしても良い。
特徴量抽出部20は、上記のようにして特定した各音声フレームにおける音声信号の特徴量を抽出する。特徴量としては、種々の情報を示す値を抽出し得るが、少なくともフォルマントを抽出するものとする。フォルマントとは、音声信号の周波数スペクトルにおいて認識される複数のピークである。周波数の低い方から順に、第一フォルマント、第二フォルマント、…と呼ばれる。各フォルマントの周波数は、母音の種類に応じて特徴的な関係を有し、特に低次の第1フォルマントおよび第2フォルマントの関係が母音の識別に重要である。したがって、本実施形態では母音区間の特定に用いるため、音声フレームにおける音声信号の特徴量として、各音声フレームの音声信号から少なくとも第1フォルマントおよび第2フォルマントを抽出する。
<母音区間の特定処理>
次に、母音区間特定部30による母音区間の特定処理について説明する。母音区間特定部30は、特徴量抽出部20により抽出された音声フレームごとの特徴量を用いて母音区間を特定する。
図3は、母音区間の特定処理を示す図である。図3(A)は、母音区間の始点および終点を特定した様子を示す図であり、図3(B)は、母音区間を特定してIDを付した様子を示す図である。母音区間特定部30は、特徴量抽出部20により抽出された特徴量に基づいて、音声信号のうちの母音区間を特定する。上述したように、母音の識別には特徴量のうち第1フォルマントおよび第2フォルマントが重要であるので、一例として、母音区間特定部30による母音区間の特定には、主にこれらの特徴量が用いられる。
図4は、第1フォルマントおよび第2フォルマントの周波数と日本語の母音「あ」、「い」、「う」、「え」、「お」との関係を示す図である。図4において、横軸は第1フォルマント(f1)の周波数(kHz)を示し、縦軸は第2フォルマント(f2)の周波数(kHz)を示す。図示のように第1フォルマントおよび第2フォルマントは、母音の種類に応じて特徴的な関係を示す。そのため、母音区間特定部30は、処理対象の音声信号のうちの特定の区間において、第1フォルマントおよび第2フォルマントの値がこれらの値に該当する場合、すなわち母音であることを特徴付ける値である場合、その区間を母音区間として特定する。
さらに詳細に説明すると、特徴量は音声フレームごとに得られているため、母音区間特定部30は、各音声フレームの特徴量を調べ、個々の音声フレームが母音フレームか否かを判断する。ここで母音フレームとは、特徴量の値が母音であることを特徴付ける値である音声フレームである。そして、母音区間特定部30は、例えば、母音フレームの出現頻度が一定以上である区間を母音区間とする。また、母音区間特定部30は、母音区間の最初に母音フレームが出現した個所を母音区間の始点、最後に母音フレームが出現した個所を母音区間の終点とする。なお、母音区間を特定するための条件の具体的な内容(上記の母音フレームの出現頻度、始点および終点の位置等)は特に限定されず、個々のシステムにおいて個別に設定して良い。
図3(A)に示す例では、処理対象の音声信号において、母音フレームが出現する区間の始点と終点の組が4か所(始点V1Sと終点V1Eの組、始点V2Sと終点V2Eの組、始点V3Sと終点V3Eの組、始点V4Sと終点V4Eの組)検出されている。この結果、図3(B)に示すように、各始点と終点の組に挟まれた区間が母音区間V1、V2、V3、V4として特定される。また、図3(A)(B)において、母音区間V2の終点V2Eの直後に、何らかの音声が収録されている個所(音声信号の振幅が大きくなっている個所)が存在するが、この箇所の音声フレームには母音フレームが存在しなかったものとする。したがって、この区間Nは、母音区間ではなく雑音(ノイズ)とされる。
<母音区間ごとの感情推定処理>
次に、母音別感情推定部41による母音区間ごとの感情推定処理について説明する。母音別感情推定部41は、母音区間特定部30により特定された母音区間ごとに、母音別確率DB50に格納されている設定された感情ごとの特徴量のパターンの確率分布を参照して、各母音区間が設定された各感情に該当する確率を求め、得られた確率に応じて各母音区間における発話者の感情を推定する。
図5は、母音区間の感情推定処理を示す図である。母音別感情推定部41は、まず、母音区間特定部30により特定された母音区間の一つに着目し、処理対象とする。図5に示す例では、母音区間V1が処理対象として着目されたものとする。次に、母音別感情推定部41は、母音区間V1に含まれる各音声フレームF1~Fiのそれぞれについて、特徴量のパターンを抽出する。そして、母音別感情推定部41は、母音別確率DB50を参照して、各音声フレームF1~Fiの特徴量のパターンが、設定された各感情に該当する確率を求める。そして、母音別感情推定部41は、各音声フレームF1~Fiの特徴量のパターンと設定された各感情との関係に基づき、母音区間V1が、設定された各感情に該当する確率を求める。一例として、E個の感情の種類が設定されており、発話者がそのうちの一の感情ej(j=1~E)であるときに発せられた音声が、特定の母音Vkである確率P(Vk|ej)は、次式(数1)で表される。なお、b(Vkh|ej)は、発話者が感情ejであるときに発した音声に特定の特徴量のパターンVkh(h=1~m)である音声フレームが出現する確率である。
Figure 0007159655000001
母音別感情推定部41は、以上の処理を、母音区間特定部30により特定された各母音区間に対して行う。これにより、音声信号の各母音区間における発話者の感情が推定される。
<母音区間の間の状態遷移解析処理>
次に、母音間状態遷移解析部42による母音間の状態遷移解析処理について説明する。母音間状態遷移解析部42は、母音別感情推定部41による母音区間ごとの感情の推定結果に基づき、遷移確率DB60に格納されている母音間状態遷移確率を参照して、各母音区間の間で感情が遷移する確率を求める。
図6は、母音区間の間の状態遷移解析処理を示す図である。母音間状態遷移解析部42は、まず、音声信号において隣接する二つの母音区間に着目する。そして、母音間状態遷移解析部42は、これらの母音区間の組み合わせに対応する母音間状態遷移確率を遷移確率DB60から取得する。図示の例では、V1とV2、……、Vk-1とVk、というk-1個の母音区間の組について母音間状態遷移確率が得られる。
<処理対象の音声に対する感情推定処理>
次に、感情推定部40による処理対象の音声全体に対する感情の推定処理について説明する。感情推定部40は、母音別感情推定部41による母音区間ごとの感情の推定結果と、母音間状態遷移解析部42により得られた母音間状態遷移確率に基づいて、これらの母音区間が含まれる音声における発話者の感情を推定する。具体的には、感情推定部40は、感情推定システム100において設定された感情の種類の各々に関して、処理対象の音声における発話者の感情が該当する確率を求め、最も高い確率である感情を発話者の感情とする。処理対象の音声Xにおける発話者の感情が、感情推定システム100において設定された感情の種類のうちの一の感情ej(j=1~E)に該当する確率P(ej|X)は、例えば、次式(数2)で表される。
Figure 0007159655000002
なお、P(VK|ej)は発話者の感情ejのときに発せられた音声が、母音VK(K=1~k)である確率であり、A(VKK+1|ej)は、発話者の感情ejのときに母音間の状態遷移VK→VK+1(K=1~k-1)が起こる確率である。そして、音声Xにおける発話者の感情E(X)は、次のように表される。
Figure 0007159655000003
<感情推定システムの動作>
図7は、感情推定システム100の動作を示すフローチャートである。感情推定システム100による処理においては、まず、音声取得部10が、処理対象の音声(対象音声)を取得する(S701)。ここで、対象音声は、一人の話者による発話音声である。収録音声が複数の話者による発話音声を含んでいる場合、収録音声の中から一人の話者による発話音声を切り出して対象音声とする。なお、一人の話者による発話音声の切り出しは、人が音声を聞いて行っても良いし、一定時間の空白部分で切り分ける等の既存の手法を用いて行っても良い。
次に、特徴量抽出部20が、対象音声を音声フレームに分割し、この音声フレームごとに特徴量を抽出する(S702)。そして、母音区間特定部30が、特徴量抽出部20により抽出された音声フレームごとの特徴量を用いて母音区間を特定する(S703)。上述したように、ここでは音声信号の特徴量に基づいて対象音声における母音区間を特定しており、音声認識処理は行わない。ただし、特徴量であるフォルマント等に基づき、母音区間における母音の種類を特定しても良い。
次に、感情推定部40の母音別感情推定部41が、母音区間ごとに、その母音区間の音声信号の特徴量に基づいて、その母音区間の音声を発した発話者の感情を推定する(S704)。上述したように、ここでは、母音別感情推定部41は、感情推定システム100により設定された各感情に関して、着目中の母音区間に含まれる音声フレームの特徴量のパターンが出現する確率を求め、最も高い確率が得られる感情を、その母音区間における感情の推定結果とする。
次に、感情推定部40の母音間状態遷移解析部42が、対象音声に含まれる各母音区間の間の状態遷移を解析する(S705)。そして、感情推定部40が、母音別感情推定部41による母音区間ごとの感情の推定結果と、母音間状態遷移解析部42により得られた母音間状態遷移確率に基づき、対象音声における発話者の感情を推定する。上述したように、ここでは、感情推定部40は、発話者の感情が感情推定システム100により設定された各感情に関して、対象音声における母音区間ごとの感情の推定結果および母音間状態遷移確率が出現する確率を求める。そして、感情推定部40は、対象音声における感情の推定結果として、最も高い確率が得られる感情を特定する(S706)。この後、出力部70が、感情推定部40により特定された感情を、対象音声における感情の推定結果として出力する(S707)。
<ハードウェア構成例>
図8は、感情推定システム100として用いられるコンピュータのハードウェア構成例を示す図である。図8に示すコンピュータ200は、演算手段であるCPU(Central Processing Unit)201と、記憶手段である主記憶装置(メイン・メモリ)202および外部記憶装置203を備える。CPU201は、外部記憶装置203に格納されたプログラムを主記憶装置202に読み込んで実行する。主記憶装置202としては、例えばRAM(Random Access Memory)が用いられる。外部記憶装置203としては、例えば磁気ディスク装置やSSD(Solid State Drive)等が用いられる。また、コンピュータ200は、表示装置210に表示出力を行うための表示機構204と、コンピュータ200のユーザによる入力操作が行われる入力デバイス205とを備える。入力デバイス205としては、例えばキーボードやマウス等が用いられる。また、コンピュータ200は、ネットワークに接続するためのネットワーク・インターフェイス206を備える。なお、図7に示すコンピュータ200の構成は一例に過ぎず、本実施形態で用いられるコンピュータは図8の構成例に限定されるものではない。例えば、記憶装置としてフラッシュ・メモリ等の不揮発性メモリやROM(Read Only Memory)を備える構成としても良い。
図1に示した感情推定システム100が図8に示すコンピュータ200により実現される場合、特徴量抽出部20、母音区間特定部30、母音別感情推定部41と母音間状態遷移解析部42とを含む感情推定部40は、例えば、CPU201がプログラムを実行することにより実現される。母音別確率DB50および遷移確率DB60は、例えば、外部記憶装置203により実現される。出力部70は、例えば、表示機構204および表示装置210により実現される。
<変形例>
本実施形態の感情推定システム100において、母音別確率DB50に格納されている特徴量のパターンの確率分布および遷移確率DB60に格納されている母音間状態遷移確率は、サンプルとして収集された音声(サンプル音声)に対して統計処理を行うことにより、予め用意されている。本実施形態の変形例として、具体的な音声に関して感情を推定する処理を行った結果を感情推定システム100にフィードバックする構成を設けても良い。具体的には、感情推定システム100により発話者の感情を推定する過程で抽出された音声フレームの特徴量のパターンおよび母音間の状態遷移のパターンを、母音別確率DB50および遷移確率DB60に格納し、反映させる。発話音声における特徴量のパターンや母音間の状態遷移のパターンには発話者ごとの個人差があることが想定される。そこで、発話者の具体的な音声に対する実際の処理結果を感情推定システム100にフィードバックして各データベースに反映させることにより、感情推定システム100が発話者の発話音声に対して最適化され、推定精度が向上する。感情推定システム100により感情を推定される発話者が複数存在する場合、処理結果の情報に発話者の識別情報を付加してフィードバックし、発話者ごとに最適化されたデータベースを構築しても良い。
なお、特徴量のフォルマントの説明において、日本語の母音とフォルマントとの関係を参照して説明した(図4)。しかしながら、発話音声において母音が感情の表現に大きく影響することは日本語に限定される特徴ではなく、様々な言語において当てはまる。ただし、母音の音声信号における特徴量と感情との具体的な関係については、言語ごとに個別の関係があることが想定される。本実施形態の感情推定システム100は、サンプル音声に対して統計処理を行って得られた母音区間の音声信号における特徴量のパターンの確率分布および母音間状態遷移確率を用いるため、サンプル音声の言語を選択することにより、種々の言語による音声に対して適用し得る。
以上、本発明の実施形態について説明したが、本発明の技術的範囲は上記実施形態には限定されない。本発明の技術思想の範囲から逸脱しない様々な変更や構成の代替は、本発明に含まれる。
10…音声取得部、20…特徴量抽出部、30…母音区間特定部、40…感情推定部、41…母音別感情推定部、42…母音間状態遷移解析部、50…母音別確率データベース(DB)、60…遷移確率データベース(DB)、70…出力部、100…感情推定システム

Claims (10)

  1. 収録された発話音声を解析して予め定められた特徴量を抽出する特徴量抽出手段と、
    前記特徴量抽出手段により抽出された前記特徴量に基づいて母音が発音された区間を特定する母音区間特定手段と、
    前記母音区間特定手段により特定された母音区間の前記特徴量に基づいて発話者の感情を推定する推定手段と、を備え
    前記推定手段は、
    前記母音区間特定手段により特定された母音区間ごとに当該母音区間の特徴量から当該母音区間における発話者の感情を推定し、
    母音の組み合わせごとに一の母音区間における感情から他の一の母音区間の感情の遷移確率を記録した遷移確率データベースを参照して、前記発話音声に含まれる複数の母音区間の各々に対して推定された母音間の感情の遷移確率を求め、
    前記母音区間ごとの感情の推定結果および各母音区間の間の感情の遷移確率に基づき、前記発話音声全体における発話者の感情を特定することを特徴とする、感情推定システム。
  2. 前記推定手段は、各母音に関して予め定められた感情の種類ごとに特徴量のパターンを記録した母音別確率データベースを参照し、前記母音区間特定手段により特定された母音区間の特徴量のパターンが前記感情の種類の各々に該当する確率を求めることを特徴とする、請求項1に記載の感情推定システム。
  3. 前記推定手段は、前記母音区間特定手段により特定された母音区間を複数のフレームに分割し、当該フレームごとの特徴量のパターンに関して、前記母音別確率データベースを参照して前記感情の種類の各々に該当する確率を求め、得られたフレームごとの当該確率に基づいて当該母音区間が該当する感情の種類を特定することを特徴とする、請求項2に記載の感情推定システム。
  4. 前記母音区間における前記フレームごとの特徴量のパターンを、当該母音区間に対応する母音の特徴量のパターンとして前記母音別確率データベースに記録する母音別確率データベース更新手段をさらに備えることを特徴とする、請求項3に記載の感情推定システム。
  5. 前記推定手段により得られた前記発話音声に含まれる各母音間の感情の遷移確率に基づき、該当する母音間の感情の遷移確率を更新する遷移確率データベース更新手段をさらに備えることを特徴とする、請求項1に記載の感情推定システム。
  6. コンピュータに読み込まれて実行されるプログラムであって、
    収録された発話音声を解析して予め定められた特徴量を抽出する特徴量抽出手段と、
    前記特徴量抽出手段により抽出された前記特徴量に基づいて母音が発音された区間を特定する母音区間特定手段と、
    前記母音区間特定手段により特定された母音区間の前記特徴量に基づいて発話者の感情を推定する推定手段として、前記コンピュータを機能させ
    前記推定手段の機能として、
    前記母音区間特定手段により特定された母音区間ごとに当該母音区間の特徴量から当該母音区間における発話者の感情を推定し、
    母音の組み合わせごとに一の母音区間における感情から他の一の母音区間の感情の遷移確率を記録した遷移確率データベースを参照して、前記発話音声に含まれる複数の母音区間の各々に対して推定された母音間の感情の遷移確率を求め、
    前記母音区間ごとの感情の推定結果および各母音区間の間の感情の遷移確率に基づき、前記発話音声全体における発話者の感情を特定する処理を前記コンピュータに実行させることを特徴とする、プログラム。
  7. 前記推定手段の機能として、各母音に関して予め定められた感情の種類ごとに特徴量のパターンを記録した母音別確率データベースを参照し、前記母音区間特定手段により特定された母音区間の特徴量のパターンが前記感情の種類の各々に該当する確率を求める処理を前記コンピュータに実行させることを特徴とする、請求項6に記載のプログラム。
  8. 前記推定手段の機能として、前記母音区間特定手段により特定された母音区間を複数のフレームに分割し、当該フレームごとの特徴量のパターンに関して、前記母音別確率データベースを参照して前記感情の種類の各々に該当する確率を求め、得られたフレームごとの当該確率に基づいて当該母音区間が該当する感情の種類を特定する処理を前記コンピュータに実行させることを特徴とする、請求項7に記載のプログラム。
  9. 前記母音区間における前記フレームごとの特徴量のパターンを、当該母音区間に対応する母音の特徴量のパターンとして前記母音別確率データベースに記録する母音別確率データベース更新手段として、前記コンピュータを機能させることを特徴とする、請求項8に記載のプログラム。
  10. 前記推定手段により得られた前記発話音声に含まれる各母音間の感情の遷移確率に基づき、該当する母音間の感情の遷移確率を更新する遷移確率データベース更新手段として、前記コンピュータを機能させることを特徴とする、請求項6に記載のプログラム。
JP2018129928A 2018-07-09 2018-07-09 感情推定システムおよびプログラム Active JP7159655B2 (ja)

Priority Applications (3)

Application Number Priority Date Filing Date Title
JP2018129928A JP7159655B2 (ja) 2018-07-09 2018-07-09 感情推定システムおよびプログラム
CN201910170895.6A CN110706689A (zh) 2018-07-09 2019-03-07 感情推测系统以及计算机可读介质
US16/458,200 US11355140B2 (en) 2018-07-09 2019-07-01 Emotion estimation system and non-transitory computer readable medium

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2018129928A JP7159655B2 (ja) 2018-07-09 2018-07-09 感情推定システムおよびプログラム

Publications (2)

Publication Number Publication Date
JP2020008730A JP2020008730A (ja) 2020-01-16
JP7159655B2 true JP7159655B2 (ja) 2022-10-25

Family

ID=69102440

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2018129928A Active JP7159655B2 (ja) 2018-07-09 2018-07-09 感情推定システムおよびプログラム

Country Status (3)

Country Link
US (1) US11355140B2 (ja)
JP (1) JP7159655B2 (ja)
CN (1) CN110706689A (ja)

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP7159655B2 (ja) * 2018-07-09 2022-10-25 富士フイルムビジネスイノベーション株式会社 感情推定システムおよびプログラム

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2003099084A (ja) 2001-07-13 2003-04-04 Sony France Sa 音声による感情合成方法及び装置
WO2008032787A1 (fr) 2006-09-13 2008-03-20 Nippon Telegraph And Telephone Corporation ProcÉDÉ de dÉtection de sensations, dispositif de dÉtection de sensations, programme de dÉtection de sensations contenant le procÉDÉ, et support d'enregistrement contenant le programme
JP2017111760A (ja) 2015-12-18 2017-06-22 カシオ計算機株式会社 感情推定器生成方法、感情推定器生成装置、感情推定方法、感情推定装置及びプログラム

Family Cites Families (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2007148493A1 (ja) 2006-06-23 2007-12-27 Panasonic Corporation 感情認識装置
CN1975856B (zh) * 2006-10-30 2011-11-09 邹采荣 一种基于支持向量机的语音情感识别方法
CN101930735B (zh) * 2009-06-23 2012-11-21 富士通株式会社 语音情感识别设备和进行语音情感识别的方法
US8756061B2 (en) * 2011-04-01 2014-06-17 Sony Computer Entertainment Inc. Speech syllable/vowel/phone boundary detection using auditory attention cues
US10237399B1 (en) * 2014-04-01 2019-03-19 Securus Technologies, Inc. Identical conversation detection method and apparatus
US9621713B1 (en) * 2014-04-01 2017-04-11 Securus Technologies, Inc. Identical conversation detection method and apparatus
US20190279644A1 (en) * 2016-09-14 2019-09-12 Nec Corporation Speech processing device, speech processing method, and recording medium
WO2018124584A1 (ko) * 2016-12-28 2018-07-05 삼성전자 주식회사 개인 안전 장치 및 그 동작방법
JP6845489B2 (ja) * 2017-03-07 2021-03-17 日本電気株式会社 音声処理装置、音声処理方法、および音声処理プログラム
JP7159655B2 (ja) * 2018-07-09 2022-10-25 富士フイルムビジネスイノベーション株式会社 感情推定システムおよびプログラム

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2003099084A (ja) 2001-07-13 2003-04-04 Sony France Sa 音声による感情合成方法及び装置
WO2008032787A1 (fr) 2006-09-13 2008-03-20 Nippon Telegraph And Telephone Corporation ProcÉDÉ de dÉtection de sensations, dispositif de dÉtection de sensations, programme de dÉtection de sensations contenant le procÉDÉ, et support d'enregistrement contenant le programme
JP2017111760A (ja) 2015-12-18 2017-06-22 カシオ計算機株式会社 感情推定器生成方法、感情推定器生成装置、感情推定方法、感情推定装置及びプログラム

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
Shashidhar Koolagudi G, et al.,Contribution of Telugu Vowels in Identifying Emotions,2015 Eighth International Conference on Advances in Pattern Recognition,IEEE,2015年03月02日,p.1-6

Also Published As

Publication number Publication date
CN110706689A (zh) 2020-01-17
US20200013428A1 (en) 2020-01-09
JP2020008730A (ja) 2020-01-16
US11355140B2 (en) 2022-06-07

Similar Documents

Publication Publication Date Title
US9536525B2 (en) Speaker indexing device and speaker indexing method
JP4911034B2 (ja) 音声判別システム、音声判別方法及び音声判別用プログラム
Zelinka et al. Impact of vocal effort variability on automatic speech recognition
JP4322785B2 (ja) 音声認識装置、音声認識方法および音声認識プログラム
JP7342915B2 (ja) 音声処理装置、音声処理方法、およびプログラム
Origlia et al. Continuous emotion recognition with phonetic syllables
CN106875936B (zh) 语音识别方法及装置
Martinez et al. Prosodic features and formant modeling for an ivector-based language recognition system
JP3006677B2 (ja) 音声認識装置
JP2017111760A (ja) 感情推定器生成方法、感情推定器生成装置、感情推定方法、感情推定装置及びプログラム
JP5050698B2 (ja) 音声処理装置およびプログラム
JP4353202B2 (ja) 韻律識別装置及び方法、並びに音声認識装置及び方法
JP5382780B2 (ja) 発話意図情報検出装置及びコンピュータプログラム
JP2006171750A (ja) 音声認識のための特徴ベクトル抽出方法
JP7159655B2 (ja) 感情推定システムおよびプログラム
Stasiak et al. Fundamental frequency extraction in speech emotion recognition
KR20080052248A (ko) 고속 음성 인식 방법 및 시스템
KR100744288B1 (ko) 음성 신호에서 음소를 분절하는 방법 및 그 시스템
JP2001312293A (ja) 音声認識方法およびその装置、並びにコンピュータ読み取り可能な記憶媒体
Grewal et al. Isolated word recognition system for English language
Laleye et al. Automatic text-independent syllable segmentation using singularity exponents and rényi entropy
Laleye et al. Automatic boundary detection based on entropy measures for text-independent syllable segmentation
Bhardwaj et al. A Study of Methods Involved In Voice Emotion Recognition
Tripathi et al. Robust vowel region detection method for multimode speech
Khan et al. detection of questions in Arabic audio monologues using prosodic features

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20210621

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20220311

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20220323

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20220523

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20220913

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20220926

R150 Certificate of patent or registration of utility model

Ref document number: 7159655

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150