Nothing Special   »   [go: up one dir, main page]

JPWO2017130486A1 - 情報処理装置、情報処理方法およびプログラム - Google Patents

情報処理装置、情報処理方法およびプログラム Download PDF

Info

Publication number
JPWO2017130486A1
JPWO2017130486A1 JP2017563687A JP2017563687A JPWO2017130486A1 JP WO2017130486 A1 JPWO2017130486 A1 JP WO2017130486A1 JP 2017563687 A JP2017563687 A JP 2017563687A JP 2017563687 A JP2017563687 A JP 2017563687A JP WO2017130486 A1 JPWO2017130486 A1 JP WO2017130486A1
Authority
JP
Japan
Prior art keywords
information
user
text
voice
output
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2017563687A
Other languages
English (en)
Inventor
祐平 滝
祐平 滝
真一 河野
真一 河野
邦仁 澤井
邦仁 澤井
佑輔 中川
佑輔 中川
亜由美 加藤
亜由美 加藤
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Sony Corp
Original Assignee
Sony Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Sony Corp filed Critical Sony Corp
Publication of JPWO2017130486A1 publication Critical patent/JPWO2017130486A1/ja
Pending legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L15/00Speech recognition
    • G10L15/22Procedures used during a speech recognition process, e.g. man-machine dialogue
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L13/00Speech synthesis; Text to speech systems
    • G10L13/02Methods for producing synthetic speech; Speech synthesisers
    • G10L13/033Voice editing, e.g. manipulating the voice of the synthesiser
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0481Interaction techniques based on graphical user interfaces [GUI] based on specific properties of the displayed interaction object or a metaphor-based environment, e.g. interaction with desktop elements like windows or icons, or assisted by a cursor's changing behaviour or appearance
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0484Interaction techniques based on graphical user interfaces [GUI] for the control of specific functions or operations, e.g. selecting or manipulating an object, an image or a displayed text element, setting a parameter value or selecting a range
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/16Sound input; Sound output
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/16Sound input; Sound output
    • G06F3/167Audio in a user interface, e.g. using voice commands for navigating, audio feedback
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L15/00Speech recognition
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L13/00Speech synthesis; Text to speech systems
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L15/00Speech recognition
    • G10L15/22Procedures used during a speech recognition process, e.g. man-machine dialogue
    • G10L2015/221Announcement of recognition results
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L15/00Speech recognition
    • G10L15/22Procedures used during a speech recognition process, e.g. man-machine dialogue
    • G10L2015/225Feedback of the input speech

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Human Computer Interaction (AREA)
  • Physics & Mathematics (AREA)
  • Health & Medical Sciences (AREA)
  • Audiology, Speech & Language Pathology (AREA)
  • General Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Acoustics & Sound (AREA)
  • General Physics & Mathematics (AREA)
  • Computational Linguistics (AREA)
  • General Health & Medical Sciences (AREA)
  • User Interface Of Digital Computer (AREA)

Abstract

【課題】音声認識処理結果を聴くユーザに対して音声認識処理の精度を把握させることが可能な技術が提供されることが望まれる。【解決手段】集音に基づく音情報に対する音声認識処理の精度に関する情報を取得する情報取得部と、前記音声認識処理の精度に関する情報に基づいて、音声認識処理結果の音声出力態様を制御する出力制御部と、を備える、情報処理装置が提供される。【選択図】図1

Description

本開示は、情報処理装置、情報処理方法およびプログラムに関する。
近年、マイクによって集音された音情報に対して音声認識処理を行うことによって音情報から音声認識処理結果を得る技術が存在する(例えば、特許文献1参照)。例えば、音声認識処理によって得られた音声認識処理結果は、所定の音声出力態様によって音声出力装置によって出力される。
特開2000−285063号公報
しかし、ユーザは音声認識処理結果を聴くだけでは、音声認識処理がどのような精度で行われたかを把握するのが困難である。そこで、音声認識処理結果を聴くユーザに対して音声認識処理の精度を把握させることが可能な技術が提供されることが望まれる。
本開示によれば、集音に基づく音情報に対する音声認識処理の精度に関する情報を取得する情報取得部と、前記音声認識処理の精度に関する情報に基づいて、音声認識処理結果の音声出力態様を制御する出力制御部と、を備える、情報処理装置が提供される。
本開示によれば、集音に基づく音情報に対する音声認識処理の精度に関する情報を取得することと、プロセッサにより、前記音声認識処理の精度に関する情報に基づいて、音声認識処理結果の音声出力態様を制御することと、を含む、情報処理方法が提供される。
本開示によれば、コンピュータを、集音に基づく音情報に対する音声認識処理の精度に関する情報を取得する情報取得部と、前記音声認識処理の精度に関する情報に基づいて、音声認識処理結果の音声出力態様を制御する出力制御部と、を備える情報処理装置として機能させるためのプログラムが提供される。
以上説明したように本開示によれば、音声認識処理結果を聴くユーザに対して音声認識処理の精度を把握させることが可能な技術が提供される。なお、上記の効果は必ずしも限定的なものではなく、上記の効果とともに、または上記の効果に代えて、本明細書に示されたいずれかの効果、または本明細書から把握され得る他の効果が奏されてもよい。
本開示の一実施形態に係る情報処理システムの機能構成例を示すブロック図である。 同実施形態に係る通信システムの構成例を示す図である。 情報処理システムの概要を説明するための図である。 ノイズ音量と発話音量とに応じた音声出力速度の例を示す図である。 発話長さと発話音量とに応じた音声出力速度の例を示す図である。 信頼度と発話音量とに応じた音声出力速度の例を示す図である。 ノイズ音量と発話音量とに応じたPrefixの有無の例を示す図である。 発話長さと発話音量とに応じたPrefixの有無の例を示す図である。 信頼度と発話音量とに応じた音声出力速度の例を示す図である。 テキストの量と音声出力速度との関係の例を示す図である。 テキストのフォントサイズと視距離とに応じた音声出力の有無の例を示す図である。 視線滞留の有無に応じた音声出力の有無の例を示す図である。 入力開始トリガが検出された場合に入力モードが開始される例の概要について説明するための図である。 音声認識処理結果が得られた後に入力モードの開始が行われる例の第一の概要について説明するための図である。 音声認識処理結果が得られた後に入力モードの切り替えが行われる例の第二の概要について説明するための図である。 テキスト入力モードの後に記号入力モードが起動される例について説明するための図である。 テキスト入力モードの後に記号入力モードおよびコマンド入力モードが起動される例について説明するための図である。 最初にテキスト入力モードまたは記号入力モードが起動される例について説明するための図である。 最初にテキスト入力モードまたは記号入力モードが起動される例について説明するための図である。 過去に送受信したメッセージの内容に基づいて、記号入力モードを自動的に起動する例について説明するための図である。 過去に送受信したメッセージの内容に基づいて、記号入力モードを自動的に起動しない例について説明するための図である。 コントローラの操作頻度に基づいて、コマンド入力モードを自動的に起動するか否かを制御する例について説明するための図である。 ユーザの感情情報に基づいて、記号入力モードを自動的に起動するか否かを制御する例について説明するための図である。 発話画面の変形例を示す図である。 ユーザの発話に基づいてテキスト入力がなされている場合における発話画面の例を示す図である。 ユーザの発話に基づいて記号入力がなされている場合における発話画面の例を示す図である。 情報処理システムのハードウェア構成例を示すブロック図である。
以下に添付図面を参照しながら、本開示の好適な実施の形態について詳細に説明する。なお、本明細書及び図面において、実質的に同一の機能構成を有する構成要素については、同一の符号を付することにより重複説明を省略する。
また、本明細書および図面において、実質的に同一の機能構成を有する複数の構成要素を、同一の符号の後に異なる数字を付して区別する場合もある。ただし、実質的に同一の機能構成を有する複数の構成要素の各々を特に区別する必要がない場合、同一符号のみを付する。
なお、説明は以下の順序で行うものとする。
1.本開示の実施形態
1.1.システム構成例
1.2.機能構成例
1.3.情報処理システムの機能詳細
1.4.ハードウェア構成例
2.むすび
<1.本開示の実施形態>
[1.1.システム構成例]
まず、図面を参照しながら本開示の一実施形態に係る通信システムの構成例について説明する。図2は、本開示の一実施形態に係る通信システムの構成例を示す図である。図2に示したように、本実施形態に係る通信システムは、情報処理システム10−1および情報処理システム10−2を備える。情報処理システム10−1および情報処理システム10−2それぞれは、画像入力部110、操作入力部115、生体情報入力部118、集音部120、表示部130、音出力部150および情報処理装置(以下、「制御部」とも言う。)140を有している。
情報処理システム10−1における情報処理装置140と情報処理システム10−2における情報処理装置140とは、通信ネットワーク931を介して通信を行うことが可能である。また、情報処理システム10において、画像入力部110、集音部120および音出力部150は、表示部130の枠に設けられているが、画像入力部110、集音部120および音出力部150が設けられる位置は限定されない。画像入力部110、集音部120および音出力部150は、表示部130における枠以外の位置に設けられていてもよいし、表示部130とは異なる位置(例えば、操作入力部115など)に設けられ、集音部120によって集音された音情報が情報処理装置140に送信されてもよい。例えば、集音部120および音出力部150は、表示部130などからは独立した機器(例えば、ヘッドセットなど)に設けられていてもよい。
なお、図2に示した例では、情報処理装置140は、ゲーム機であるが、情報処理装置140の形態はゲーム機に限定されない。例えば、情報処理装置140は、スマートフォンであってもよいし、携帯電話であってもよいし、タブレット端末であってもよいし、PC(Personal Computer)であってもよい。また、図2に示した例では、表示部130の形態はテレビジョン装置であるが、表示部130の形態はテレビジョン装置に限定されない。なお、以下の説明において、音声(voiceまたはspeech)と音(sound)とは区別して用いられる。
以上、本実施形態に係る通信システムの構成例について説明した。
[1.2.機能構成例]
続いて、本実施形態に係る情報処理システム10の機能構成例について説明する。図1は、本実施形態に係る情報処理システム10の機能構成例を示すブロック図である。図1に示したように、情報処理システム10は、画像入力部110と、操作入力部115と、生体情報入力部118と、集音部120と、通信部125と、表示部130と、音出力部150と、制御部140とを備える。
画像入力部110は、画像を入力する機能を有する。例えば、画像入力部110はカメラを含んでおり、カメラによって撮像された画像を入力する。画像入力部110に含まれるカメラの数は1以上であれば特に限定されない。そして、画像入力部110に含まれる1以上のカメラそれぞれが設けられる位置も特に限定されない。また、1以上のカメラには、単眼カメラが含まれてもよいし、ステレオカメラが含まれてもよい。
操作入力部115は、ユーザの操作を入力する機能を有する。例えば、操作入力部115は、ゲーム機のコントローラを含んでよい。また、操作入力部115はユーザの操作を入力する機能を有していればよいため、タッチパネルを含んでもよい。タッチパネルが採用する方式は特に限定されず、静電容量方式であってもよいし、抵抗膜方式であってもよいし、赤外線方式であってもよいし、超音波方式であってもよい。また、操作入力部115は、カメラを含んでもよい。
生体情報入力部118は、ユーザの生体情報を入力する機能を有する。例えば、生体情報入力部118は、圧力センサを含んでいれば、圧力センサによってユーザによるコントローラの把持圧力を生体情報として入力することが可能である。また、生体情報入力部118は、心拍センサを含んでいれば、心拍センサによってユーザの心拍を生体情報として入力することが可能である。また、生体情報入力部118は、発汗センサを含んでいれば、発汗センサによってユーザの発汗を生体情報として入力することが可能である。なお、本実施形態では、生体情報入力部118がゲーム機のコントローラに設けられている場合を主に説明するが、生体情報入力部118は、ウェアラブルデバイスに設けられていてもよい。
集音部120は、集音によって音情報を得る機能を有する。集音部120は、図2を参照しながら説明したように、表示部130の枠に設けられていてよいが、表示部130における枠以外の位置に設けられていてもよいし、表示部130とは異なる位置(例えば、操作入力部115など)に設けられていてもよい。集音部120に含まれるマイクロフォンの数は1以上であれば特に限定されない。また、集音部120に含まれる1以上のマイクロフォンそれぞれが設けられる位置も特に限定されない。
ただし、集音部120が、複数のマイクロフォンを含んでいれば、複数のマイクロフォンそれぞれによる集音によって得られた音情報に基づいて音の到来方向が推定され得る。あるいは、集音部120が指向性を有するマイクロフォンを含んでいれば、指向性を有するマイクロフォンによる集音によって得られた音情報に基づいて音の到来方向が推定され得る。
制御部140は、情報処理システム10の各部の制御を実行する。図1に示したように、制御部140は、情報取得部141と、音声認識部142と、出力制御部143と、出力部144とを備える。これらの各機能ブロックについての詳細は、後に説明する。なお、制御部140は、例えば、CPU(Central Processing Unit;中央演算処理装置)などで構成されていてよい。情報処理装置140がCPUなどといった処理装置によって構成される場合、かかる処理装置は、電子回路によって構成されてよい。
通信部125は、他の情報処理システム10との間で通信を行う機能を有する。例えば、通信部125は、通信インターフェースにより構成される。例えば、通信部125は、通信ネットワーク931(図2)を介して、他の情報処理システム10との間で通信を行うことが可能である。
表示部130は、画面を表示する機能を有する。例えば、表示部130は、液晶ディスプレイであってもよいし、有機EL(Electro−Luminescence)ディスプレイであってもよいし、HMD(Head Mount Display)であってもよい。しかし、表示部130は、画面を表示する機能を有すれば、他の形態のディスプレイであってもよい。
音出力部150は、音情報を出力する機能を有する。例えば、音出力部150は、スピーカであってもよいし、ヘッドホンであってもよいし、イヤホンであってもよい。しかし、音出力部150は、音情報を出力する機能を有すれば、他の形態の音出力装置であってもよい。
以上、本実施形態に係る情報処理システム10の機能構成例について説明した。
[1.3.情報処理システムの機能詳細]
続いて、情報処理システム10の機能詳細について説明する。図3は、情報処理システム10の概要を説明するための図である。図3を参照すると、制御部140によって再生された映像が表示される映像表示画面131が表示部130に存在する。ここでは、制御部140がゲーム機である場合を想定しているため、映像表示画面131に表示される映像は、ゲームアプリケーションに含まれる映像である。
また、図3に示すように、情報処理システム10−1のユーザU1が情報処理システム10−2のユーザとの間でチャットを行うためのチャットアプリケーションが制御部140によって実行され、表示部130によってその実行画面がチャット画面134として表示される。具体的には、ユーザU1の発話を含む音情報に対する音声認識処理結果と情報処理システム10−2のユーザの発話を含む音情報に対する音声認識処理結果とが、チャット画面134に表示される。
ここで、音声認識処理結果は、音情報に対して音声認識処理が施されることによって得られる1文字データまたは複数の文字が並べられた文字列データであってよい。あるいは、音声認識処理結果は、このようにして得られる1文字データまたは文字列データのシステムによる読み上げ結果であってもよい。以下では、音声認識処理結果の例として「テキスト」および「テキストの読み上げ結果」を利用して説明する。
一方、情報処理システム10−1の集音部120によって集音された音情報に対する音声認識処理結果の例として、テキストが表示される認識結果画面133も表示部130に存在する。認識結果画面133は発話画面135に含まれており、発話画面135には、音声認識処理を開始するための音声認識処理開始ボタン132が存在する。本実施形態では、音声認識処理開始ボタン132がGUI(Graphical User Interface)ボタンである例を主に説明するが、音声認識処理開始ボタン132は、ハードウェアボタン(例えば、操作入力部115に含まれるハードウェアボタン)であってもよい。ユーザU1が音声認識処理開始ボタン132を選択するための操作(以下、「認識開始操作」とも言う。)を行うと、認識開始操作が操作入力部115によって入力され、情報取得部141は、集音部120によって集音された音情報を取得し、音声認識部142は、音情報に対する音声認識処理を開始する。このとき、ユーザU1は発話を開始する。
なお、本実施形態においては、集音部120によって集音された信号を音情報と言うが、音情報は、集音部120によって集音された信号に対して何らかの信号処理が施されて得られた信号であってもよい。そして、音声認識部142によって音声認識処理が実行されることによってテキストTx−10が得られると、出力部144は、テキストTx−10を表示部130に出力する。表示部130は、出力部144によって出力されたテキストTx−10を認識結果画面133に表示する。
図3に示した例では、ユーザU1が「Let's play game.」と発話したのに対し、認識結果画面133には、情報処理システム10−1の集音部120によって集音された音情報に対する音声認識処理結果の例として、テキストTx−10「Et's play game.」が表示されている。また、出力制御部143によって、テキストTx−10「Et's play game.」の読み上げがなされ、テキストTx−10の読み上げ結果が音出力部150によって出力されている。
また、認識結果画面133には、音声認識処理を終了するための音声認識処理終了ボタン136が表示されている。ユーザU1が音声認識処理終了ボタン136を選択するための操作(以下、「認識終了操作」とも言う。)を行うと、認識終了操作が操作入力部115によって入力され、音声認識部142は、音声認識処理を終了し、出力制御部143は、テキストTx−10をチャット画面134に追加させる。また、テキストTx−10は、情報処理システム10−2における制御部140に送信され、情報処理システム10−2におけるチャット画面に表示される。
[1.3.1.音声認識処理の精度の把握]
ここで、ユーザU1はテキストTx−10「Et's play game.」の読み上げ結果を聴くだけでは、音声認識処理がどのような精度で行われたかを把握するのが困難である。具体的には、テキストTx−10「Et's play game.」はユーザU1の発話内容である「Let's play game.」と異なってしまっているが、ユーザU1は音声認識処理の精度の低さを把握するのが困難である。特に、ユーザU1が映像表示画面131に集中しているときには、音声認識処理が正常に行われたか否かを確認する作業は煩わしい。そこで、音声認識処理結果を聴くユーザU1に対して音声認識処理の精度を把握させることが可能な技術が提供されることが望まれる。
具体的には、本開示の実施形態においては、情報取得部141は、音情報に対する音声認識処理の精度に関する情報を取得する。また、出力制御部143は、テキストTx−10の読み上げを行い、音声認識処理の精度に関する情報に基づいて、テキストTx−10の読み上げ結果の音声出力態様を制御する。そして、出力部144は、制御された音声出力態様による読み上げ結果を音出力部150に出力する。音出力部150は、出力部144から出力された読み上げ結果を出力する。
このようにして、本開示の実施形態においては、音声認識処理の精度に関する情報に基づいて、テキストTx−10の読み上げ結果の音声出力態様が制御される。かかる構成によれば、テキストTx−10の読み上げ結果の音声出力態様によって、音声認識処理の精度をユーザU1に把握させることが可能となる。
なお、以下では、音声出力態様の制御が文ごとにされる場合を例として説明するが、音声出力態様の制御の単位は、特に限定されない。例えば、音声出力態様の制御は、単語ごとにされてもよいし、句ごとにされてもよい。
ここで、音声認識処理の精度に関する情報は特に限定されない。例えば、音声認識処理の精度に関する情報は、集音部120によって集音された音情報に含まれるユーザU1の発話に関する情報を含んでもよい。ユーザU1の発話に関する情報は、集音部120によって集音された音情報に含まれるユーザU1の発話音量、ユーザU1の発話の明瞭さ、および、ユーザU1の発話長さのうち少なくともいずれか一つを含んでもよい。
あるいは、音声認識処理の精度に関する情報は、集音部120によって集音された音情報に含まれるユーザU1の発話に対応するノイズに関する情報を含んでもよい。ノイズに関する情報は、集音部120によって集音された音情報に含まれるノイズの音量を含んでもよい。
また、テキストTx−10の読み上げ結果の音声出力態様も特に限定されない。例えば、テキストTx−10の読み上げ結果の音声出力態様は、テキストTx−10の読み上げ結果の音出力部150による音声出力速度を含んでよい。以下、具体的な例を挙げて説明する。
図4は、ノイズ音量と発話音量とに応じた音声出力速度の例を示す図である。ここで、ノイズ音量がノイズ音量判定用の閾値より小さい場合と比較して、ノイズ音量がノイズ音量判定用の閾値より小さい場合には、音声認識処理の精度がより低いと考えられる。そこで、かかる場合には、出力制御部143は、音声出力速度をより小さくすることによって、ユーザU1にテキストTx−10の読み上げ結果を把握させやすくするとよい。一方、ノイズ音量がノイズ音量判定用の閾値より大きい場合には、出力制御部143は、音声出力速度をより大きくすることによって、テキストTx−10の読み上げをより早く終わらせるのがよい。
また、発話音量が発話音量判定用の閾値より大きい場合と比較して、発話音量が発話音量判定用の閾値より小さい場合には、音声認識処理の精度が低下すると考えられる。そこで、かかる場合には、出力制御部143は、音声出力速度をより小さくすることによって、ユーザU1にテキストTx−10の読み上げ結果を把握させやすくするとよい。一方、発話音量が発話音量判定用の閾値より大きい場合には、出力制御部143は、音声出力速度をより大きくすることによって、テキストTx−10の読み上げをより早く終わらせるのがよい。
図4に示すように、発話音量が所定の区間において(図4に示した例では、発話音量が発話音量判定用の閾値よりも大きい区間において)、ノイズ音量がノイズ音量判定用の閾値より小さい場合と比較して、ノイズ音量がノイズ音量判定用の閾値より大きい場合には、音声認識処理の精度が低下すると考えられる。そこで、かかる場合には、出力制御部143は、音声出力速度をより小さくすることによって、ユーザU1にテキストTx−10の読み上げ結果を把握させやすくするとよい。
図5は、発話長さと発話音量とに応じた音声出力速度の例を示す図である。ここで、発話長さが発話長さ判定用の閾値より長い場合と比較して、発話長さが発話長さ判定用の閾値より短い場合には、音声認識処理の精度が低下すると考えられる。そこで、かかる場合には、出力制御部143は、音声出力速度をより小さくすることによって、ユーザU1にテキストTx−10の読み上げ結果を把握させやすくするとよい。一方、発話音量が発話音量判定用の閾値より大きい場合には、出力制御部143は、音声出力速度をより大きくすることによって、テキストTx−10の読み上げをより早く終わらせるのがよい。
図5に示すように、発話音量が所定の区間において(図5に示した例では、発話音量が発話音量判定用の閾値よりも大きい区間において)、発話長さが発話長さ判定用の閾値より長い場合と比較して、発話長さが発話長さ判定用の閾値より短い場合には、音声認識処理の精度が低下すると考えられる。そこで、かかる場合には、出力制御部143は、音声出力速度をより小さくすることによって、ユーザU1にテキストTx−10の読み上げ結果を把握させやすくするとよい。
なお、図示されていないが、発話の明瞭さについても発話音量および発話長さと同様に扱われてよい。すなわち、発話の明瞭さが発話明瞭さ判定用の閾値より大きい場合と比較して、発話の明瞭さが発話明瞭さ判定用の閾値より小さい場合には、音声認識処理の精度が低下すると考えられる。そこで、かかる場合には、出力制御部143は、音声出力速度をより小さくすることによって、ユーザU1にテキストTx−10の読み上げ結果を把握させやすくするとよい。一方、発話の明瞭さが発話明瞭さ判定用の閾値より大きい場合には、出力制御部143は、音声出力速度をより大きくすることによって、テキストTx−10の読み上げをより早く終わらせるのがよい。
また、音声認識処理の精度に関する情報は、音声認識処理結果の信頼度を含んでもよい。例えば、この信頼度は、音声認識部142から取得される。図6は、信頼度と発話音量とに応じた音声出力速度の例を示す図である。図6に示すように、信頼度が信頼度判定用の閾値より高い場合と比較して、信頼度が信頼度判定用の閾値より低い場合には、音声認識処理の精度が低下すると考えられる。そこで、かかる場合には、出力制御部143は、音声出力速度をより小さくすることによって、ユーザU1にテキストTx−10の読み上げ結果を把握させやすくするとよい。一方、信頼度が信頼度判定用の閾値より大きい場合には、出力制御部143は、音声出力速度をより大きくすることによって、テキストTx−10の読み上げをより早く終わらせるのがよい。
また、図4〜図6に示した例では、出力制御部143による通常のテキストTx−10の読み上げ速度を基準として、その読み上げ速度の何倍であるかによって、音声出力速度が示されている。しかし、基準となる読み上げ速度はこれに限定されない。例えば、基準となる読み上げ速度は、ユーザU1の発話速度が考慮された読み上げ速度であってもよい。あるいは、基準となる読み上げ速度は、ユーザU1がチャットによって他のユーザとやり取りをした頻度が考慮された読み上げ速度であってもよい。また、音声出力速度を基準となる読み上げ速度の何倍にするかも限定されない。
以上の説明においては、音声出力態様の例として、音声出力速度を利用したが、音声出力態様は、かかる例に限定されない。例えば、音声出力態様は、テキストTx−10の読み上げ結果の音声出力前に出力される出力音声(以下、「Prefix」とも言う。)の種類を含んでもよい。すなわち、出力制御部143は、音声処理結果の精度に関する情報に基づいて、Prefixの種類を制御してもよい。Prefixの種類は、特に限定されず、ユーザU1の注意を惹くために発せられる単語(例えば、チェック、要確認、警告など)または音(例えば、効果音の種類、効果音が発せられる回数など)であってもよい。
なお、以下の説明においては、Prefixの種類の例として、テキストTx−10の読み上げ結果に対してPrefixが付される場合(中身のあるPrefixが付される場合)とテキストTx−10の読み上げ結果に対してPrefixが付されない場合(中身のないPrefixが付される場合)との二つの場合を想定する。
図7は、ノイズ音量と発話音量とに応じたPrefixの有無の例を示す図である。ここで、上記したように、ノイズ音量がノイズ音量判定用の閾値より小さい場合と比較して、ノイズ音量がノイズ音量判定用の閾値より大きい場合には、音声認識処理の精度が低下すると考えられる。そこで、かかる場合には、出力制御部143は、テキストTx−10の読み上げ結果に対してPrefixを付することによって、ユーザU1にテキストTx−10の読み上げ結果を把握させやすくするとよい。一方、ノイズ音量がノイズ音量判定用の閾値より小さい場合には、出力制御部143は、テキストTx−10の読み上げ結果に対してPrefixを付さないことによって、テキストTx−10の読み上げをより早く終わらせるのがよい。
一方、発話音量が発話音量判定用の閾値より大きい場合と比較して、発話音量が発話音量判定用の閾値より小さい場合には、音声認識処理の精度が低下すると考えられる。そこで、かかる場合には、出力制御部143は、テキストTx−10の読み上げ結果に対してPrefixを付することによって、ユーザU1にテキストTx−10の読み上げ結果を把握させやすくするとよい。一方、発話音量が発話音量判定用の閾値より大きい場合には、出力制御部143は、テキストTx−10の読み上げ結果に対してPrefixを付さないことによって、テキストTx−10の読み上げをより早く終わらせるのがよい。
図7に示すように、発話音量が所定の区間において(図7に示した例では、発話音量が発話音量判定用の閾値よりも大きい区間において)、ノイズ音量がノイズ音量判定用の閾値より小さい場合と比較して、ノイズ音量がノイズ音量判定用の閾値より大きい場合には、音声認識処理の精度が低下すると考えられる。そこで、かかる場合には、出力制御部143は、音声出力速度をより小さくすることによって、ユーザU1にテキストTx−10の読み上げ結果を把握させやすくするとよい。
図8は、発話長さと発話音量とに応じたPrefixの有無の例を示す図である。ここで、上記したように、発話長さが発話長さ判定用の閾値より長い場合と比較して、発話長さが発話長さ判定用の閾値より短い場合には、音声認識処理の精度が低下すると考えられる。そこで、かかる場合には、出力制御部143は、テキストTx−10の読み上げ結果に対してPrefixを付することによって、ユーザU1にテキストTx−10の読み上げ結果を把握させやすくするとよい。一方、発話長さが発話長さ判定用の閾値より長い場合には、出力制御部143は、テキストTx−10の読み上げ結果に対してPrefixを付さないことによって、テキストTx−10の読み上げをより早く終わらせるのがよい。
図8に示すように、発話音量が所定の区間において(図8に示した例では、発話音量が発話音量判定用の閾値よりも大きい区間において)、発話長さが発話長さ判定用の閾値より長い場合と比較して、発話長さが発話長さ判定用の閾値より短い場合には、音声認識処理の精度が低下すると考えられる。そこで、かかる場合には、出力制御部143は、テキストTx−10の読み上げ結果に対してPrefixを付することによって、ユーザU1にテキストTx−10の読み上げ結果を把握させやすくするとよい。
なお、図示されていないが、発話の明瞭さについても発話音量および発話長さと同様に扱われてよい。すなわち、上記したように、発話の明瞭さが発話明瞭さ判定用の閾値より大きい場合と比較して、発話の明瞭さが発話明瞭さ判定用の閾値より小さい場合には、音声認識処理の精度が低下すると考えられる。そこで、かかる場合には、出力制御部143は、テキストTx−10の読み上げ結果に対してPrefixを付することによって、ユーザU1にテキストTx−10の読み上げ結果を把握させやすくするとよい。一方、発話の明瞭さが発話明瞭さ判定用の閾値より大きい場合には、出力制御部143は、テキストTx−10の読み上げ結果に対してPrefixを付さないことによって、テキストTx−10の読み上げをより早く終わらせるのがよい。
また、音声認識処理の精度に関する情報は、音声認識処理結果の信頼度を含んでもよい。図9は、信頼度と発話音量とに応じた音声出力速度の例を示す図である。図9に示すように、信頼度が信頼度判定用の閾値より高い場合と比較して、信頼度が信頼度判定用の閾値より低い場合には、音声認識処理の精度が低下すると考えられる。そこで、かかる場合には、出力制御部143は、テキストTx−10の読み上げ結果に対してPrefixを付することによって、ユーザU1にテキストTx−10の読み上げ結果を把握させやすくするとよい。一方、信頼度が信頼度判定用の閾値より大きい場合には、出力制御部143は、テキストTx−10の読み上げ結果に対してPrefixを付さないことによって、テキストTx−10の読み上げをより早く終わらせるのがよい。
また、音声認識処理の精度に関する情報は、テキストTx−10の量を含んでもよい。図10は、テキストTx−10の量と音声出力速度との関係の例を示す図である。例えば、テキストTx−10の量が所定のテキスト量閾値よりも小さい場合と比較して、テキストTx−10の量が所定のテキスト量閾値よりも大きい場合、読み上げに多くの時間を要するために、テキストTx−10が正常であるか否かをユーザU1が判断するのが困難になってしまうことが想定される。そこで、かかる場合には、図10に示すように、出力制御部143は、テキストTx−10の量が増加するほど、音声出力速度を大きくすることによって、読み上げに要する時間を短縮するとよい。
図10に示した例では、出力制御部143による通常のテキストTx−10の読み上げ速度を基準として、その読み上げ速度の何倍であるかによって、音声出力速度が示されている。しかし、基準となる読み上げ速度はこれに限定されない。例えば、基準となる読み上げ速度は、ユーザU1の発話速度が考慮された読み上げ速度であってもよい。あるいは、基準となる読み上げ速度は、ユーザU1がチャットによってやり取りをした頻度が考慮された読み上げ速度であってもよい。また、音声出力速度を基準となる読み上げ速度の何倍にするかも限定されない。
また、ユーザU1がチャットによって他のユーザとやり取りをした頻度によって、ユーザU1による発話の熟練度が変化し、発話の熟練度の変化に従って、音声認識処理の精度も変化することが想定される。そこで、出力制御部143は、ユーザU1がチャットによって他のユーザとやり取りをした頻度(音声認識処理の実行頻度)に基づいて、音声出力態様を制御してもよい。
例えば、出力制御部143は、ユーザU1がチャットによって他のユーザとやり取りをした頻度(音声認識処理の実行頻度)に基づいて、テキストTx−10の読み上げ結果の音声出力速度を制御してもよい。例えば、出力制御部143は、ユーザU1がチャットによって他のユーザとやり取りをした頻度(音声認識処理の実行頻度)が大きいほど、テキストTx−10の読み上げ結果の音声出力速度を小さくしてもよい。
あるいは、出力制御部143は、ユーザU1がチャットによって他のユーザとやり取りをした頻度(音声認識処理の実行頻度)に応じて、Prefixの種類を制御してもよい。例えば、出力制御部143は、ユーザU1がチャットによって他のユーザとやり取りをした頻度(音声認識処理の実行頻度)が実行頻度判定用の閾値よりも小さい場合には、テキストTx−10の読み上げ結果にPrefixを付してもよい。一方、出力制御部143は、ユーザU1がチャットによって他のユーザとやり取りをした頻度(音声認識処理の実行頻度)が実行頻度判定用の閾値よりも大きい場合には、テキストTx−10の読み上げ結果にPrefixを付さなくてもよい。
上記では、音声認識処理の精度に関する情報に基づいて、テキストTx−10の読み上げ結果の音声出力態様を制御する例を説明した。しかし、出力制御部143は、テキストTx−10を利用するコンテンツの種類に基づいて、音声出力態様を制御してもよい。例えば、テキストTx−10を利用するコンテンツがWebコンテンツである場合には、テキストTx−10を利用するコンテンツがチャットアプリケーションである場合と比較して、テキストTx−10の読み上げ結果がより強く必要とされる可能性があるため(例えば、WebコンテンツにおいてテキストTx−10に応じた検索がされる場合には、音声認識処理の精度の高さが要求されるため)、出力制御部143は、テキストTx−10の読み上げ結果の音声出力速度をより小さくしてもよい。
また、出力制御部143は、ユーザU1に関する情報に基づいて、音声出力態様を制御してもよい。ここで、ユーザU1に関する情報は特に限定されないが、ユーザU1の行動情報、ユーザU1の姿勢情報、ユーザU1による設定情報、ユーザU1の周囲の環境情報、ユーザU1の生体情報およびユーザU1の感情情報のうち少なくともいずれか一つを含んでもよい。なお、以下では、ユーザU1の生体情報およびユーザU1の感情情報が直接用いられるが、ユーザU1の生体情報およびユーザU1の感情情報は、ユーザU1の集中度に一度変換され、ユーザU1の集中度として用いられてもよい。
ここで、ユーザU1の行動情報は特に限定されない。例えば、ユーザU1の位置情報が取得可能な場合には、ユーザU1の行動情報は、ユーザU1の位置情報の解析により得られるユーザU1の行動認識結果(例えば、静止している状態、歩いている状態、走っている状態、階段昇降状態および自動車運転状態など)であってもよいし、ユーザU1の位置情報の解析により得られるユーザU1の移動速度であってもよい。
一例としては、出力制御部143は、ユーザU1が静止している状態および歩いている状態においては、発話が正常に行われ、音声認識処理の精度が高くなることが想定されるため、テキストTx−10の読み上げ結果を出力させなくてもよい。一方、出力制御部143は、ユーザU1が走っている状態においては、発話が正常に行われず、音声認識処理の精度が低くなることが予想されるため、テキストTx−10の読み上げ結果を出力させてもよい。
ユーザU1の姿勢情報は、ユーザU1の身体に加速度センサが取り付けられていれば、加速度センサによって検出された加速度に基づいて取得される。一例として、出力制御部143は、ユーザU1の姿勢が傾いているほど、発話が正常に行われず、音声認識処理の精度が低くなることが予想される。そこで、出力制御部143は、ユーザU1の姿勢が姿勢判定用の傾きよりも傾いている場合には、テキストTx−10の読み上げ結果を出力させてもよい。一方、出力制御部143は、ユーザU1の姿勢が姿勢判定用の傾きよりも傾いていない場合には、テキストTx−10の読み上げ結果を出力させなくてもよい。
ユーザU1の設定情報は、ユーザU1によって所定の音声出力態様変更操作が選択され、操作入力部115によって音声出力態様変更操作が入力されると、この音声出力態様変更操作に基づいて設定される。音声出力態様変更操作は特に限定されないが、例えば、図示しない音声出力態様変更ボタンを選択する操作であってよい。
ユーザU1の周囲の環境情報は、画像入力部110によって入力された画像の解析によって得られてもよいし、集音部120によって集音された音情報の解析によって得られてもよい。例えば、ユーザU1の周囲の環境情報は、ユーザU1の周囲に人が存在するか否かを示す情報であってもよい。そのとき、出力制御部143は、ユーザU1の周囲に人が存在する場合には、ユーザU1の周囲に人が存在しない場合と比較して、テキストTx−10の読み上げを早く終わらせたいとユーザU1が考える可能性があるため、音声出力速度をより大きくするとよい。
また、例えば、ユーザU1の周囲の環境情報は、ユーザU1の周囲の照度であってもよい。そのとき、出力制御部143は、ユーザU1の周囲の照度が照度判定用の閾値よりも低い場合には、テキストTx−10の視認が困難である可能性があるため、テキストTx−10の読み上げ結果を出力させるとよい。一方、出力制御部143は、ユーザU1の周囲の照度が照度判定用の閾値よりも高い場合には、テキストTx−10の視認が可能である可能性があるため、テキストTx−10の読み上げ結果を出力させなくてもよい。
ユーザU1の生体情報はどのようにして得られてもよい。一例として、ユーザU1の生体情報は、生体情報入力部118によって入力されてよい。生体情報入力部118によって入力されるユーザU1の生体情報は特に限定されず、ユーザU1によるコントローラの把持圧力、ユーザU1の発汗およびユーザU1の心拍のうち少なくともいずれか一つを含んでよい。その他、ユーザU1の生体情報は、ユーザU1の体温、呼吸回数、瞬目回数、眼球運動、凝視時間、瞳孔径の大きさ、血圧、脳波、体動、体位、皮膚温度、皮膚電気抵抗、MV(マイクロバイブレーション)、筋電位およびSPO(血中酸素飽和度)のうち少なくともいずれか一つを含んでもよい。
一例としては、出力制御部143は、把持圧力が把持圧力判定用の閾値より小さい場合には、発話が正常に行われ、音声認識処理の精度が高くなることが想定されるため、テキストTx−10の読み上げ結果を出力させなくてもよい。一方、出力制御部143は、把持圧力が把持圧力判定用の閾値より大きい場合には、発話が正常に行われず、音声認識処理の精度が低くなることが想定されるため、テキストTx−10の読み上げ結果を出力させるとよい。
他の一例としては、出力制御部143は、発汗が発汗判定用の閾値より小さい場合には、発話が正常に行われ、音声認識処理の精度が高くなることが想定されるため、テキストTx−10の読み上げ結果を出力させなくてもよい。一方、出力制御部143は、発汗が発汗判定用の閾値より大きい場合には、発話が正常に行われず、音声認識処理の精度が低くなることが想定されるため、テキストTx−10の読み上げ結果を出力させるとよい。
他の一例としては、出力制御部143は、心拍が心拍判定用の閾値より小さい場合には、発話が正常に行われ、音声認識処理の精度が高くなることが想定されるため、テキストTx−10の読み上げ結果を出力させなくてもよい。一方、出力制御部143は、心拍が心拍判定用の閾値より大きい場合には、発話が正常に行われず、音声認識処理の精度が低くなることが想定されるため、テキストTx−10の読み上げ結果を出力させるとよい。
ユーザU1の感情情報はどのようにして得られてもよい。一例として、ユーザU1の感情情報は、出力制御部143によって音情報または入力画像が解析されることによって得られてよい。また、ユーザU1の感情情報は特に限定されず、ユーザU1の喜び、驚き、怒りのうち少なくともいずれか一つを含んでよい。あるいは、ユーザU1の感情情報は、他の感情を含んでもよい。
例えば、出力制御部143は、ユーザU1の感情情報が喜怒哀楽のいずれかを示す場合には、発話が正常に行われず、音声認識処理の精度が低くなることが想定されるため、テキストTx−10の読み上げ結果を出力させるとよい。一方、出力制御部143は、ユーザU1の感情情報が喜怒哀楽のいずれも示さない場合には、発話が正常に行われ、音声認識処理の精度が高くなることが想定されるため、テキストTx−10の読み上げ結果を出力させなくてもよい。
ところで、出力制御部143は、常にテキストTx−10の読み上げ結果を出力部144に出力させる必要はなく、所定の条件が満たされた場合には、テキストTx−10の読み上げ結果が出力部144によって音声出力されないように出力部144を制御してもよい。一方、出力制御部143は、所定の条件が満たされない場合には、テキストTx−10の読み上げ結果が出力部144によって音声出力されるように出力部144を制御してもよい。
ここで、所定の条件は特に限定されない。例えば、所定の条件は、ユーザU1の視線に関する条件、ユーザU1の位置に関する条件、テキストTx−10のフォントサイズ(表示サイズ)、および、テキストTx−10の信頼度に関する条件のうち少なくともいずれか一つを含んでもよい。ユーザU1の位置は、ユーザU1の目の位置であってもよく、認識結果画面133における所定位置までのユーザU1の目の位置からの距離(以下、「視距離」とも言う。)は、画像入力部110によって入力された画像の解析によって得られる。ユーザU1の視線も、画像入力部110によって入力された画像の解析によって得られる。
図11は、テキストTx−10のフォントサイズと視距離とに応じた音声出力の有無の例を示す図である。例えば、テキストTx−10のフォントサイズがフォントサイズ判定用の閾値よりも大きい場合と比較して、テキストTx−10のフォントサイズがフォントサイズ判定用の閾値よりも小さい場合には、音声認識処理の精度がより低いと考えられる。そこで、かかる場合には、出力制御部143は、テキストTx−10の読み上げ結果を出力させるとよい。一方、テキストTx−10のフォントサイズがフォントサイズ判定用の閾値よりも大きい場合には、出力制御部143は、テキストTx−10の読み上げ結果を出力させなくてよい。
また、例えば、認識結果画面133における所定位置までの視距離が所定の距離よりも小さい場合と比較して、認識結果画面133における所定位置までの視距離が所定の距離よりも大きい場合には、ユーザU1がテキストTx−10の読み上げ結果を聴く必要性は低いことが想定される。一方、認識結果画面133における所定位置までの視距離が所定の距離よりも大きい場合には、ユーザU1がテキストTx−10の読み上げ結果を聴く必要性は高いことが想定される。
そこで、出力制御部143は、認識結果画面133における所定位置までの視距離が所定の距離よりも大きい場合、テキストTx−10の読み上げ結果を出力させなくてよい。一方、出力制御部143は、認識結果画面133における所定位置までの視距離が所定の距離より小さい場合、テキストTx−10の読み上げ結果を出力させるとよい。なお、認識結果画面133における所定位置は限定されないが、認識結果画面133の中央位置であってもよい。
図11に示すように、フォントサイズが所定の区間において(図11に示した例では、フォントサイズがフォントサイズ判定用の閾値よりも大きい区間において)、視距離が視距離判定用の閾値より小さい場合と比較して、視距離が視距離判定用の閾値より大きい場合には、音声認識処理の精度が低下すると考えられる。そこで、かかる場合には、出力制御部143は、テキストTx−10の読み上げ結果を出力させることによって、ユーザU1にテキストTx−10の読み上げ結果を把握させるとよい。一方、出力制御部143は、視距離が視距離判定用の閾値より小さい場合には、テキストTx−10の読み上げ結果を出力させなくてよい。
図12は、視線滞留の有無に応じた音声出力の有無の例を示す図である。例えば、認識結果画面133の内部にユーザU1の視線が所定時間を超えて存在している場合、ユーザU1がテキストTx−10の読み上げ結果を聴く必要性は低いことが想定される。一方、認識結果画面133の内部にユーザU1の視線が所定時間を超えて存在しない場合、ユーザU1がテキストTx−10の読み上げ結果を聴く必要性は高いことが想定される。
そこで、図12に示すように、出力制御部143は、認識結果画面133の内部にユーザU1の視線が存在している場合、テキストTx−10の読み上げ結果の出力をしないのがよい。一方、出力制御部143は、認識結果画面133の内部にユーザU1の視線が存在していない場合、テキストTx−10の読み上げ結果を出力させるのがよい。なお、ここでは、認識結果画面133の内部に視線が存在するか否かが判断されたが、認識結果画面133を基準とした所定領域の内部に視線が存在するか否かが判断されてもよい。
また、所定の条件は、ユーザU1によって音声認識処理の再起動を指示するための操作が入力されたという条件、および、テキストTx−10の送信を指示するための操作が入力されたという条件のうち少なくともいずれか一つを含んでもよい。音声認識処理の再起動を指示するための操作は特に限定されないが、音声認識処理開始ボタン132の長押し操作であってよい。また、テキストTx−10の送信を指示するための操作は、上記した認識終了操作であってよい。
以上においては、音声出力態様が、テキストTx−10の読み上げ結果の音声出力速度を含む場合と、テキストTx−10の読み上げ結果の音声出力前に出力される出力音声の種類を含む場合とについて説明した。しかし、音声出力態様はこれらに限定されない。例えば、音声出力態様は、テキストTx−10の読み上げ結果の音声出力の大きさを含んでもよい。
例えば、出力制御部143は、ノイズ音量がノイズ音量判定用の閾値より小さい場合と比較して、ノイズ音量がノイズ音量判定用の閾値より大きい場合には、テキストTx−10の読み上げ結果の音声出力をより大きくすることによって、ユーザU1にテキストTx−10の読み上げ結果を把握させやすくするとよい。一方、出力制御部143は、ノイズ音量がノイズ音量判定用の閾値より大きい場合と比較して、ノイズ音量がノイズ音量判定用の閾値より小さい場合には、テキストTx−10の読み上げ結果の音声出力をより小さくしてもよい。
また、出力制御部143は、発話音量が発話音量判定用の閾値より大きい場合と比較して、発話音量が発話音量判定用の閾値より小さい場合には、テキストTx−10の読み上げ結果の音声出力を大きくすることによって、ユーザU1にテキストTx−10の読み上げ結果を把握させやすくするとよい。一方、出力制御部143は、発話音量が発話音量判定用の閾値より小さい場合と比較して、発話音量が発話音量判定用の閾値より大きい場合には、テキストTx−10の読み上げ結果の音声出力をより小さくしてもよい。
また、出力制御部143は、発話長さが発話長さ判定用の閾値より長い場合と比較して、発話長さが発話長さ判定用の閾値より短い場合には、テキストTx−10の読み上げ結果の音声出力を大きくすることによって、ユーザU1にテキストTx−10の読み上げ結果を把握させやすくするとよい。一方、出力制御部143は、発話長さが発話長さ判定用の閾値より短い場合と比較して、発話長さが発話長さ判定用の閾値より長い場合には、テキストTx−10の読み上げ結果の音声出力をより小さくしてもよい。
また、出力制御部143は、発話の明瞭さが発話明瞭さ判定用の閾値より大きい場合と比較して、発話の明瞭さが発話明瞭さ判定用の閾値より小さい場合には、テキストTx−10の読み上げ結果の音声出力を大きくすることによって、ユーザU1にテキストTx−10の読み上げ結果を把握させやすくするとよい。一方、出力制御部143は、発話の明瞭さが発話明瞭さ判定用の閾値より小さい場合と比較して、発話の明瞭さが発話明瞭さ判定用の閾値より大きい場合には、テキストTx−10の読み上げ結果の音声出力をより小さくしてもよい。
また、出力制御部143は、信頼度が信頼度判定用の閾値より高い場合と比較して、信頼度が信頼度判定用の閾値より低い場合には、テキストTx−10の読み上げ結果の音声出力を大きくすることによって、ユーザU1にテキストTx−10の読み上げ結果を把握させやすくするとよい。一方、出力制御部143は、信頼度が信頼度判定用の閾値より低い場合と比較して、信頼度が信頼度判定用の閾値より高い場合には、テキストTx−10の読み上げ結果の音声出力をより小さくしてもよい。
また、音声出力態様は、テキストTx−10の読み上げ結果の声質を含んでもよい。ここで、テキストTx−10の読み上げ結果の声質はどのように制御されてもよい。一例として、出力制御部143は、制御部140によって実行されているアプリケーション(例えば、ゲームアプリケーション)から出力される音に応じて、テキストTx−10の読み上げ結果の声質を制御してもよい。
以上、テキストTx−10の読み上げ結果を聴くユーザU1に対して音声認識処理の精度を把握させる機能について説明した。
[1.3.2.各種の入力モード]
ところで、上記においては、音声認識処理結果として得られるテキストをそのままの形式で入力する場合について説明した。しかし、ユーザは、音声認識処理の結果として得られるテキストを他の形式に変換してから入力したいと考える場合もあり得る。例えば、ユーザは、音声認識処理の結果として得られるテキストから変換された記号を入力したいと考える場合もあり得る。また、ユーザは、音声認識処理の結果として得られるテキストから変換されたコマンドを入力したいと考える場合もあり得る。
以下では、音声認識処理結果として得られるテキストをそのままの形式で入力するモードを「テキスト入力モード」と称する。また、音声認識処理の結果として得られるテキストから変換された記号を入力するモードを「記号入力モード」と称する。また、音声認識処理の結果として得られるテキストから変換されたコマンドを入力するモードを「コマンド入力モード」と称する。なお、テキスト入力モードにおいては、既に述べたような音声認識処理の精度に関する情報に基づく音声認識処理結果の音声出力態様の制御がなされてもよい。また、記号入力モードおよびコマンド入力モードでは、音声認識処理結果の音声出力は行われてもよいし、行われなくてよい。
このとき、各入力モード(テキスト入力モード、記号入力モードおよびコマンド入力モード)の開始を表示部130によって表示されたオブジェクトの選択などによって行うようにした場合、表示されたオブジェクトにユーザの視点を移動させる必要があるため、ユーザに煩わしさを与える可能性がある。以下では、各入力モードの開始を容易に行うことが可能な技術を提案する。
例えば、入力モードの開始は、所定の入力開始トリガが検出された場合に実行される。入力開始トリガは、音情報に対する音声認識処理の終了であってもよいし、操作入力部115に背面ボタンが設けられている場合には、その背面ボタンを押下する動作であってもよい。あるいは、入力モードの開始は、操作入力部115にタッチパッドが設けられている場合には、そのタッチパッドにおける所定位置をタッチする動作であってもよいし、所定角度を超えて操作入力部115を傾ける動作であってもよいし、操作入力部115のボタンを長押しする動作であってもよい。
また、入力モードの開始は、入力開始トリガが検出された場合に行われてもよいし、音声認識処理結果が得られた後に行われてもよい。図13は、入力開始トリガが検出された場合に入力モードが開始される例の概要について説明するための図である。まず、テキスト入力モードを開始するためのテキスト入力開始トリガが検出され、ユーザが所望の発話を行った場合を想定する。かかる場合、出力制御部143は、音声認識処理の結果として得られたテキストをそのままの形式によって認識結果画面133に表示させる(テキスト入力モードM1)。
続いて、記号入力モードを開始するための記号入力開始トリガが検出され、「顔文字とはてな」と発話した場合を想定する。かかる場合、出力制御部143は、音声認識処理の結果として得られたテキスト「顔文字とはてな」を記号「:)?」に変換し、記号「:)?」を認識結果画面133に表示させる(記号入力モードM2)。
一方、コマンド入力モードを開始するためのコマンド入力開始トリガが検出され、「斜字」と発話した場合を想定する。かかる場合、出力制御部143は、音声認識処理の結果として得られた所望のテキストを「斜字」に変換するコマンドを入力し、「斜字」に変換された後の所望のテキストを認識結果画面133に表示させる(コマンド入力モードM3)。
なお、図13には、テキスト入力モードから記号入力モードへの切り替え、および、テキスト入力モードからコマンド入力モードへの切り替えが行われる例が示されている。しかし、実行可能な入力モードの切り替えは、図13に示した例に限定されない。例えば、入力モードの切り替えは、テキスト入力モード、記号入力モードおよびコマンド入力モードのうち、あらゆる2つの入力モードの間において双方向に行われ得る。
図14は、音声認識処理結果が得られた後に入力モードの開始が行われる例の第一の概要について説明するための図である。まず、テキスト入力開始トリガが検出され、テキスト入力モードにおいてユーザが所望の発話を行った場合を想定する。かかる場合、音声認識部142は、所望の発話に対する音声認識処理を行い、出力制御部143は、音声認識処理の結果として得られたテキストをそのままの形式によって認識結果画面133に表示させる(音声認識処理結果M0)。
このとき、ユーザが、音声認識処理の結果として得られたテキストを、記号およびコマンドに変換する必要がないと考えた場合を想定する。かかる場合、出力制御部143は、テキスト入力開始トリガを検出すると、音声認識処理の結果として得られたテキストをそのまま確定させる(入力完了M4)。
図15は、音声認識処理結果が得られた後に入力モードの切り替えが行われる例の第二の概要について説明するための図である。図14に示した例と同様に、テキスト入力開始トリガが検出され、テキスト入力モードにおいてユーザが所望の発話を行った場合を想定する。かかる場合、音声認識部142は、所望の発話に対する音声認識処理を行い、出力制御部143は、音声認識処理の結果として得られたテキストをそのままの形式によって認識結果画面133に表示させる(音声認識処理結果M0)。
このとき、ユーザが、音声認識処理の結果として得られたテキストを、記号に変換したいと考えた場合を想定する。かかる場合、出力制御部143は、記号入力開始トリガを検出すると、音声認識処理の結果として得られたテキストをそのテキストに対応する記号に変換する(記号入力モードM2)。そして、出力制御部143は、テキストから変換された記号を確定させる(入力完了M4)。なお、入力モードは、記号入力モードの代わりにコマンド入力モードにも切り替えられ得る。
図16は、テキスト入力モードの後に記号入力モードが起動される例について説明するための図である。まず、テキスト入力開始トリガが検出され、テキスト入力モードにおいてユーザが所望の発話を行った場合を想定する。かかる場合、出力制御部143は、音声認識処理の結果として得られたテキストをそのままの形式によって認識結果画面133に表示させる(テキスト入力モードM1)。
続いて、出力制御部143は、音声認識処理が終了した場合、自動的に記号入力モードを起動する。あるいは、出力制御部143は、所定の記号入力開始トリガが検出された場合、記号入力モードを起動する。ここでは、記号入力開始トリガがテキスト入力開始トリガと同一である場合を想定するが、記号入力開始トリガは、テキスト入力開始トリガと異なっていてもよい。
続いて、ユーザが「顔文字とはてな」と発話した場合を想定する。かかる場合、出力制御部143は、音声認識処理の結果として得られたテキスト「顔文字とはてな」を記号「:)?」に変換し、記号「:)?」を認識結果画面133に表示させる(記号入力モードM2)。:)は笑顔を表す顔文字」である。その後、出力制御部143は、所定の音声認識終了トリガを検出すると、音声認識処理の結果として得られたテキストおよび記号「:)?」を確定させる(入力完了M4)。ここでは、音声認識終了トリガがテキスト入力開始トリガと同一である場合を想定するが、音声認識終了トリガは、テキスト入力開始トリガと異なっていてもよい。
図17は、テキスト入力モードの後に記号入力モードおよびコマンド入力モードが起動される例について説明するための図である。図16に示した例と同様に、音声認識処理の結果として得られたテキストがそのままの形式によって認識結果画面133に表示され(テキスト入力モードM1)、音声認識処理の結果として得られたテキスト「顔文字とはてな」が変換された記号「:)?」が認識結果画面133に表示される(記号入力モードM2)。
続いて、出力制御部143は、音声認識処理が終了した場合、自動的にコマンド入力モードを起動する。あるいは、出力制御部143は、所定のコマンド入力開始トリガが検出された場合、コマンド入力モードを起動する。ここでは、コマンド入力開始トリガがテキスト入力開始トリガと同一である場合を想定するが、コマンド入力開始トリガは、テキスト入力開始トリガと異なっていてもよい。
続いて、ユーザが「斜字」と発話した場合を想定する。かかる場合、出力制御部143は、音声認識処理の結果として得られた所望のテキストおよび記号「:)?」を「斜字」に変換するコマンドを入力し、「斜字」に変換された後のテキストを認識結果画面133に表示させる(コマンド入力モードM3)。その後、出力制御部143は、所定の音声認識終了トリガを検出すると、音声認識処理の結果として得られた所望のテキストおよび記号「:)?」の「斜字」を確定させる(入力完了M4)。
図18および図19は、最初にテキスト入力モードまたは記号入力モードが起動される例について説明するための図である。図18に示すように、テキスト入力開始トリガが検出され、テキスト入力モードにおいてユーザが所望の発話を行った場合を想定する。かかる場合、音声認識部142は、所望の発話に対する音声認識処理を行い、出力制御部143は、音声認識処理の結果として得られたテキストをそのままの形式によって認識結果画面133に表示させる(テキスト入力モードM1)。
このとき、ユーザが、音声認識処理の結果として得られたテキストを、記号に変換したいと考えた場合を想定する。かかる場合、出力制御部143は、記号入力開始トリガを検出すると、音声認識処理の結果として得られたテキストをそのテキストに対応する記号に変換する(記号入力モードM2)。一方、ユーザが、音声認識処理の結果として得られたテキストを、コマンドに変換したいと考えた場合を想定する。かかる場合、出力制御部143は、コマンド入力開始トリガを検出すると、音声認識処理の結果として得られたテキストをそのテキストに対応するコマンドを入力する(コマンド入力モードM3)。
また、図19に示すように、記号入力開始トリガが検出され、記号入力モードにおいてユーザが所望の発話を行った場合を想定する。かかる場合、音声認識部142は、所望の発話に対する音声認識処理を行い、出力制御部143は、音声認識処理の結果として得られたテキストを記号に変換し、記号を認識結果画面133に表示させる(記号入力モードM2)。
このとき、ユーザが、テキストを入力したいと考えた場合を想定する。かかる場合、テキスト入力開始トリガが検出され、テキスト入力モードにおいてユーザが所望の発話を行うと、音声認識部142は、所望の発話に対する音声認識処理を行い、出力制御部143は、音声認識処理の結果として得られたテキストを認識結果画面133に表示させる(テキスト入力モードM1)。一方、ユーザが、コマンドを入力したいと考え、ユーザが「斜字」と発話した場合を想定する。かかる場合、出力制御部143は、コマンド入力開始トリガを検出すると、「斜字」に変換された後の記号を認識結果画面133に表示させる(コマンド入力モードM3)。
また、出力制御部143は、過去に送受信したメッセージ(音声認識処理結果)の内容に基づいて、記号入力モードを自動的に起動するか否かを制御してもよい。図20は、過去に送受信したメッセージの内容に基づいて、記号入力モードを自動的に起動する例について説明するための図である。図20に示すように、過去に送受信したメッセージには、記号が4つ含まれており(顔文字2つとエクスクラメーションマーク2つとが含まれており)、次に記号入力が行われる可能性が高いと推定される場合を想定する。
ここで、テキスト入力開始トリガが検出され、テキスト入力モードにおいてユーザが所望の発話を行った場合を想定する。かかる場合、音声認識部142は、所望の発話に対する音声認識処理を行い、出力制御部143は、音声認識処理の結果として得られたテキストをそのままの形式によって認識結果画面133に表示させる(テキスト入力モードM1)。続いて、出力制御部143は、過去に送受信したメッセージに基づいて次に記号入力が行われる可能性が高いと推定し、記号入力モードを自動的に起動する。
続いて、ユーザが「顔文字とはてな」と発話した場合を想定する。かかる場合、出力制御部143は、音声認識処理の結果として得られたテキスト「顔文字とはてな」を記号「:)?」に変換し、記号「:)?」を認識結果画面133に表示させる(記号入力モードM2)。その後、出力制御部143は、所定の音声認識終了トリガを検出すると、音声認識処理の結果として得られたテキストおよび記号「:)?」を確定させる(入力完了M4)。ここでは、音声認識終了トリガがテキスト入力開始トリガと同一である場合を想定するが、音声認識終了トリガは、テキスト入力開始トリガと異なっていてもよい。
図21は、過去に送受信したメッセージの内容に基づいて、記号入力モードを自動的に起動しない例について説明するための図である。図21に示すように、過去に送受信したメッセージには、記号が1つしか含まれておらず(記号としてエクスクラメーションマーク1つだけが含まれており)、次に記号入力が行われる可能性が低いと推定される場合を想定する。
ここで、テキスト入力開始トリガが検出され、テキスト入力モードにおいてユーザが所望の発話を行った場合を想定する。かかる場合、音声認識部142は、所望の発話に対する音声認識処理を行い、出力制御部143は、音声認識処理の結果として得られたテキストをそのままの形式によって認識結果画面133に表示させる(テキスト入力モードM1)。続いて、出力制御部143は、過去に送受信したメッセージに基づいて次に記号入力が行われる可能性が低いと推定し、記号入力モードを自動的には起動しない。
続いて、出力制御部143は、所定の音声認識終了トリガを検出すると、音声認識処理の結果として得られたテキストを確定させる(入力完了M5)。ここでは、音声認識終了トリガがテキスト入力開始トリガと同一である場合を想定するが、音声認識終了トリガは、テキスト入力開始トリガと異なっていてもよい。
一方、記号入力開始トリガが検出され、ユーザが「顔文字とはてな」と発話した場合を想定する。かかる場合、出力制御部143は、音声認識処理の結果として得られたテキスト「顔文字とはてな」を記号「:)?」に変換し、記号「:)?」を認識結果画面133に表示させる(記号入力モードM2)。その後、出力制御部143は、所定の音声認識終了トリガを検出すると、音声認識処理の結果として得られたテキストおよび記号「:)?」を確定させる(入力完了M4)。ここでは、音声認識終了トリガがテキスト入力開始トリガと同一である場合を想定するが、音声認識終了トリガは、テキスト入力開始トリガと異なっていてもよい。
なお、過去に送受信したメッセージの内容に基づいて、記号入力モードを自動的に起動するか否かを判断する手法は特に限定されない。例えば、出力制御部143は、所定期間において送受信したメッセージに含まれる記号の量が閾値を超えるか否かによって、起動入力モードを自動的に起動するか否かを判断してもよい。あるいは、出力制御部143は、所定期間において送受信したメッセージに対して、機械学習などによる統計的処理を適用することによって、記号入力モードを自動的に起動するか否かを判断してもよい。
また、ここでは、出力制御部143が、送受信したメッセージの内容に基づいて、記号入力モードを自動的に起動するか否かを判断することとした。しかし、出力制御部143は、送信したメッセージと受信したメッセージとの双方の内容に基づいて、記号入力モードを自動的に起動するか否かを判断しなくてもよい。具体的には、出力制御部143は、送信したメッセージの内容のみに基づいて、記号入力モードを自動的に起動するか否かを判断してもよいし、受信したメッセージの内容のみに基づいて、記号入力モードを自動的に起動するか否かを判断してもよい。
また、出力制御部143は、操作入力部115の例としてのゲーム機のコントローラの操作頻度に基づいて、コマンド入力モードを自動的に起動するか否かを制御してもよい。図22は、コントローラの操作頻度に基づいて、コマンド入力モードを自動的に起動するか否かを制御する例について説明するための図である。図22に示すように、直近T秒間のコントローラ操作頻度が閾値を超える場合と直近T秒間のコントローラ操作頻度が閾値を超えない場合とを想定する。
ここで、テキスト入力開始トリガが検出され、テキスト入力モードにおいてユーザが所望の発話を行った場合を想定する。かかる場合、音声認識部142は、所望の発話に対する音声認識処理を行い、出力制御部143は、音声認識処理の結果として得られたテキストをそのままの形式によって認識結果画面133に表示させる(テキスト入力モードM1)。続いて、出力制御部143は、記号入力開始トリガが検出された場合、または、自動的に記号入力モードを起動する。
続いて、ユーザが「顔文字とはてな」と発話した場合を想定する。かかる場合、出力制御部143は、音声認識処理の結果として得られたテキスト「顔文字とはてな」を記号「:)?」に変換し、記号「:)?」を認識結果画面133に表示させる(記号入力モードM2)。
その後、出力制御部143は、直近T秒間のコントローラ操作頻度が閾値を超える場合には、ユーザがコントローラを操作するのは難しいと判断し、自動的にコマンド入力モードを起動する。ここで、ユーザが「斜字」と発話した場合を想定する。かかる場合、出力制御部143は、音声認識処理の結果として得られた所望のテキストと記号「:)?」とを「斜字」に変換するコマンドを入力し、斜字に変換された後の所望のテキストと記号「:)?」とを認識結果画面133に表示させる(コマンド入力モードM3)。
一方、出力制御部143は、直近T秒間のコントローラ操作頻度が閾値を超えない場合には、ユーザがコントローラを操作するのは容易であると判断し、自動的にはコマンド入力モードを起動しない。ここで、所定の音声認識終了トリガを検出すると、音声認識処理の結果として得られたテキストおよび記号「:)?」を確定させる(入力完了M4)。なお、自動的にコマンド入力モードが起動されない場合であっても、コマンド入力開始トリガが検出された場合、出力制御部143は、コマンド入力モードを起動してよい。
なお、コマンド入力モードを自動的に起動するか否かを制御する手法は特に限定されない。例えば、出力制御部143は、ゲームのシーン情報に基づいて、コマンド入力モードを自動的に起動するか否かを判断してもよい。例えば、出力制御部143は、ゲームのシーン情報がロード中を示す場合には、ユーザがゲームにさほど集中しなくて済むため、自動的にコマンド入力モードを起動しなくてよい。一方、出力制御部143は、ゲームのシーン情報が戦闘中を示す場合には、ユーザがゲームに集中していると推測されるため、自動的にコマンド入力モードを起動するとよい。
あるいは、出力制御部143は、ユーザの集中度に基づいて、コマンド入力モードを自動的に起動するか否かを判断してもよい。例えば、出力制御部143は、集中度が閾値を超える場合には、コマンド入力モードを自動的に起動するとよい。一方、出力制御部143は、集中度が閾値を超えない場合には、コマンド入力モードを自動的に起動しなくてよい。集中度は、ユーザの視線に基づいて推定されてもよいし、ユーザの生体情報(例えば、発汗、心拍など)に基づいて推定されてもよい。
また、出力制御部143は、ユーザの感情情報に基づいて、記号入力モードを自動的に起動するか否かを制御してもよい。図23は、ユーザの感情情報に基づいて、記号入力モードを自動的に起動するか否かを制御する例について説明するための図である。図23に示すように、ユーザの感情が強い場合とユーザの感情が弱い場合とを想定する。
ここで、テキスト入力開始トリガが検出され、テキスト入力モードにおいてユーザが所望の発話を行った場合を想定する。かかる場合、音声認識部142は、所望の発話に対する音声認識処理を行い、出力制御部143は、音声認識処理の結果として得られたテキストをそのままの形式によって認識結果画面133に表示させる(テキスト入力モードM1)。
このとき、出力制御部143は、ユーザの感情が閾値よりも強いと判断した場合には、次に記号入力が行われる可能性が高いと推定し、記号入力モードを自動的に起動する。続いて、ユーザが「顔文字とはてな」と発話した場合を想定する。かかる場合、出力制御部143は、音声認識処理の結果として得られたテキスト「顔文字とはてな」を記号「:)?」に変換し、記号「:)?」を認識結果画面133に表示させる(記号入力モードM2)。
その後、出力制御部143は、所定の音声認識終了トリガを検出すると、音声認識処理の結果として得られたテキストおよび記号「:)?」を確定させる(入力完了M4)。ここでは、音声認識終了トリガがテキスト入力開始トリガと同一である場合を想定するが、音声認識終了トリガは、テキスト入力開始トリガと異なっていてもよい。
一方、出力制御部143は、ユーザの感情が閾値よりも弱いと判断した場合には、次に記号入力が行われる可能性が低いと推定し、記号入力モードを自動的には起動しない。続いて、出力制御部143は、所定の音声認識終了トリガを検出すると、音声認識処理の結果として得られたテキストを確定させる(入力完了M5)。ここでは、音声認識終了トリガがテキスト入力開始トリガと同一である場合を想定するが、音声認識終了トリガは、テキスト入力開始トリガと異なっていてもよい。
なお、ユーザの感情情報を判定する手法は特に限定されない。例えば、出力制御部143は、集音部120によって集音された音情報の解析結果に基づいて、ユーザの感情情報を判定してもよい。例えば、出力制御部143は、集音部120によって集音された音情報の抑揚変換が閾値よりも大きい場合には、ユーザの感情が閾値よりも強いと判定してよい。一方、出力制御部143は、集音部120によって集音された音情報の抑揚変換が閾値よりも小さい場合には、ユーザの感情が閾値よりも弱いと判定してよい。
あるいは、出力制御部143は、集音部120によって集音された音情報の音量変化が閾値よりも大きい場合には、ユーザの感情が閾値よりも強いと判定してよい。一方、出力制御部143は、集音部120によって集音された音情報の音量変化が閾値よりも小さい場合には、ユーザの感情が閾値よりも弱いと判定してよい。
また、出力制御部143は、画像入力部110によって入力された画像の解析結果に基づいて、ユーザの感情情報を判定してもよい。例えば、出力制御部143は、画像入力部110によって入力された画像から解析された表情が強い感情を示している場合には、ユーザの感情が閾値よりも強いと判定してよい。一方、出力制御部143は、画像入力部110によって入力された画像から解析された表情が弱い感情を示している場合には、ユーザの感情が閾値よりも弱いと判定してよい。
以下、発話画面135の変形例を説明する。図24は、発話画面135の変形例を示す図である。図24に示すように、変形例に係る発話画面135Xは、記号が入力されている状態を示す「Icon」とテキストが入力されている状態を示す「Text」とを含んでいる。
図25は、ユーザの発話に基づいてテキスト入力がなされている場合における発話画面135Xの例を示す図である。図25に示すように、テキストが入力されている状態においては、出力制御部143は、音声認識処理結果として得られたテキスト「おはようございます」を認識結果画面133に表示する。また、テキストが入力されている状態においては、出力制御部143は、「Text」という文字列が付されたインジケータ137を発話ボリュームに応じて伸び縮みさせてもよい。
図25は、ユーザの発話に基づいてテキスト入力がなされている場合における発話画面135Xの例を示す図である。図25に示すように、テキストが入力されている状態においては、出力制御部143は、音声認識処理結果として得られたテキストを認識結果画面133に表示する。また、テキストが入力されている状態においては、出力制御部143は、「Text」という文字列位置に対応する位置にあるインジケータ137を発話ボリュームに応じて伸び縮みさせてもよい。
図26は、ユーザの発話に基づいて記号入力がなされている場合における発話画面135Yの例を示す図である。図26に示すように、既にテキスト「おはようございます」の入力が完了し、記号入力開始トリガが検出された場合、または、自動的に記号入力モードが起動され、記号が入力されている状態においては、出力制御部143は、音声認識処理結果として新たに得られたテキスト「顔文字とはてな」を記号に変換して認識結果画面133に表示する。また、記号が入力されている状態においては、出力制御部143は、「Icon」という文字列位置に対応する位置にあるインジケータ138を発話ボリュームに応じて伸び縮みさせてもよい。
このようにテキスト入力がなされている状態におけるインジケータ137と記号入力がなされている状態におけるインジケータ138との間において、伸びる方向を異ならせることによって直感的に現在の入力モードをユーザに把握させることが可能である。さらに、インジケータ137の色とインジケータ138の色とを異ならせることによって直感的に現在の入力モードをユーザに把握させることが可能である。
[1.4.ハードウェア構成例]
次に、図27を参照して、本開示の実施形態に係る情報処理システム10のハードウェア構成について説明する。図27は、本開示の実施形態に係る情報処理システム10のハードウェア構成例を示すブロック図である。
図27に示すように、情報処理システム10は、CPU(Central Processing unit)901、ROM(Read Only Memory)903、およびRAM(Random Access Memory)905を含む。また、情報処理システム10は、ホストバス907、ブリッジ909、外部バス911、インターフェース913、入力装置915、出力装置917、ストレージ装置919、ドライブ921、接続ポート923、通信装置925を含んでもよい。さらに、情報処理システム10は、必要に応じて、撮像装置933、およびセンサ935を含んでもよい。情報処理システム10は、CPU901に代えて、またはこれとともに、DSP(Digital Signal Processor)またはASIC(Application Specific Integrated Circuit)と呼ばれるような処理回路を有してもよい。
CPU901は、演算処理装置および制御装置として機能し、ROM903、RAM905、ストレージ装置919、またはリムーバブル記録媒体927に記録された各種プログラムに従って、情報処理システム10内の動作全般またはその一部を制御する。ROM903は、CPU901が使用するプログラムや演算パラメータなどを記憶する。RAM905は、CPU901の実行において使用するプログラムや、その実行において適宜変化するパラメータなどを一時的に記憶する。CPU901、ROM903、およびRAM905は、CPUバスなどの内部バスにより構成されるホストバス907により相互に接続されている。さらに、ホストバス907は、ブリッジ909を介して、PCI(Peripheral Component Interconnect/Interface)バスなどの外部バス911に接続されている。
入力装置915は、例えば、マウス、キーボード、タッチパネル、ボタン、スイッチおよびレバーなど、ユーザによって操作される装置である。入力装置915は、ユーザの音声を検出するマイクロフォンを含んでもよい。入力装置915は、例えば、赤外線やその他の電波を利用したリモートコントロール装置であってもよいし、情報処理システム10の操作に対応した携帯電話などの外部接続機器929であってもよい。入力装置915は、ユーザが入力した情報に基づいて入力信号を生成してCPU901に出力する入力制御回路を含む。ユーザは、この入力装置915を操作することによって、情報処理システム10に対して各種のデータを入力したり処理動作を指示したりする。また、後述する撮像装置933も、ユーザの手の動き、ユーザの指などを撮像することによって、入力装置として機能し得る。このとき、手の動きや指の向きに応じてポインティング位置が決定されてよい。
出力装置917は、取得した情報をユーザに対して視覚的または聴覚的に通知することが可能な装置で構成される。出力装置917は、例えば、LCD(Liquid Crystal Display)、PDP(Plasma Display Panel)、有機EL(Electro−Luminescence)ディスプレイ、プロジェクタなどの表示装置、ホログラムの表示装置、スピーカおよびヘッドホンなどの音声出力装置、ならびにプリンタ装置などであり得る。出力装置917は、情報処理システム10の処理により得られた結果を、テキストまたは画像などの映像として出力したり、音声または音響などの音声として出力したりする。また、出力装置917は、周囲を明るくするためライトなどを含んでもよい。
ストレージ装置919は、情報処理システム10の記憶部の一例として構成されたデータ格納用の装置である。ストレージ装置919は、例えば、HDD(Hard Disk Drive)などの磁気記憶部デバイス、半導体記憶デバイス、光記憶デバイス、または光磁気記憶デバイスなどにより構成される。このストレージ装置919は、CPU901が実行するプログラムや各種データ、および外部から取得した各種のデータなどを格納する。
ドライブ921は、磁気ディスク、光ディスク、光磁気ディスク、または半導体メモリなどのリムーバブル記録媒体927のためのリーダライタであり、情報処理システム10に内蔵、あるいは外付けされる。ドライブ921は、装着されているリムーバブル記録媒体927に記録されている情報を読み出して、RAM905に出力する。また、ドライブ921は、装着されているリムーバブル記録媒体927に記録を書き込む。
接続ポート923は、機器を情報処理システム10に直接接続するためのポートである。接続ポート923は、例えば、USB(Universal Serial Bus)ポート、IEEE1394ポート、SCSI(Small Computer System Interface)ポートなどであり得る。また、接続ポート923は、RS−232Cポート、光オーディオ端子、HDMI(登録商標)(High−Definition Multimedia Interface)ポートなどであってもよい。接続ポート923に外部接続機器929を接続することで、情報処理システム10と外部接続機器929との間で各種のデータが交換され得る。
通信装置925は、例えば、通信ネットワーク931に接続するための通信デバイスなどで構成された通信インターフェースである。通信装置925は、例えば、有線または無線LAN(Local Area Network)、Bluetooth(登録商標)、またはWUSB(Wireless USB)用の通信カードなどであり得る。また、通信装置925は、光通信用のルータ、ADSL(Asymmetric Digital Subscriber Line)用のルータ、または、各種通信用のモデムなどであってもよい。通信装置925は、例えば、インターネットや他の通信機器との間で、TCP/IPなどの所定のプロトコルを用いて信号などを送受信する。また、通信装置925に接続される通信ネットワーク931は、有線または無線によって接続されたネットワークであり、例えば、インターネット、家庭内LAN、赤外線通信、ラジオ波通信または衛星通信などである。
撮像装置933は、例えば、CCD(Charge Coupled Device)またはCMOS(Complementary Metal Oxide Semiconductor)などの撮像素子、および撮像素子への被写体像の結像を制御するためのレンズなどの各種の部材を用いて実空間を撮像し、撮像画像を生成する装置である。撮像装置933は、静止画を撮像するものであってもよいし、また動画を撮像するものであってもよい。
センサ935は、例えば、加速度センサ、ジャイロセンサ、地磁気センサ、光センサ、音センサなどの各種のセンサである。センサ935は、例えば情報処理システム10の筐体の姿勢など、情報処理システム10自体の状態に関する情報や、情報処理システム10の周辺の明るさや騒音など、情報処理システム10の周辺環境に関する情報を取得する。また、センサ935は、GPS(Global Positioning System)信号を受信して装置の緯度、経度および高度を測定するGPSセンサを含んでもよい。
<2.むすび>
以上説明したように、本開示の実施形態によれば、集音に基づく音情報に対する音声認識処理の精度に関する情報を取得する情報取得部141と、音声認識処理の精度に関する情報に基づいて、音声認識処理結果の音声出力態様を制御する出力制御部143と、を備える、情報処理装置(制御部)140が提供される。かかる構成によれば、テキストの読み上げ結果の音声出力態様によって、音声認識処理の精度をユーザに把握させることが可能となる。
以上、添付図面を参照しながら本開示の好適な実施形態について詳細に説明したが、本開示の技術的範囲はかかる例に限定されない。本開示の技術分野における通常の知識を有する者であれば、請求の範囲に記載された技術的思想の範疇内において、各種の変更例または修正例に想到し得ることは明らかであり、これらについても、当然に本開示の技術的範囲に属するものと了解される。
例えば、上記では、一文の中において(あるいは、一句の中において)、音声出力態様の制御を異ならせてもよい。例えば、出力制御部143は、音声認識処理を誤りやすい文頭部分の音声出力速度を他の部分の音声出力速度よりも大きくしてもよい。
また、音声認識処理結果があまりに長くなってしまった場合には、音声認識処理結果の読み上げ結果をユーザが聴くのは困難な可能性がある。そのため、出力制御部143は、音声認識処理結果がある程度を超えて長くなってしまった場合には、その音声認識処理結果の全体または一部の読み上げを省略してもよい。
また、例えば、上記では、テキストTx−10の読み上げ結果が出力されるとともに、テキストTx−10が表示される例を説明した。しかし、テキストTx−10は表示されなくてもよい。すなわち、情報処理システム10は、表示部130が存在しないシステム(例えば、首かけ型のデバイスなど)であってもよい。
また、上記では、情報処理システム10がゲーム機およびテレビジョン受像機を有しており、ユーザU1がゲームプレイ中にチャットアプリケーションを利用してオンラインチャットを行う例を示した。しかし、情報処理システム10のハードウェア構成は、かかる例に限定されない。例えば、情報処理システム10は、ウェアラブルデバイス(例えば、腕時計、HMD、首かけ型のデバイスなど)であってもよいし、家庭内で使用される据え置き型のデバイスであってもよいし、車載デバイスであってもよい。
また、コンピュータに内蔵されるCPU、ROMおよびRAMなどのハードウェアを、上記した制御部140が有する機能と同等の機能を発揮させるためのプログラムも作成可能である。また、該プログラムを記録した、コンピュータに読み取り可能な記録媒体も提供され得る。
なお、上述した情報処理システム10の動作が実現されれば、各構成の位置は特に限定されない。具体的な一例として、画像入力部110、操作入力部115、生体情報入力部118、集音部120、通信部125、表示部130および音出力部150と制御部140とは、ネットワークを介して接続された互いに異なる装置に設けられてもよい。この場合には、制御部140が、例えば、ウェブサーバやクラウドサーバのようなサーバに相当し、画像入力部110、操作入力部115、生体情報入力部118、集音部120、通信部125、表示部130および音出力部150が当該サーバにネットワークを介して接続されたクライアントに相当し得る。
また、制御部140が有するすべての構成要素が同一の装置に収まっていなくてもよい。例えば、情報取得部141と、音声認識部142と、出力制御部143および出力部144のうち、一部は制御部140とは異なる装置に存在していてもよい。例えば、音声認識部142および出力制御部143は、情報取得部141と出力部144とを備える制御部140とは異なるサーバに存在していてもよい。
また、本明細書に記載された効果は、あくまで説明的または例示的なものであって限定的ではない。つまり、本開示に係る技術は、上記の効果とともに、または上記の効果に代えて、本明細書の記載から当業者には明らかな他の効果を奏し得る。
なお、以下のような構成も本開示の技術的範囲に属する。
(1)
集音に基づく音情報に対する音声認識処理の精度に関する情報を取得する情報取得部と、
前記音声認識処理の精度に関する情報に基づいて、音声認識処理結果の音声出力態様を制御する出力制御部と、
を備える、情報処理装置。
(2)
前記音声認識処理の精度に関する情報は、前記音情報に含まれるユーザの発話に関する情報を含む、
前記(1)に記載の情報処理装置。
(3)
前記ユーザの発話に関する情報は、前記音情報に含まれる前記ユーザの発話音量、前記ユーザの発話の明瞭さ、および、前記ユーザの発話長さのうち少なくともいずれか一つを含む、
前記(2)に記載の情報処理装置。
(4)
前記音声認識処理の精度に関する情報は、前記音情報に含まれるユーザの発話に対応するノイズに関する情報を含む、
前記(1)〜(3)のいずれか一項に記載の情報処理装置。
(5)
前記ノイズに関する情報は、前記音情報に含まれるノイズの音量を含む、
前記(4)に記載の情報処理装置。
(6)
前記音声認識処理の精度に関する情報は、前記音声認識処理結果の信頼度を含む、
前記(1)〜(5)のいずれか一項に記載の情報処理装置。
(7)
前記出力制御部は、ユーザに関する情報に基づいて、前記音声出力態様を制御する、
前記(6)に記載の情報処理装置。
(8)
前記ユーザに関する情報は、前記ユーザの行動情報、前記ユーザの姿勢情報、前記ユーザによる設定情報、前記ユーザの周囲の環境情報、前記ユーザの生体情報および前記ユーザの感情情報のうち少なくともいずれか一つを含む、
前記(7)に記載の情報処理装置。
(9)
前記音声認識処理の精度に関する情報は、前記音声認識処理結果の量を含む、
前記(1)〜(8)のいずれか一項に記載の情報処理装置。
(10)
前記出力制御部は、前記音声認識処理結果が利用されるコンテンツの種類に基づいて、前記音声出力態様を制御する、
前記(1)〜(9)のいずれか一項に記載の情報処理装置。
(11)
前記出力制御部は、前記音声認識処理の実行頻度に基づいて、前記音声出力態様を制御する、
前記(1)〜(10)のいずれか一項に記載の情報処理装置。
(12)
前記音声出力態様は、前記音声認識処理結果の音声出力速度を含む、
前記(1)〜(11)のいずれか一項に記載の情報処理装置。
(13)
前記音声出力態様は、前記音声認識処理結果の音声出力の大きさを含む、
前記(1)〜(12)のいずれか一項に記載の情報処理装置。
(14)
前記音声出力態様は、前記音声認識処理結果の音声出力前に出力される出力音声の種類を含む、
前記(1)〜(13)のいずれか一項に記載の情報処理装置。
(15)
前記音声出力態様は、前記音声認識処理結果の声質を含む、
前記(1)〜(14)のいずれか一項に記載の情報処理装置。
(16)
前記出力制御部は、所定の条件が満たされた場合に、前記音声認識処理結果が出力部によって音声出力されないように前記出力部を制御する、
前記(1)〜(15)のいずれか一項に記載の情報処理装置。
(17)
前記所定の条件は、ユーザの視線に関する条件、ユーザの位置に関する条件、前記音声認識処理結果の表示サイズ、および、前記音声認識処理結果の信頼度に関する条件のうち少なくともいずれか一つを含む、
前記(16)に記載の情報処理装置。
(18)
前記所定の条件は、ユーザによって前記音声認識処理の再起動を指示するための操作が入力されたという条件、および、前記音声認識処理結果の送信を指示するための操作が入力されたという条件のうち少なくともいずれか一つを含む、
前記(16)または(17)に記載の情報処理装置。
(19)
集音に基づく音情報に対する音声認識処理の精度に関する情報を取得することと、
プロセッサにより、前記音声認識処理の精度に関する情報に基づいて、音声認識処理結果の音声出力態様を制御することと、
を含む、情報処理方法。
(20)
コンピュータを、
集音に基づく音情報に対する音声認識処理の精度に関する情報を取得する情報取得部と、
前記音声認識処理の精度に関する情報に基づいて、音声認識処理結果の音声出力態様を制御する出力制御部と、
を備える情報処理装置として機能させるためのプログラム。
10 情報処理システム
110 画像入力部
115 操作入力部
118 生体情報入力部
120 集音部
125 通信部
130 表示部
131 映像表示画面
132 音声認識処理開始ボタン
133 認識結果画面
134 チャット画面
135 発話画面
136 音声認識処理終了ボタン
140 情報処理装置(制御部)
141 情報取得部
142 音声認識部
143 出力制御部
144 出力部
150 音出力部
U1 ユーザ

Claims (20)

  1. 集音に基づく音情報に対する音声認識処理の精度に関する情報を取得する情報取得部と、
    前記音声認識処理の精度に関する情報に基づいて、音声認識処理結果の音声出力態様を制御する出力制御部と、
    を備える、情報処理装置。
  2. 前記音声認識処理の精度に関する情報は、前記音情報に含まれるユーザの発話に関する情報を含む、
    請求項1に記載の情報処理装置。
  3. 前記ユーザの発話に関する情報は、前記音情報に含まれる前記ユーザの発話音量、前記ユーザの発話の明瞭さ、および、前記ユーザの発話長さのうち少なくともいずれか一つを含む、
    請求項2に記載の情報処理装置。
  4. 前記音声認識処理の精度に関する情報は、前記音情報に含まれるユーザの発話に対応するノイズに関する情報を含む、
    請求項1に記載の情報処理装置。
  5. 前記ノイズに関する情報は、前記音情報に含まれるノイズの音量を含む、
    請求項4に記載の情報処理装置。
  6. 前記音声認識処理の精度に関する情報は、前記音声認識処理結果の信頼度を含む、
    請求項1に記載の情報処理装置。
  7. 前記出力制御部は、ユーザに関する情報に基づいて、前記音声出力態様を制御する、
    請求項6に記載の情報処理装置。
  8. 前記ユーザに関する情報は、前記ユーザの行動情報、前記ユーザの姿勢情報、前記ユーザによる設定情報、前記ユーザの周囲の環境情報、前記ユーザの生体情報および前記ユーザの感情情報のうち少なくともいずれか一つを含む、
    請求項7に記載の情報処理装置。
  9. 前記音声認識処理の精度に関する情報は、前記音声認識処理結果の量を含む、
    請求項1に記載の情報処理装置。
  10. 前記出力制御部は、前記音声認識処理結果が利用されるコンテンツの種類に基づいて、前記音声出力態様を制御する、
    請求項1に記載の情報処理装置。
  11. 前記出力制御部は、前記音声認識処理の実行頻度に基づいて、前記音声出力態様を制御する、
    請求項1に記載の情報処理装置。
  12. 前記音声出力態様は、前記音声認識処理結果の音声出力速度を含む、
    請求項1に記載の情報処理装置。
  13. 前記音声出力態様は、前記音声認識処理結果の音声出力の大きさを含む、
    請求項1に記載の情報処理装置。
  14. 前記音声出力態様は、前記音声認識処理結果の音声出力前に出力される出力音声の種類を含む、
    請求項1に記載の情報処理装置。
  15. 前記音声出力態様は、前記音声認識処理結果の声質を含む、
    請求項1に記載の情報処理装置。
  16. 前記出力制御部は、所定の条件が満たされた場合に、前記音声認識処理結果が出力部によって音声出力されないように前記出力部を制御する、
    請求項1に記載の情報処理装置。
  17. 前記所定の条件は、ユーザの視線に関する条件、ユーザの位置に関する条件、前記音声認識処理結果の表示サイズ、および、前記音声認識処理結果の信頼度に関する条件のうち少なくともいずれか一つを含む、
    請求項16に記載の情報処理装置。
  18. 前記所定の条件は、ユーザによって前記音声認識処理の再起動を指示するための操作が入力されたという条件、および、前記音声認識処理結果の送信を指示するための操作が入力されたという条件のうち少なくともいずれか一つを含む、
    請求項16に記載の情報処理装置。
  19. 集音に基づく音情報に対する音声認識処理の精度に関する情報を取得することと、
    プロセッサにより、前記音声認識処理の精度に関する情報に基づいて、音声認識処理結果の音声出力態様を制御することと、
    を含む、情報処理方法。
  20. コンピュータを、
    集音に基づく音情報に対する音声認識処理の精度に関する情報を取得する情報取得部と、
    前記音声認識処理の精度に関する情報に基づいて、音声認識処理結果の音声出力態様を制御する出力制御部と、
    を備える情報処理装置として機能させるためのプログラム。
JP2017563687A 2016-01-28 2016-10-24 情報処理装置、情報処理方法およびプログラム Pending JPWO2017130486A1 (ja)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
JP2016013899 2016-01-28
JP2016013899 2016-01-28
PCT/JP2016/081470 WO2017130486A1 (ja) 2016-01-28 2016-10-24 情報処理装置、情報処理方法およびプログラム

Publications (1)

Publication Number Publication Date
JPWO2017130486A1 true JPWO2017130486A1 (ja) 2018-11-22

Family

ID=59397756

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2017563687A Pending JPWO2017130486A1 (ja) 2016-01-28 2016-10-24 情報処理装置、情報処理方法およびプログラム

Country Status (5)

Country Link
US (1) US20190019512A1 (ja)
EP (1) EP3410433A4 (ja)
JP (1) JPWO2017130486A1 (ja)
CN (1) CN108475507A (ja)
WO (1) WO2017130486A1 (ja)

Families Citing this family (13)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR102691889B1 (ko) * 2016-07-27 2024-08-06 삼성전자주식회사 전자 장치 및 그의 음성 인식 방법
US10777201B2 (en) * 2016-11-04 2020-09-15 Microsoft Technology Licensing, Llc Voice enabled bot platform
JP6950708B2 (ja) * 2016-12-05 2021-10-13 ソニーグループ株式会社 情報処理装置、情報処理方法、および情報処理システム
US10728616B2 (en) * 2017-04-19 2020-07-28 Intel Corporation User interest-based enhancement of media quality
US11586410B2 (en) 2017-09-21 2023-02-21 Sony Corporation Information processing device, information processing terminal, information processing method, and program
CN108108391A (zh) * 2017-11-21 2018-06-01 众安信息技术服务有限公司 用于数据可视化的信息的处理方法以及装置
CN109147784B (zh) * 2018-09-10 2021-06-08 百度在线网络技术(北京)有限公司 语音交互方法、设备以及存储介质
CN111199732B (zh) * 2018-11-16 2022-11-15 深圳Tcl新技术有限公司 一种基于情感的语音交互方法、存储介质及终端设备
JP7428141B2 (ja) * 2018-12-19 2024-02-06 ソニーグループ株式会社 情報処理装置、情報処理方法、およびプログラム
JP7408925B2 (ja) * 2019-06-04 2024-01-09 コニカミノルタ株式会社 ジョブ処理システム、音声通知方法、およびコンピュータプログラム
CN110047487B (zh) * 2019-06-05 2022-03-18 广州小鹏汽车科技有限公司 车载语音设备的唤醒方法、装置、车辆以及机器可读介质
US20210090558A1 (en) * 2019-09-24 2021-03-25 Audio Analytic Ltd Controlling a user interface
WO2023286249A1 (ja) * 2021-07-15 2023-01-19 日本電信電話株式会社 コミュニケーション支援システム、コミュニケーション支援方法およびプログラム

Citations (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPS62254194A (ja) * 1986-04-28 1987-11-05 日本電気株式会社 音声認識応答装置
JPS62267800A (ja) * 1986-05-16 1987-11-20 株式会社日立製作所 音声認識制御方式
JPH02109100A (ja) * 1988-10-19 1990-04-20 Fujitsu Ltd 音声入力装置
JPH08335094A (ja) * 1995-06-08 1996-12-17 Nippon Telegr & Teleph Corp <Ntt> 音声入力方法およびこの方法を実施する装置
JPH08339288A (ja) * 1995-06-14 1996-12-24 Canon Inc 情報処理装置及びその制御方法
JP2000338994A (ja) * 1999-05-27 2000-12-08 Fujitsu Ten Ltd 車載用音声認識装置
JP2003324576A (ja) * 2002-05-08 2003-11-14 Nec Access Technica Ltd ファクシミリ装置
JP2004046106A (ja) * 2002-05-15 2004-02-12 Pioneer Electronic Corp 音声認識装置及び音声認識プログラム
JP2004333704A (ja) * 2003-05-02 2004-11-25 Alpine Electronics Inc 音声認識装置および方法

Family Cites Families (23)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US6553341B1 (en) * 1999-04-27 2003-04-22 International Business Machines Corporation Method and apparatus for announcing receipt of an electronic message
US6944594B2 (en) * 2001-05-30 2005-09-13 Bellsouth Intellectual Property Corporation Multi-context conversational environment system and method
US6792408B2 (en) * 2001-06-12 2004-09-14 Dell Products L.P. Interactive command recognition enhancement system and method
DE10138408A1 (de) * 2001-08-04 2003-02-20 Philips Corp Intellectual Pty Verfahren zur Unterstützung des Korrekturlesens eines spracherkannten Textes mit an die Erkennungszuverlässigkeit angepasstem Wiedergabegeschwindigkeitsverlauf
US20030046071A1 (en) * 2001-09-06 2003-03-06 International Business Machines Corporation Voice recognition apparatus and method
JP4304952B2 (ja) * 2002-10-07 2009-07-29 三菱電機株式会社 車載制御装置、並びにその操作説明方法をコンピュータに実行させるプログラム
US7243068B2 (en) * 2004-09-10 2007-07-10 Soliloquy Learning, Inc. Microphone setup and testing in voice recognition software
US7724889B2 (en) * 2004-11-29 2010-05-25 At&T Intellectual Property I, L.P. System and method for utilizing confidence levels in automated call routing
WO2006070566A1 (ja) * 2004-12-28 2006-07-06 Matsushita Electric Industrial Co., Ltd. 音声合成方法および情報提供装置
GB2426368A (en) * 2005-05-21 2006-11-22 Ibm Using input signal quality in speeech recognition
KR100834679B1 (ko) * 2006-10-31 2008-06-02 삼성전자주식회사 음성 인식 오류 통보 장치 및 방법
KR20110010939A (ko) * 2009-07-27 2011-02-08 삼성전자주식회사 휴대용 단말기에서 음성 인식 성능을 향상시키기 위한 장치 및 방법
US20110313762A1 (en) * 2010-06-20 2011-12-22 International Business Machines Corporation Speech output with confidence indication
US8914290B2 (en) * 2011-05-20 2014-12-16 Vocollect, Inc. Systems and methods for dynamically improving user intelligibility of synthesized speech in a work environment
US9134952B2 (en) * 2013-04-03 2015-09-15 Lg Electronics Inc. Terminal and control method thereof
JP2014203207A (ja) * 2013-04-03 2014-10-27 ソニー株式会社 情報処理装置、情報処理方法及びコンピュータプログラム
US9965553B2 (en) * 2013-05-29 2018-05-08 Philip Scott Lyren User agent with personality
US9830044B2 (en) * 2013-12-31 2017-11-28 Next It Corporation Virtual assistant team customization
WO2016173675A1 (en) * 2015-04-30 2016-11-03 Longsand Limited Suitability score based on attribute scores
US9558758B1 (en) * 2015-05-15 2017-01-31 Amazon Technologies, Inc. User feedback on microphone placement
US20160379638A1 (en) * 2015-06-26 2016-12-29 Amazon Technologies, Inc. Input speech quality matching
US20170076626A1 (en) * 2015-09-14 2017-03-16 Seashells Education Software, Inc. System and Method for Dynamic Response to User Interaction
KR20170034154A (ko) * 2015-09-18 2017-03-28 삼성전자주식회사 콘텐츠 제공 방법 및 이를 수행하는 전자 장치

Patent Citations (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPS62254194A (ja) * 1986-04-28 1987-11-05 日本電気株式会社 音声認識応答装置
JPS62267800A (ja) * 1986-05-16 1987-11-20 株式会社日立製作所 音声認識制御方式
JPH02109100A (ja) * 1988-10-19 1990-04-20 Fujitsu Ltd 音声入力装置
JPH08335094A (ja) * 1995-06-08 1996-12-17 Nippon Telegr & Teleph Corp <Ntt> 音声入力方法およびこの方法を実施する装置
JPH08339288A (ja) * 1995-06-14 1996-12-24 Canon Inc 情報処理装置及びその制御方法
JP2000338994A (ja) * 1999-05-27 2000-12-08 Fujitsu Ten Ltd 車載用音声認識装置
JP2003324576A (ja) * 2002-05-08 2003-11-14 Nec Access Technica Ltd ファクシミリ装置
JP2004046106A (ja) * 2002-05-15 2004-02-12 Pioneer Electronic Corp 音声認識装置及び音声認識プログラム
JP2004333704A (ja) * 2003-05-02 2004-11-25 Alpine Electronics Inc 音声認識装置および方法

Also Published As

Publication number Publication date
WO2017130486A1 (ja) 2017-08-03
EP3410433A4 (en) 2019-01-09
US20190019512A1 (en) 2019-01-17
CN108475507A (zh) 2018-08-31
EP3410433A1 (en) 2018-12-05

Similar Documents

Publication Publication Date Title
WO2017130486A1 (ja) 情報処理装置、情報処理方法およびプログラム
JP6760271B2 (ja) 情報処理装置、情報処理方法およびプログラム
US10546582B2 (en) Information processing device, method of information processing, and program
JP6143975B1 (ja) 画像の取り込みを支援するためにハプティックフィードバックを提供するためのシステムおよび方法
JP6729555B2 (ja) 情報処理システムおよび情報処理方法
WO2017221492A1 (ja) 情報処理装置、情報処理方法、及びプログラム
WO2016152200A1 (ja) 情報処理システムおよび情報処理方法
WO2016136104A1 (ja) 情報処理装置、情報処理方法及びプログラム
CN110798327A (zh) 消息处理方法、设备及存储介质
WO2016157993A1 (ja) 情報処理装置、情報処理方法およびプログラム
US10643636B2 (en) Information processing apparatus, information processing method, and program
JP6798258B2 (ja) 生成プログラム、生成装置、制御プログラム、制御方法、ロボット装置及び通話システム
WO2018135057A1 (ja) 情報処理装置、情報処理方法、及びプログラム
US10798337B2 (en) Communication device, communication system, and non-transitory computer readable medium storing program
JP2016156877A (ja) 情報処理装置、情報処理方法およびプログラム
WO2018198447A1 (ja) 情報処理装置および情報処理方法
JP2016180778A (ja) 情報処理システムおよび情報処理方法
WO2019054009A1 (ja) 情報処理装置、情報処理方法、およびプログラム
WO2017169499A1 (ja) 制御装置、制御方法及びコンピュータプログラム
WO2017187674A1 (ja) 情報処理装置、情報処理システム、及びプログラム
JP2019079449A (ja) 電子機器、制御装置、制御プログラム及び電子機器の動作方法

Legal Events

Date Code Title Description
RD04 Notification of resignation of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7424

Effective date: 20190208

RD03 Notification of appointment of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7423

Effective date: 20190214

RD04 Notification of resignation of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7424

Effective date: 20190222

RD02 Notification of acceptance of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7422

Effective date: 20190515

RD04 Notification of resignation of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7424

Effective date: 20190522

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20190926

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20190926

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20200915

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20201109

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20210330

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20210531

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20210622