JP3847674B2 - Audio communication method, audio communication apparatus, program, and recording medium - Google Patents
Audio communication method, audio communication apparatus, program, and recording medium Download PDFInfo
- Publication number
- JP3847674B2 JP3847674B2 JP2002203601A JP2002203601A JP3847674B2 JP 3847674 B2 JP3847674 B2 JP 3847674B2 JP 2002203601 A JP2002203601 A JP 2002203601A JP 2002203601 A JP2002203601 A JP 2002203601A JP 3847674 B2 JP3847674 B2 JP 3847674B2
- Authority
- JP
- Japan
- Prior art keywords
- user
- voice
- scenario
- response
- information
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Expired - Fee Related
Links
Images
Landscapes
- Telephonic Communication Services (AREA)
Description
【0001】
【発明の属する技術分野】
本発明は、通信網に接続された音声合成装置等を利用して、モーニングコール等のサービスを行うための音声通信方法及びその装置に関する。特に、利用者に対して個人化された内容、利用者の好みの声などによって、応対を行うことができる音声通信方法、音声通信システム、コンピュータに実行させるための音声通信プログラム、コンピュータに実行させるための音声通信プログラムを記録したコンピュータ読み取り可能な記録媒体に関する。
【0002】
【従来の技術】
従来の音声通信システムとしては、例えばホテル等においてモーニングコール・サービス等に利用されている音声通信システムがある。このシステムは、利用者が起こして欲しい時刻を特定の電話番号に電話してプッシュホン操作してシステムに登録することにより、その時刻になると通信システムのセンタ側から電話が発呼され、利用者がその電話に出るとあらかじめ録音されたメッセージや、音声合成装置によるボイスメール着信の通知等が再生されるものである。このシステムは、オペレータの手を介さずに、モーニングコールなどのサービスを自動的に行えるものであり、現在よく利用されている。
【0003】
また、一般的に提供されているシステムとしては、特定の電話番号に電話してプッシュホン操作して利用者の欲しい情報や好みを通信システムに伝えることで、あらかじめ録音されたメッセージや、音声合成装置による情報の朗読などが再生されるようにしているものがある。これもまた、オペレータの手を介さず自動的に必要な情報を開くことができるという点でサービス提供者に便宜であり、現在よく利用されている。
【0004】
しかし、従来の通信システムを用いた場合、モーニングコール等に利用するには、通信システムへのプッシュホン操作による設定が必要であり煩雑である。また、これらは画一的に応答される音声であるため利用者としても無味乾燥的な印象を受けるばかりか、このようなシステムに対しては、仮想的な恋人との会話などといったサービスを期待することはできない。さらに、一般的な情報サービス等では、利用者の欲しい情報や好みを通信システムに伝える方法について個人個人に対応することはできず、情報の選択にしても、単純な選択肢のみに限定されるものであり、これもまた、無味乾燥的な印象を受けてしまう。
【0005】
よって、これらのシステムを提供する者にとっては、頻繁に利用する利用者に対し、無味乾燥的な応答よりも利用者に応じたよりきめの細かい個別化された応答サービスを提供し得るシステムが望まれていた。
【0006】
【発明が解決しようとする課題】
そこで、本発明の第1の目的は、音声通信システムを利用して応答サービスを受ける者に対し、個別化された内容の応答を行うシステム及びその方法を提供することにある。
【0007】
本発明の第2の目的は、利用者による複数回のサービスの利用によって、利用者の利用履歴や個人情報を蓄積し統計処理することで、煩雑な設定なしに、個人化された内容、例えば、利用者の好みの声等によって応対を行うシステムを提供することにある。
【0008】
さらに本発明の第3の目的は、利用者に対して自発的に通信を行い、利用者に対しての個別化の度合いをさらに高めることにある。
【0009】
【課題を解決するための手段】
上記目的を達成するために、本件出願は以下の手段を講ずる。
【0010】
本件特許出願に係わる第1の発明は、
通信網を介して着信を受けた場合に自動的に音声応答を行う音声応答システムを用いた音声通信方法であって、
音声通信手段が、通信網を通じて利用者から送信された情報のうち利用者を特定するための利用者情報を取得する利用者情報取得ステップと、
個人属性管理手段が、前記利用者情報取得ステップにより取得された前記利用者情報と個人属性記憶手段に格納された利用者情報とを比較して、前記利用者情報と関連付けられて前記個人属性記憶手段に格納された利用者に関する個人情報を特定する個人情報特定ステップと、
シナリオ管理手段が、前記個人情報特定ステップにより特定された個人情報とシナリオ記憶手段に格納された応答の内容及び応答の順序の雛型とに基づいて利用者に対する応答用のシナリオを合成する応答シナリオ合成ステップと、
音声合成手段が、前記応答シナリオ合成ステップにより合成されたシナリオと音声情報記憶手段に格納された音声合成に用いる音声データとに基づいて利用者に対する応答用の音声を合成する応答音声合成ステップと、
前記音声通信手段が、前記応答音声合成ステップにより合成された応答用の音声を利用者に送信し、利用者からの応答を受信し、前記シナリオ管理手段が、前記音声通信手段の受信した利用者からの応答を確認する音声応答ステップと、
前記個人属性管理手段が、前記音声応答ステップにより行われた通信の内容に応じて前記個人属性記憶手段に格納されたデータを書き替えるデータ書替ステップとからなり、
前記個人属性管理手段が、前記個人属性記憶手段に格納された個人情報の抜けを判定するステップと、
抜けがあると判定された場合には、前記シナリオ管理手段が個人情報の抜けた部分を補う補完シナリオを合成する補完シナリオ合成ステップと、
メール配信手段が、前記補完シナリオを電子メールで利用者に配信するメール配信ステップと、
メール受信手段が、利用者からの応答電子メールを受信するメール受信ステップと、
前記個人属性管理手段が、受信した応答電子メールの内容を解析することで個人情報を更新する個人情報更新ステップをさらに含む音声通信方法である。
【0011】
本件特許出願に係わる第2の発明は、
通信網を介して着信を受けた場合に自動的に音声応答を行う音声通信装置であって、
受信した情報のうち利用者を特定するための利用者情報を取得し、応答用の音声を送信し、利用者からの応答を受信する音声通信手段と、
前記音声通信手段により取得された利用者情報と、前記利用者情報に関連付けて利用者に関する個人情報とを格納する個人属性記憶手段と、
前記音声通信手段により取得された前記利用者情報と前記個人属性記憶手段に格納されている利用者情報とを比較して前記個人情報を特定し、前記音声通信手段が行った通信の内容に応じて前記個人属性記憶手段に格納されたデータを書き替える個人属性管理手段と、
応答の内容及び応答の順序の雛型とが格納されたシナリオ記憶手段と、
前記個人属性管理手段により特定された個人情報と前記シナリオ記憶手段に格納された応答の内容及び応答の順序の雛型とに基づいて利用者に対する応答用のシナリオを合成し、前記音声通信手段が受信した利用者からの応答を確認するシナリオ管理手段と、
音声合成に用いる音声データを格納した音声情報記憶手段と、
前記シナリオ管理手段により合成された応答用のシナリオと前記音声情報記憶手段に格納された音声合成に用いる音声データとに基づいて利用者に対する応答用の音声を合成して前記音声通信手段に転送する音声合成手段と、
補完シナリオを電子メールで利用者に配信するメール配信手段と、
利用者からの応答電子メールを受信するメール受信手段と、
を含み、
前記個人属性管理手段が、前記個人属性記憶手段に格納された個人情報の抜けを判定し、
抜けがあると判定された場合には、前記シナリオ管理手段が個人情報の抜けた部分を補う補完シナリオを合成して、前記メール配信手段にメール配信の指示を伝達し、
前記個人属性管理手段が、メール受信手段が受信した応答電子メールの内容を解析することで個人情報を更新する音声通信装置である。
【0012】
本件特許出願に係わる第3の発明は、
通信網を介して自動的に発信を行う音声通信システムを用いた音声通信方法であって、
個人属性管理手段が、通信網を介して利用者と通信を行う音声通信手段により取得され個人属性記憶手段に格納された、利用者の利用者情報、利用者との通信により得られた利用者の個人情報、及び利用者からの着信日時の履歴情報のうち着信日時の履歴を統計処理することによって利用者に対してメッセージを発信すべきタイミングを決定する発信タイミング決定ステップと、
前記個人属性管理手段が、前記発信タイミング決定ステップにより発信すべきタイミングであると決定された利用者の利用者情報を前記個人属性記憶手段から取得して前記音声通信手段に転送する利用者情報取得ステップと、
シナリオ管理手段が、前記発信タイミング決定ステップにより統計処理した結果と、前記個人属性記憶手段に格納された個人情報と、シナリオ記憶手段に格納された発信の内容、及び発信の順序の雛型とに基づいて利用者に対して発信すべきシナリオを合成する発信シナリオ合成ステップと、
音声合成手段が、前記発信シナリオ合成ステップにより合成されたシナリオと音声情報記憶手段に格納された音声合成に用いる音声データとに基づいて利用者に対する発信用の音声を合成する発信音声合成ステップと、
前記音声通信手段が、前記利用者情報取得ステップにより転送された利用者情報に基づいて音声通信の発信を行い、前記発信用の音声を送信し、利用者からの応答を受信し、前記音声通信手段が受信した利用者からの応答を前記シナリオ管理手段が確認する音声通信発信ステップと、
前記個人属性管理手段が、前記音声通信発信ステップにより行われた通信の内容に応じて前記個人属性記憶手段に格納されたデータを書き替えるデータ書替ステップとからなり、
前記個人属性管理手段が、前記個人属性記憶手段に格納された個人情報の抜けを判定するステップと、
抜けがあると判定された場合には、前記シナリオ管理手段が個人情報の抜けた部分を補う補完シナリオを合成する補完シナリオ合成ステップと、
メール配信手段が、前記補完シナリオを電子メールで利用者に配信するメール配信ステップと、
メール受信手段が、利用者からの応答電子メールを受信するメール受信ステップと、
前記個人属性管理手段が、受信した応答電子メールの内容を解析することで個人情報を更新する個人情報更新ステップをさらに含む音声通信方法である。
【0013】
本件特許出願に係わる第4の発明は、
通信網を介して自動的に発信を行う音声通信装置であって、
通信網を介して利用者の利用者情報を用いて利用者と通信を行う音声通信手段と、
利用者の前記利用者情報、利用者との通信により得られ前記利用者情報と関連付けられた利用者の個人情報、及び利用者からの着信日時の履歴情報を格納した個人属性記憶手段と、
個人属性記憶手段に格納された着信日時の履歴を統計処理することによって利用者に対してメッセージを発信すべきタイミングを決定し、発信すべきタイミングであると決定された利用者の利用者情報を前記個人属性記憶手段から取得して前記音声通信手段に転送し、前記音声通信手段が行った通信の内容に応じて前記個人属性記憶手段に格納されたデータを書き替える個人属性管理手段と、
応答の内容及び応答の順序の雛型とが格納されたシナリオ記憶手段と、
前記個人属性管理手段が統計処理した結果と、前記個人属性記憶手段に格納された個人情報と、シナリオ記憶手段に格納された発信の内容、及び発信の順序の雛型とに基づいて利用者に対して発信すべきシナリオを合成し、前記音声通信手段が受信した利用者からの応答を確認するシナリオ管理手段と、
音声合成に用いる音声データを格納した音声情報記憶手段と、
前記シナリオ管理手段により合成されたシナリオと前記音声情報記憶手段に格納された音声合成に用いる音声データとに基づいて利用者に対する発信用の音声を合成して前記音声通信手段に転送する前記音声合成手段と、
補完シナリオを電子メールで利用者に配信するメール配信手段と、
利用者からの応答電子メールを受信するメール受信手段と、
を含み、
前記個人属性管理手段が、前記個人属性記憶手段に格納された個人情報の抜けを判定し、
抜けがあると判定された場合には、前記シナリオ管理手段が個人情報の抜けた部分を補う補完シナリオを合成して、前記メール配信手段にメール配信の指示を伝達し、
前記個人属性管理手段が、メール受信手段が受信した応答電子メールの内容を解析することで個人情報を更新する音声通信装置である。
【0014】
本件特許出願に係わる第5の発明は、第1の発明の音声通信方法をコンピュータで処理させるためのプログラムである。
【0015】
本件特許出願に係わる第6の発明は、第3の発明の音声通信方法をコンピュータで処理させるためのプログラムである。
【0016】
本件特許出願に係わる第7の発明は、第5の発明または第6の発明のプログラムを格納したコンピュータ読み取り可能な記録媒体である。
【0017】
本発明における記録媒体には、電気的、磁気的、磁気光学的、光学的手段等によって記録される媒体を含むものとする。
【0018】
【発明の実施の形態】
以下、本発明の一の実施の形態について、図面を用いて説明する。
図1は、本発明の一実施形態に係る、音声通信網101を介して着信を行い、自動的に音声応答を行う音声通信システムの構成を表すブロック図である。
【0019】
図1に示す本発明に係るシステムは、受信した情報のうち利用者を特定するための受信した情報のうち利用者を特定するための利用者情報を取得し、応答用の音声を送信し、利用者からの応答を受信する音声通信部2と、音声通信部2により取得された発信番号と、発信番号に関連付けて利用者に関する個人情報を格納する個人属性格納部6と、前記音声通信部により取得された発信番号と個人属性記憶部2に格納されている発信番号とを比較して前記個人情報を特定し、音声通信部2が行った通信の内容に応じて個人属性格納部6に格納されたデータを書き替える個人属性管理部5と、応答の内容及び応答の順序の雛型とが格納されたシナリオ格納部4と、個人属性格納部6により特定された個人情報とシナリオ格納部4に格納された応答の内容及び応答の順序の雛型とに基づいて、利用者に対する応答用のシナリオを合成し、音声通信部2が受信した利用者からの応答を確認するシナリオ管理部3と、音声合成に用いる音声データを格納した音声情報格納部8と、シナリオ管理部3により合成された応答用のシナリオと音声情報格納部8に格納された音声合成に用いる音声データとに基づいて、利用者に対する応答用の音声を合成して音声通信部2に転送する音声合成部7とから構成される。
【0020】
利用者1は、本発明の一実施形態に係る音声通信システムの利用者を表し、固定電話や携帯電話、インターネット電話、その他あらゆる音声電話、さらには、音声により通信されるすべての機器を用いて本発明のシステムに発呼する。本実施の形態では電話を用いて説明する。利用者1の利用する電話は、利用者情報として、例えば、発信者番号通知のような、利用者1を特定することができる情報を同時に通知できる機能を持っていることとする。この利用者情報は電話番号に限定されるものではないのはもちろんである。音声通信部2は、受信した情報のうち利用者を特定するための発信電話番号を取得し、応答用の音声を送信し、利用者からの応答を受信する。個人属性格納部6は、音声通信部2により取得された発信番号と、発信番号に関連付けて利用者に関する個人情報を格納する。個人属性格納部6には、図2乃至図4に示したような個人情報テーブル(図2)、コール履歴テーブル(図3)、情動テーブル(図4)、が格納されており、個人属性管理部5によって管理される。図2に示す個人情報テーブルは、氏名、電話番号、誕生日、住所、所属、趣味など、文字通り、個人情報を格納するテーブルである。個人情報テーブルでは、ユーザIDをユニーク・キーとして個人情報を格納する。図2の個人情報テーブルは、電話番号と個人の対応をつけ、特定の個人情報に基づく応対を行う等のシステムの挙動を決定する。
【0021】
個人属性管理部5は、音声通信部2により取得された発信番号と個人属性格納部6に格納されている発信番号とを比較して前記個人情報を特定し、音声通信部2が行った通信の内容に応じて個人属性格納部6に格納されたデータを書き替える。シナリオ格納部4には、応答の内容及び応答の順序の雛型とが格納されている。シナリオ管理部3は、個人属性格納部6により特定された個人情報とシナリオ格納部4に格納された応答の内容及び応答の順序の雛型とに基づいて、利用者に対する応答用のシナリオを合成し、音声通信部2が受信した利用者からの応答を確認する。音声情報格納部8には、音声合成に用いる音声データが格納される。音声合成部7は、シナリオ管理部3により合成された応答用のシナリオと音声情報格納部8に格納された音声合成に用いる音声データとに基づいて、利用者に対する応答用の音声を合成して音声通信部2に転送する。
【0022】
以上により構成された本発明に係るシステムの動作を図5のフローチャートに基づいて説明する。図5は、本発明の一の実施形態に係る、音声通信網101を介して着信を受けた場合に自動的に音声応答を行う音声通信システムを用いた音声応答方法を示すフローチャートである。
【0023】
本発明に係る音声通信システムを用いた音声応答方法は、音声通信部2が、音声通信網を通じて利用者から送信された情報のうち利用者を特定するための利用者情報を取得する、利用者情報取得ステップ(S102)と、個人属性管理部5が、音声通信部2により取得された発信番号と個人属性格納部6に格納された発信番号とを比較して、発信番号と関連付けられて前記個人属性記憶手段に格納された利用者に関する個人情報を特定する個人情報特定ステップ(S103)と、シナリオ管理部3が、個人情報特定ステップ(S103)により特定された個人情報とシナリオ格納部4に格納された応答の内容及び応答の順序の雛型とに基づいて、利用者に対する応答用のシナリオを合成する、応答シナリオ合成ステップ(S107)と、音声合成部7が、シナリオ合成ステップ(S107)により合成されたシナリオと音声情報格納部8に格納された音声合成に用いる音声データとに基づいて、利用者に対する応答用の音声を合成する応答音声合成ステップ(S108)と、音声通信部2が、応答音声合成ステップにより合成された応答用の音声を利用者に送信する音声応答ステップ(S109)と、個人属性管理部5が、音声応答ステップ(S109)により行われた通信の内容に応じて前記個人属性格納部6に格納されたデータを書き替えるデータ書替ステップ(S112)とを含む。
【0024】
通常、システムは、音声通信部2において、ステップS101の条件判定を用いたループによって、利用者1からの電話着信を待っている。
【0025】
利用者情報取得ステップ(S102)では、音声通信部2が、音声通信網を通じて利用者から送信された情報のうち利用者を特定するための利用者情報を取得する。具体的には、音声通信部2は、利用者1からの電話を着信すると、利用者1の利用者番号(電話番号)を取得し、シナリオ管理部3に通知する。
【0026】
個人情報特定ステップ(S103)では、個人属性管理部5が、音声通信部2により取得された発信番号と個人属性格納部6に格納された発信番号とを比較して、発信番号と関連付けられて前記個人属性記憶手段に格納された利用者に関する個人情報を特定する。具体的には、シナリオ管理部3では、音声通信部2から、利用者1の発信者番号(電話番号)が通知されると、ステップS103として、個人属性管理部5に対し、利用者1の発信者番号(電話番号)の検索を要求する。個人属性管理部5では、シナリオ管理部3からの発信者番号(電話番号)の検索要求に対し、個人属性格納部6の図2に示したような個人情報テーブルを検索し、結果をシナリオ管理部3に返す。これにより発信者番号が取得される。
【0027】
ステップS104では、シナリオ管理部3において、個人属性管理部5から返された検索結果を判定し、利用者1の発信者番号〈電話番号〉が個人属性格納部6に存在しない場合は、ステップS105に分岐する。利用者1の発信者番号(電話番号)が個人属性格納部6に存在する場合は、「既知」として、ステップS106に分岐する。
【0028】
ステップS105では、利用者1の発信者番号〈電話番号〉が「未知」であるので、サービスに加入していない利用者からの電話であると考えられるため、サービスの案内など、録音されたメッセージを再生する。ここから、通常のCTI(Computer Telephony Integration)などのような応対モードに入っても良い。
【0029】
ステップS106では、個人属性格納部6に、利用者1の発信者番号(電話番号)が発見されているため、利用者1の発信者番号(電話番号)に対応するユーザIDをキーとして、利用者1に対応したコール履歴テーブルを決定し、今回の着信を記録する。
【0030】
応答シナリオ合成ステップ(S107)では、シナリオ管理部3が、個人情報特定ステップ(S103)により特定された個人情報とシナリオ格納部4に格納された応答の内容及び応答の順序の雛型とに基づいて、利用者に対する応答用のシナリオ(今日のシナリオ)を合成する。シナリオの合成については後述するが、例えば、図6のように記述される。
【0031】
応答音声合成ステップ(S108)では、音声合成部7が、シナリオ合成ステップ(S107)により合成されたシナリオと音声情報格納部8に格納された音声合成に用いる音声データとに基づいて、利用者に対する応答用の音声を合成する。このステップS108では、シナリオ管理部3において、合成されたシナリオを解析し、音声応答を行う単位に分割する。分割された音声応答の単位が、音声合成であれば、音声合成部7に音声合成の指示を伝達する。音声合成部7では、その音声合成の指示に従って、音声情報格納部8に格納されている音声データを検索し、音声合成を行う。
【0032】
音声応答ステップ(S109)では、前記応答音声合成ステップにより合成された応答用の音声を、前記音声通信部2が前記利用者に送信する。このステップS109では、例えば、PCMデータを生成し、音声通信部2に伝えて音声を再生する。その後、ステップS110を再開する。一方、分割された音声応答の単位が、利用者の応答待ちの場合は、音声通信部2に利用者の応答待ち指示を伝達し、音声通信部2では、シナリオ管理部3が利用者の応答を確認した後、シナリオ管理部3での処理ステップS109を再開する。ここで、音声通信部2における、利用者の応答待ちは、利用者が何らかの音声を連続的に発生したことを取得することで、応答が行われたと解釈する。もちろん、音声認識装置などを用いて、ある程度の応答が行われたことを確認しても良い。また、音声情報格納部8に格納されている音声データは、別途、利用者1によって個人情報テーブルに格納された「好みの声」フィールドの値に対応した音声データが格納されており、利用者1は自分の好みの音声〈声〉でシステムからの応答を開くことが出来る。
【0033】
さて、シナリオ管理部3では、ステップS109の次にステップS110として、ステップS108で音声応答を行う単位に分割されたシナリオが全て終了したかどうかを判定し、まだ残りがあるならステップS109に分岐して次の音声応答の単位を実行し、残りが無くてシナリオが終了したならステップS111に分岐する。
【0034】
なお、応答シナリオ合成ステップ(S107)においては、利用者が何らかの音声を連続的に発生したことを取得することで応答が行われたと解釈して音声応答を進めるほかに、例えば、シナリオ管理部3が利用者に対する応答用のシナリオ(今日のシナリオ)としてあらかじめ想定される複数のシナリオを用意し、利用者の応答内容に応じて分岐しながら音声応答を行うこともできる。その場合、例えば、音声合成部7に音声認識装置を含ませ、音声通信部2で受信した応答内容を音声合成部7が解析し、音声合成部7が解析した利用者の応答内容に応じたシナリオをシナリオ管理部3が判断してシナリオを選択することで、音声応答ステップ(S109)を行わせるようにすればよい。
【0035】
ステップS111では、音声通信部2に電話回線の切断指示を伝達し、今回の電話着信による音声応答処理を終了する。
【0036】
ステップS112では、個人属性管理部5が、音声応答ステップにより行われた通信の内容に応じて、個人属性格納部6のデータを書き替える。例えば、利用者1との音声応答は最後まで続いたか、などの情報が伝達され、その情報を元に、個人属性格納部6に格納された情動テーブルを更新する。その後、ステップS101に分岐して、別の利用者からの電話着信を待つ。
【0037】
図6は、本発明の一実施形態の利用者1からの電話を着信するための処理の流れにおけるステップS107で合成されるシナリオの例である。シナリオ格納部4には、図6のようなシナリオの元となる雛型が、キーワードに関連付けて多数格納されており、個人情報テーブル(図2)に格納されている「趣味」や「フリーキーワード」等から取得できる文字列や、情動テーブル(図4)に格納されている「興味」や「バイオリズム」等の数値を検索キーとして、雛型を検索することが出来る。シナリオ管理部3では、例えば、情動テーブル(図4)に格納されている「興味」は、システムの利用者1への閑心度を表しており、ここでは「50%」が格納されており、「バイオリズム」は、システムが摸している人格の持つ体調などを表しており、ここでは「快調」が格納されている。
【0038】
また、個人情報テーブル(図2)には、「趣味」フィールドに値が格納されているため、図6のようなシナリオの元となる下記のような雛型が取得される。
< VoiceBankScript version=“1.0” >
<greet disp=“はじめ” subject=“挨拶” time=“%time%”/>
<greet disp=“お礼” subject=“%call-method%”/>
<p>今朝、<personal−data name=“名前” />の調子はどお?</p>
<p>ところで、私の趣味って知ってる?
<pause/>
<personal−data name=“名前”/>は、<personal−data name=“趣味”/>だよね。</p>
<wait−reply/>
<p>わ・た・し・は、テニスなの。覚えておいてね。</p>
<p>じゃあ、<personal−data name=“名前”/>、今日も元気でね!</P>
<greet disp=“おわり” subject=“挨拶” time=“%time%”/>
</ VoiceBankScript >
【0039】
上記した雛型では、「%time%」「%call-method%」等の文字列を含むが、これを、「%time%」は、現在時刻に対応した文字列、例えば「朝」、「%call-method%」は、着信の方法、この場合は「電話」という文字列に置き換える事で、図6のスクリプトを得る。前記したスクリプトの雛型は、個人情報テーブル(図2)の各フィールドの値や、情動テーブル(図4)の各フィールドの値によって、例えば、使う電車や住んでいる場所、今日の天気や、バイオリズムの値などによって、検索されてくる雛型を変化させることで、各利用者個人に則した内容の雛型を取得することが出来る。また、前記した図6のスクリプトの内、「<greet」で始まり、最も近い「/>」で閉じられる一節は「あいさつ文の挿入」を表し、1つの音声応答を行う単位である。この「あいさつ文の挿入」節の属性は「disp=」「subject=」に続く「”」に囲まれた文字列で表され、「disp=」の属性値は、そのあいさつ文が置かれる位置や性質を示し、「Subject=」の属性値は、そのあいさつ文の主題を表している。
【0040】
特に「subject=」の属性値が「挨拶」の場合は「time=」属性を伴って、どの時刻のあいさつ文かが指定される。また、「<p>」で始まり、「</p>」で括られる一節は「パラグラフ」を表し、これも1つの音声応答を行う単位である。「<personal-data」で始まり、最も近い「/>」で閉じられる一節は「個人情報の挿入」を表し、「name=」の属性値で表される個人情報テーブル(図2)のフィールドの値と置き換えられる。<wait−reply/>の一節は、1つの音声応答を行う単位である「利用者の応答待ち」を表し、利用者が何らかの音声を連続的に発生したことを取得することで、応答が行われたと解釈する。
【0041】
従って、シナリオ管理部3でステップS109として実行される処理では、図6のシナリオは、以下のように分割され、処理される。
<greet disp=“はじめ” subject=“挨拶” time=“朝”/>
→おはよう!
<greet disp=“お礼” subject=“電話”/>
→お電話ありがとう。
<p>今朝、<personal−data name=“名前” />の調子はどお?</p>
→今朝、進むの調子はどぉ?
<p>ところで、私の趣味って知ってる?
<pause/>
<personal−data name=“名前”/>は、<personal−data name=“趣味”/>だよね。</p>
→ところで、私の趣味って知ってる? [pause]ススムは、スキューバダイビングだよね。
<wait−reply/>
→[利用者の応答待ち]
<p>わ・た・し・は、テニスなの。覚えておいてね。</p>
→わ・た・し・はテニスなの。覚えておいてね。
<p>じゃあ、<personal−data name=“名前”/>、今日も元気でね!</P>
→じゃあ、ススム、今日も元気でね!
<greet disp=“おわり” subject=“挨拶” time=“朝”/>
→バイバイ!
【0042】
ここで、「[pause]」は、音声合成部7における音声データ合成の際に「一呼吸おく」ことを指示するシーケンスであり、「[利用者の応答待ち]」は、音声通信部2に利用者の応答待ち指示を伝達することを示している。個人属性格納部6には、図2乃至図4に示したような個人情報テーブル(図2)、コール履歴テーブル(図3)、情動テーブル(図4)、が格納されており、個人属性管理部5によって管理される。
【0043】
個人情報テーブル〈図2〉は、氏名、電話番号、誕生日、住所、所属、趣味など、文字通り、個人情報を格納するテーブルである。個人情報テーブルでは、ユーザIDをユニーク・キーとして個人情報を格納する。システムは、個人情報テーブルによって、電話番号と個人の対応をつけ、特定の個人情報に基く応対を行うなどの、システムの挙動を決定する。
【0044】
コール履歴テーブル(図3)は、利用者1からの電話を記録しておくためのテーブルである。コール履歴テーブルには、着信のあった日付と時刻をキーとして、発信者番号(電話番号)を格納する。
【0045】
情動テーブル(図4)は、コール履歴テーブルを統計処理した結果推定される、利用者1が大体何時ごろ電話をかけてくるかというデータである電話受信時刻、コール履歴テーブルを統計処理した結果推定される、利用者1がどのくらいの頻度で電話をかけるのを忘れるかというデータである電話無受信頻度、電話無受信頻度とコール履歴テーブルから計算される、利用者1に対してシステムがどれほど電話を発信したいかを百分率で表した電話発信願望が格納される。
【0046】
以上のようにして、複数回の利用者による電話通話というサービス利用によって、利用者の利用履歴を蓄積し、利用履歴を統計処理することで、煩雑な設定なしに、個人化された内容で応対を行うことができるようにすることができ、仮想的な恋人との会話などのシチュエーションを持ったサービスに対しても違和感無く適用することができるシステムを提供することができる。
【0047】
本発明の一の実施形態に係る、音声通信網101を介して着信を受けた場合に自動的に音声応答を行う音声通信システムを用いた音声応答方法を示すフローチャートを図7に示す。
【0048】
本発明に係る音声通信システムを用いた音声応答方法は、個人属性管理部5が、通信網101を介して利用者と通信を行う音声通信部2により取得され個人属性格納部6に格納された、利用者の利用者情報、利用者との通信により得られた利用者の個人情報及び利用者からの着信日時の履歴情報のうち着信日時の履歴を個人属性格納部6が統計処理することによって利用者に対してメッセージを発信すべきタイミングを決定する発信タイミング決定ステップ(S201)と、個人属性管理部5が、発信タイミング決定ステップにより発信すべきタイミングであると決定された(S202)利用者の利用者情報を個人属性格納部6から取得して音声通信部2に転送する利用者情報取得ステップ(S203)と、シナリオ管理部3が、発信タイミング決定ステップにより統計処理した結果と、個人属性格納部6に格納された個人情報と、シナリオ格納部4に格納された発信の内容及び発信の順序の雛型とに基づいて利用者に対して発信すべきシナリオを合成する発信シナリオ合成ステップ(S204)と、音声合成部7が、発信シナリオ合成ステップにより合成されたシナリオと音声情報格納部に格納された音声合成に用いる音声データとに基づいて、利用者に対する発信用の音声を合成する、発信音声合成ステップ(S205)と、音声通信部2が、利用者情報取得ステップにより転送された利用者情報に基づいて音声通信の発信を行い、発信用の音声を送信し、利用者からの応答を受信し、音声通信部2が受信した利用者からの応答をシナリオ管理部3が確認する音声通信発信ステップ(S206〜S209)と、個人属性管理部5が、音声通信発信ステップにより行われた通信の内容に応じて、個人属性格納部6に格納されたデータを書き替えるデータ書替ステップ(S211)とを含む。
【0049】
システムは、個人属性管理部5において、例えば10分に1回程度、図7に示す、利用者1へ電話を発信するための処理を実行する。発信タイミング決定ステップ(S201)では、通信網101を介して利用者と通信を行う音声通信部2により取得され個人属性格納部6に格納された、利用者の利用者情報、利用者との通信により得られた利用者の個人情報及び利用者からの着信日時の履歴情報のうち着信日時の履歴を個人属性格納部6が統計処理することによって利用者に対してメッセージを発信すべきタイミングを決定する。利用者1へ電話を発信するための処理では、まず、ステップS201として、コール履歴テーブル(図3)を統計処理し、情動テーブル(図4)を更新することを行う。ステップS201の処理は、個人属性格納部6に格納されたコール履歴テーブルに関して、電話がかかってきた日付を統計処理することで、情動テーブル内の電話受信時刻、電話無受信頻度、電誘発信願望などを更新する。
【0050】
例えば、図3のようなコール履歴テーブルが存在し、簡単のために、仮にコール履歴テーブルのデータが2/20〜存在するとしたとき、電話受信時刻は、存在する日時の時刻データ「8:30、8:10、8:40、8:20、10:00、8:30」から、平均値8:42と標準偏差±0:39から、「8:42±0:39」と計算される(図4では、それ以前のデータの存在により、電話受信時刻が「8:30±0:25」と計算されている)。また、電話無受信頻度は、存在する日時の日付データ「2/20、2/21、2/22、2/24、2/25、2/26」から、「3日に1回」などと推定される(図4では、それ以前のデータの存在により、電話無受信頻度が「5日±1日に1回」と計算されている)。
【0051】
更に、ステップS201の処理が実行される日時が2/28 10:10であったとすると、電話発信願望は、コール履歴テーブルに存在する日時の日付データ「2/20、2/21、2/22、2/24、2/25、2/26」、及び、情動テーブル内の電話受信時刻と電話無受信頻度から、2/23に電話が来なかつたために、+30%(=100%/3、小数第1位以下切り捨て、3は電話無受信頻度より)されたが、2/24、2/26の電話によって、それぞれ−10%(=30%/3、3は電許無受信頻度より)、2/25の電話は、電話受信時刻「8:42±0:39」の範囲を過ぎていたので±0%、2/27は電話なしで+30%、2/28は電話受信時刻「8:42±0:39」の範囲を過ぎているので現時点では+30%、ということで、+30%−10%−10%+30%+30%=70%と計算される。
【0052】
ステップS201の処理が終ると、次に、ステップS202の判断が実行され、個人属性格納部6に格納された情動テーブルの電話発信願望が100%以上ならばステップS203に分岐し、100%より小さければ、利用者1へ電話を発信するための処理の流れを終了し、次の利用者のコール履歴の統計処理が実行される。情動テーブル(図4)の例では、電話発信願望は「70%」と計算されているので、100%より小さいため、利用者1へ電話を発信するための処理の流れは終了する。仮に、ステップS201の処理が実行される日時が3/110:10であったとすると、2/28は電話無し、3/1は電話受信時刻「8:42±0:39」の範囲を過ぎているということで、70%+30%=100%となり、ステップS203に分岐することになる。
【0053】
利用者情報取得ステップ(S203)では、利用者の利用者情報を個人属性格納部6から取得して音声通信部2に転送する。つまり、ステップS203では、処理の対象となっている情動テーブル(図4)に対応したユーザIDを取得し、ユーザIDをキーとして個人属性格納部6に格納された個人情報テーブル(図2)を検索することで、電話をかけるべき電話番号を取得する。
【0054】
発信シナリオ合成ステップ(S204)では、、シナリオ管理部3が、発信タイミング決定ステップにより統計処理した結果と、個人属性記憶手段5に格納された個人情報と、シナリオ格納部4に格納された発信の内容及び発信の順序の雛型とに基づいて利用者に対して発信すべきシナリオを合成する。具体的には、ステップS204として「情動シナリオ」の作成を行う。「情動シナリオの作成」は、基本的には、前記したステップS107と同様の処理となるが、電話発信願望の値が100%以上と高いため、シナリオ格納部4から選択されるシナリオは、例えば、「長い間電話が無いので心配そうな」シナリオなどとなる。更に、電話発信願望の値が高くなるにつれ、だんだん怒った内容になってきたり、過激な会話内容になってきたりするとか、ドスの効いた声や、恐い男の声になるなどの応用例も考えられる。
【0055】
発信音声合成ステップ(S205)では、音声合成部7が、発信シナリオ合成ステップにより合成されたシナリオと音声情報格納部に格納された音声合成に用いる音声データとに基づいて、利用者に対する発信用の音声を合成する。
【0056】
音声通信発信ステップ(S206〜S209)では、音声通信部2が、利用者情報取得ステップにより転送された利用者情報に基づいて音声通信の発信を行い、発信用の音声を送信し、利用者からの応答を受信し、音声通信部2が受信した利用者からの応答をシナリオ管理部3が確認する。具体的には、個人属性管理部5におけるステップS206として、シナリオ管理部3へ、その情動シナリオを伝達する。シナリオ管理部3では、音声通信部2を用いて、ステップS203で取得した電話番号に対して電話発信を行う。
【0057】
情動シナリオが作成されたら、次に、ステップS207では、ステップS206で発信した電話に利用者1が応答したかどうかを判定し、応答した場合はステップS208へ、応答しない場合はステップS210へ分岐する。
【0058】
ステップS208では、前記ステップS109と同様に、合成されたシナリオを解析し、音声応答を行う単位に分割し、分割された音声応答の単位が、音声合成であれば、音声合成部7に音声合成の指示を伝達、利用者の応答待ちの場合は、音声通信部2に利用者の応答待ち指示を伝達し、音声応答を行う。
【0059】
音声合成部7もしくは音声通信部2における処理が終ったら、ステップS209として、前記ステップS110と同様に、ステップS208で音声応答を行う単位に分割されたシナリオが全て終了したかどうかを判定し、まだ残りがあるならステップS208に分岐して次の音声応答の単位を実行し、残りが無くてシナリオが終了したならステップS210に分岐して電話回線を切断する。
【0060】
データ書替ステップ(S211)では、個人属性管理部5が、音声通信発信ステップにより行われた通信の内容に応じて、個人属性格納部6のデータを書き替える。ステップS211では、シナリオ管理部3から個人属性管理部5へ、利用者1が応答したか、もしくは、利用者1との音声応答は最後まで続いたか、などの情報が伝達され、その情報を元に、個人属性格納部6に格納された情動テーブルを更新する。例えば、利用者1が応答しなかった場合には、情動テーブルの別のフィールド(「怒り」など)の値を増加させたり、利用者1が応答して通話が完了した場合には、情動テーブルの電話発信願望の値を減少させたりする。ステップS211が完了したら、利用者1へ電話を発信するための処理の流れは終了する。続いて次の利用者の処理を行う。
【0061】
以上のようにして、複数回の利用者による電話通話というサービス利用によって、利用者の利用履歴を蓄積し、利用履歴を統計処理することで、煩雑な設定なしに、起こして欲しい時刻などの個人化された内容で応対を行うことができるようにすることができ、仮想的な恋人との会話などのシチュエーションを持ったサービスに対しても違和感無く適用することができるシステムを提供することができる。
【0062】
本願の他の発明の実施形態に係る音声応答システムを示すブロック図を図8に示す。図8に記載したシステムは、音声通信部2、シナリオ管理部3、シナリオ格納部4、個人属性管理部5、個人属性格納部6、音声合成部7、音声情報格納部8、メール受付部9、メール配信部10から構成される。
【0063】
図8に示すシステムは、図1に示した本発明の実施形態に対し、メール受付部9、メール配信部10を追加することで、個人属性格納部6に格納された個人情報テーブル(図2)の更新による個人化を、電子メールによるやり取りを通じて行うことが出来るようにしたものである。具体的には、個人属性管理部5が、利用者に関する個人情報について音声通信部2により得られた情報及び電子メール受付部により受信された利用者からの電子メールの内容のうち、いずれか又は双方を解析することで個人情報を更新するシステムである。
【0064】
また、本システムの動作としては、個人属性管理部5が、利用者に関する個人情報について前記音声通信手段により得られた情報及び電子メール受付部9により受信された利用者からの電子メールの内容のうち、いずれか又は双方を解析することで個人情報を更新する個人情報更新ステップを含む。例えば、利用者1が「今日は会社で失敗した。悲しい。」などという電子メールをシステムに対し送信したとする。すると、メール受付部9では、その電子メールを受信し、構文解析を行うことで単語を抽出し、抽出された単語を個人属性管理部5に伝達する。
【0065】
個人属性管理部5では、受取った単語群を個人属性格納部6に格納された個人情報テーブル(図2)のフリーキーワードなどに登録することで、将来の応対に用いる個人情報を蓄積することができる。また、システム側は、個人属性格納部6に格納された個人情報テーブル(図2)の空き具合などをトリガーとして、メール配信部10にメール配信の指示を伝達し、利用者1へのメールを送信することもできる。例えば、個人情報テーブルの「趣味」の値が空だった場合に、個人属性管理部5から「趣味」のキーワードをシナリオ管理部3に伝達し、シナリオ管理部3では、「趣味」のキーワードに該当するシナリオをシナリオ格納部4から検索してメール配信部10に伝えることで、「ススム君、こんにちは!突然だけど、わたし、最近テニスを始めたの。ススム君の趣味は何?」などといった電子メールを利用者1に対して送信することができ、利用者1の応答メールによっては、前記したメール受付部9を用いることで、個人情報テーブルの「趣味」の値を補完することが可能となる。
【0066】
複数回の利用者による電話通話及び電子メールというサービス利用によって、利用者の利用履歴や個人情報を蓄積し、利用履歴の統計処理と個人情報によって、煩雑な設定なしに、起こして欲しい時刻などの個人化された内容で応対を行うことができるようにすることができ、仮想的な恋人との会話などのシチュエーションを持ったサービスに対しても違和感無く適用することができるシステムを提供することができる。例えば、利用者が落ち込んでいるときには、その旨電子メールを送信すると、好きな声で慰めや励ましの声を聞かせてくれたり、利用者が怒っていたらいさめてくれたりなど、様々な応用が考えられる。
【0067】
【発明の効果】
以上説明したように、本発明によれば、利用者による複数回のサービスを利用すると、利用者の利用履歴や個人情報を蓄積し統計処理することで、煩雑な設定なしに個人化された内容で応対を行うことができるようにすることができる。
更に利用者の好みの声とすることもできる。
【図面の簡単な説明】
【図1】 本発明の一の実施形態を示す、音声通信網を介して着信を自動的に音声応答を行う音声通信システムの構成を表すブロック図である。
【図2】 個人属性格納部6に格納される、個人情報テーブルを示す一例である。
【図3】 個人属性格納部6に格納される、コール履歴テーブルを示す一例である。
【図4】 個人属性格納部6に格納される、情動テーブルを示す一例である。
【図5】 本発明の一の実施形態に係る、音声通信網101を介して着信を受けた場合に自動的に音声応答を行う音声通信システムを用いた音声応答方法を示すフローチャートである。
【図6】 本発明の一実施形態における利用者からの電話を着信するための処理の流れにおいて合成されるシナリオの例である。
【図7】 本発明の他の一の実施形態に係る、音声通信網101を介して着信を受けた場合に自動的に音声応答を行う音声通信システムを用いた音声応答方法を示すフローチャートである。
【図8】 本発明の他の実施形態を示す、音声通信網を介して着信に対して自動的に音声応答を行う音声通信システムの構成を表すブロック図である。
【符号の説明】
1:利用者
2:音声通信部
3:シナリオ管理部
4:シナリオ格納部
5:個人属性管理部
6:個人属性格納部
7:音声合成部
8:音声情報格納部
101:通信網[0001]
BACKGROUND OF THE INVENTION
The present invention relates to a voice communication method and apparatus for performing a service such as a wake-up call using a voice synthesizer connected to a communication network. In particular, a voice communication method, a voice communication system, a voice communication program to be executed by a computer, and a computer to be executed by a user personalized content, a user's favorite voice, etc. The present invention relates to a computer-readable recording medium on which a voice communication program for recording is recorded.
[0002]
[Prior art]
As a conventional voice communication system, for example, there is a voice communication system used for a wake-up call service in a hotel or the like. This system calls a specific telephone number at the time that the user wants to wake up, operates the push phone, and registers it in the system. At that time, the telephone is called from the center of the communication system, and the user When the telephone is answered, a pre-recorded message, a voice mail incoming notification by the voice synthesizer, etc. are reproduced. This system can automatically provide services such as a wake-up call without intervention of an operator, and is currently widely used.
[0003]
In addition, as a generally provided system, a pre-recorded message or a voice synthesizer is provided by calling a specific telephone number and operating a push phone to convey information and preferences desired by the user to the communication system. There are some that are made to reproduce the reading of information by. This is also convenient for the service provider in that necessary information can be automatically opened without the intervention of the operator, and is currently used frequently.
[0004]
However, when a conventional communication system is used, it is necessary to make settings for the communication system by operating a push phone in order to use it for a wake-up call or the like. In addition, these are voices that are uniformly responded, so they not only get a dry impression for users, but also expect services such as conversations with virtual lovers for such systems. I can't do it. Furthermore, in general information services, etc., it is not possible to deal with individuals individually on how to communicate information and preferences desired by users to the communication system, and even when selecting information, it is limited to simple options. This also gives a tasteless and dry impression.
[0005]
Therefore, for those who provide these systems, a system that can provide a more detailed and personalized response service according to the user than a tasteless response to a user who uses frequently is desired. It was.
[0006]
[Problems to be solved by the invention]
SUMMARY OF THE INVENTION Accordingly, a first object of the present invention is to provide a system and method for responding personalized contents to a person who receives a response service using a voice communication system.
[0007]
The second object of the present invention is to accumulate user usage history and personal information and perform statistical processing by using the service multiple times by the user, so that personalized contents, for example, without complicated settings, for example, Another object of the present invention is to provide a system for responding to the user's favorite voice.
[0008]
Furthermore, the third object of the present invention is to spontaneously communicate with the user and further increase the degree of individualization for the user.
[0009]
[Means for Solving the Problems]
In order to achieve the above object, the present application takes the following measures.
[0010]
The first invention related to this patent application is:
Using a voice response system that automatically responds to voice calls when an incoming call is received via a communication network Voice communication method Because
A user information acquisition step in which the voice communication means acquires user information for identifying the user among the information transmitted from the user through the communication network;
The personal attribute management means compares the user information acquired in the user information acquisition step with the user information stored in the personal attribute storage means, and associates the user information with the user information to store the personal attribute A personal information identifying step for identifying personal information about the user stored in the means;
A response scenario in which a scenario management unit synthesizes a scenario for response to a user based on the personal information specified in the personal information specifying step, the response contents stored in the scenario storage unit, and the response sequence model A synthesis step;
The speech synthesis means Response scenario composition A response speech synthesis step of synthesizing speech for response to the user based on the scenario synthesized by the step and speech data used for speech synthesis stored in the speech information storage means;
The voice communication means transmits the response voice synthesized in the response voice synthesis step to the user, receives a response from the user, and the scenario management means receives the user received by the voice communication means. A voice response step to confirm the response from
A data rewriting step in which the personal attribute management means rewrites the data stored in the personal attribute storage means in accordance with the content of the communication performed in the voice response step; Consist of ,
The personal attribute management means determining the omission of personal information stored in the personal attribute storage means;
If it is determined that there is a missing part, the scenario management means compensates for the missing part of the personal information. Supplementary scenario Synthesize Complementary scenario synthesis Steps,
A mail distribution step in which a mail distribution means distributes the supplementary scenario to a user by e-mail; ,
A mail receiving step in which the mail receiving means receives a response email from the user; ,
The personal attribute management means displays the content of the received response e-mail. It further includes a personal information update step for updating the personal information by analysis. Voice communication method It is.
[0011]
The second invention related to this patent application is:
Automatically responds to voice calls when an incoming call is received via the communication network Voice communication device Because
Voice communication means for acquiring user information for identifying the user among the received information, transmitting a response voice, and receiving a response from the user;
Personal attribute storage means for storing user information acquired by the voice communication means and personal information related to the user in association with the user information;
The user information acquired by the voice communication means is compared with the user information stored in the personal attribute storage means to identify the personal information, and depending on the content of the communication performed by the voice communication means Personal attribute management means for rewriting the data stored in the personal attribute storage means,
Scenario storage means storing response contents and response order templates;
The voice communication means synthesizes a scenario for response to the user based on the personal information specified by the personal attribute management means and the response content stored in the scenario storage means and the response order model. Scenario management means to confirm the response from the received user,
Voice information storage means storing voice data used for voice synthesis;
Based on the scenario for response synthesized by the scenario management means and the voice data used for voice synthesis stored in the voice information storage means, the voice for response to the user is synthesized and transferred to the voice communication means. Speech synthesis means;
Mail delivery means for delivering supplemental scenarios to users via email ,
Mail receiving means for receiving response e-mail from users; ,
Including
The personal attribute management means determines whether the personal information stored in the personal attribute storage means is missing. ,
If it is determined that there is omission, the scenario management unit synthesizes a supplementary scenario that compensates for the missing portion of the personal information, and transmits an e-mail distribution instruction to the e-mail distribution unit. ,
A voice communication apparatus in which the personal attribute management means updates the personal information by analyzing the content of the response e-mail received by the mail receiving means It is.
[0012]
The third invention related to this patent application is
A voice communication method using a voice communication system that automatically transmits via a communication network,
User attribute information acquired by voice communication means that communicates with the user via the communication network and stored in the personal attribute storage means, the user obtained by communication with the user A transmission timing determination step for determining a timing at which a message should be transmitted to the user by statistically processing the history of the reception date and time among the personal information and the history information of the reception date and time from the user;
User information acquisition in which the personal attribute management means acquires user information of a user determined to be a timing to be transmitted in the transmission timing determination step from the personal attribute storage means and transfers it to the voice communication means Steps,
The scenario management means performs statistical processing in the transmission timing determination step, the personal information stored in the personal attribute storage means, the content of the transmission stored in the scenario storage means, and the template of the order of transmission An outgoing scenario synthesis step for synthesizing a scenario to be sent to a user based on
Speech synthesis means Is an outgoing voice synthesis step of synthesizing outgoing voice for the user based on the scenario synthesized by the outgoing scenario synthesis step and voice data used for voice synthesis stored in the voice information storage means;
The voice communication means transmits voice communication based on the user information transferred in the user information acquisition step, transmits the outgoing voice, receives a response from the user, and receives the voice communication. Voice communication transmission step in which the scenario management means confirms the response from the user received by the means;
A data rewriting step in which the personal attribute management means rewrites data stored in the personal attribute storage means in accordance with the content of the communication performed in the voice communication transmission step; Consist of ,
The personal attribute management means determining the omission of personal information stored in the personal attribute storage means;
If it is determined that there is a missing part, the scenario management means compensates for the missing part of the personal information. Supplementary scenario Synthesize Complementary scenario synthesis Steps,
A mail distribution step in which a mail distribution means distributes the supplementary scenario to a user by e-mail; ,
A mail receiving step in which the mail receiving means receives a response email from the user; ,
The personal attribute management means displays the content of the received response e-mail. The voice communication method further includes a personal information update step of updating personal information by analysis.
[0013]
The fourth invention related to this patent application is:
Calls automatically via the communication network Voice communication device Because
Voice communication means for communicating with the user using the user information of the user via the communication network;
Personal attribute storage means for storing the user information of the user, personal information of the user obtained through communication with the user and associated with the user information, and history information of the date and time of arrival from the user;
Determines when to send a message to the user by statistically processing the history of incoming date and time stored in the personal attribute storage means And departure The user information of the user determined to be the timing to be transmitted is acquired from the personal attribute storage means and transferred to the voice communication means, and the personal attribute according to the content of the communication performed by the voice communication means Personal attribute management means for rewriting data stored in the storage means;
Scenario storage means storing response contents and response order templates; ,
Based on the result of the statistical processing by the personal attribute management means, the personal information stored in the personal attribute storage means, the contents of the transmission stored in the scenario storage means, and the template of the order of transmission Scenario management means for synthesizing a scenario to be transmitted to the user and confirming a response from the user received by the voice communication means;
Voice information storage means storing voice data used for voice synthesis;
The voice synthesis for synthesizing a voice for transmission to a user based on the scenario synthesized by the scenario management means and voice data used for voice synthesis stored in the voice information storage means and transferring the voice to the voice communication means Means,
Mail delivery means for delivering supplemental scenarios to users via email ,
Mail receiving means for receiving response e-mail from users; ,
Including
The personal attribute management means determines whether the personal information stored in the personal attribute storage means is missing. ,
If it is determined that there is omission, the scenario management unit synthesizes a supplementary scenario that compensates for the missing portion of the personal information, and transmits an e-mail distribution instruction to the e-mail distribution unit. ,
A voice communication apparatus in which the personal attribute management means updates the personal information by analyzing the content of the response e-mail received by the mail receiving means It is.
[0014]
The fifth invention related to this patent application is the same as the first invention. Program for processing voice communication method by computer It is.
[0015]
The sixth invention relating to this patent application is the same as that of the third invention. Program for processing voice communication method by computer It is.
[0016]
The seventh invention related to this patent application is the fifth invention or the sixth invention. Computer-readable recording medium storing program It is.
[0017]
The recording medium in the present invention includes a medium recorded by electrical, magnetic, magneto-optical, optical means or the like.
[0018]
DETAILED DESCRIPTION OF THE INVENTION
Hereinafter, an embodiment of the present invention will be described with reference to the drawings.
FIG. 1 is a block diagram showing a configuration of a voice communication system that receives a call via the
[0019]
The system according to the present invention shown in FIG. 1 acquires user information for identifying a user from among received information for identifying a user, and transmits a response voice. A
[0020]
A
[0021]
The personal
[0022]
The operation of the system according to the present invention configured as described above will be described based on the flowchart of FIG. FIG. 5 is a flowchart showing a voice response method using a voice communication system that automatically makes a voice response when an incoming call is received via the
[0023]
In the voice response method using the voice communication system according to the present invention, the
[0024]
Normally, the system waits for an incoming call from the
[0025]
In the user information acquisition step (S102), the
[0026]
In the personal information specifying step (S103), the personal
[0027]
In step S104, the
[0028]
In step S105, since the caller ID <phone number> of the
[0029]
In step S106, since the caller number (telephone number) of the
[0030]
In the response scenario composition step (S107), the
[0031]
In the response speech synthesis step (S108), the
[0032]
In the voice response step (S109), the
[0033]
The
[0034]
In the response scenario synthesis step (S107), in addition to interpreting that the response has been made by acquiring that the user has continuously generated some voice, the voice response is advanced, for example, the
[0035]
In step S111, an instruction to disconnect the telephone line is transmitted to the
[0036]
In step S112, the personal
[0037]
FIG. 6 is an example of the scenario synthesized in step S107 in the process flow for receiving a call from the
[0038]
In addition, since a value is stored in the “hobby” field in the personal information table (FIG. 2), the following template that is the basis of the scenario as shown in FIG. 6 is acquired.
<VoiceBankScript version = “1.0”>
<Greet disp = “Introduction” subject = “greeting” time = “% time%” />
<Greet disp = "thanks" subject = "% call-method%"/>
<P> How is <personal-data name = "name"//> this morning? </ P>
<P> By the way, do you know my hobby?
<Pause />
<Personal-data name = “name” /> is <personal-data name = “hobby” />. </ P>
<Wait-reply />
<P> Wa Tashi is tennis. Please remember. </ P>
<P> So, <personal-data name = "name"/>,I'm fine today! </ P>
<Greet disp = “End” subject = “greeting” time = “% time%” />
≪ VoiceBankScript >
[0039]
The above template includes character strings such as “% time%” and “% call-method%”, and “% time%” is a character string corresponding to the current time, for example, “morning”, “ By replacing “% call-method%” with the incoming call method, in this case the character string “telephone”, the script of FIG. 6 is obtained. Depending on the value of each field of the personal information table (FIG. 2) and the value of each field of the emotion table (FIG. 4), for example, the train used, the place where you live, the weather today, By changing the searched template according to the biorhythm value, etc., it is possible to acquire a template having contents in accordance with each individual user. In the script shown in FIG. 6, a section starting with “<greet” and closed with the nearest “/>” represents “insert greeting”, and is a unit for performing one voice response. The attribute of this “Insert Greeting” section is represented by a character string surrounded by “” ”following“ disp = ”and“ subject = ”, and the attribute value of“ disp = ”is the position where the greeting sentence is placed The attribute value “Subject =” represents the subject of the greeting.
[0040]
In particular, when the attribute value of “subject =” is “greeting”, a greeting sentence at which time is specified with the “time =” attribute. A section starting with “<p>” and enclosed with “</ p>” represents a “paragraph”, which is also a unit for making one voice response. The section starting with “<personal-data” and closed with the nearest “/>” represents “insertion of personal information”, and is a field of the personal information table (FIG. 2) represented by the attribute value of “name =” Replaced with value. The section of <wait-reply /> represents “waiting for user response”, which is a unit for performing one voice response, and the response is made by acquiring that the user has continuously generated some voice. I interpret it as
[0041]
Therefore, in the process executed as step S109 by the
<Greet disp = “Introduction” subject = “greeting” time = “morning” />
→ Good morning!
<Greet disp = "thank you" subject = "phone"/>
→ Thank you for calling.
<P> How is <personal-data name = "name"//> this morning? </ P>
→ How are you going this morning?
<P> By the way, do you know my hobby?
<Pause />
<Personal-data name = “name” /> is <personal-data name = “hobby” />. </ P>
→ By the way, do you know my hobby? [pause] Susume is scuba diving.
<Wait-reply />
→ [Waiting for user response]
<P> Wa Tashi is tennis. Please remember. </ P>
→ Wa, Ta, and Shi are tennis. Please remember.
<P> So, <personal-data name = "name"/>,I'm fine today! </ P>
→ Well, Susumu, be fine today!
<Greet disp = “End” subject = “greeting” time = “morning” />
→ Bye-bye!
[0042]
Here, “[pause]” is a sequence for instructing “keep a breath” at the time of voice data synthesis in the
[0043]
The personal information table <FIG. 2> is a table that literally stores personal information such as name, telephone number, birthday, address, affiliation, and hobby. In the personal information table, personal information is stored using the user ID as a unique key. Based on the personal information table, the system determines the behavior of the system, such as associating a telephone number with an individual and responding based on specific personal information.
[0044]
The call history table (FIG. 3) is a table for recording calls from the
[0045]
The emotion table (FIG. 4) is estimated as a result of statistical processing of the call history table, which is estimated as a result of the statistical processing of the call history table, and the time when the
[0046]
As described above, by using a service called a telephone call by a plurality of users, the user's usage history is accumulated, and the usage history is statistically processed, so that personalized contents can be handled without complicated settings. It is possible to provide a system that can be applied to a service having a situation such as a conversation with a virtual lover without a sense of incongruity.
[0047]
FIG. 7 is a flowchart showing a voice response method using a voice communication system that automatically makes a voice response when an incoming call is received via the
[0048]
In the voice response method using the voice communication system according to the present invention, the personal
[0049]
In the personal
[0050]
For example, when there is a call history table as shown in FIG. 3 and for the sake of simplicity, it is assumed that the call history table data is 2 / 20˜, the telephone reception time is the time data “8:30” of the existing date and time. , 8:10, 8:40, 8:20, 10:00, 8:30 ”, the average value is calculated as 8: 42 ± 0: 39 from 8:42 and standard deviation ± 0: 39. (In FIG. 4, the telephone reception time is calculated as “8: 30 ± 0: 25” due to the presence of the previous data). In addition, the frequency of non-reception of the phone calls from date data “2/20, 2/21, 2/22, 2/24, 2/25, 2/26” of existing date and time to “once every 3 days”, etc. (In FIG. 4, due to the presence of data before that, the frequency of no call reception is calculated as “5 days ± once a day”).
[0051]
Further, assuming that the date and time when the process of step S201 is executed is 2/28 10:10, the telephone call desire is the date data “2/20, 2/21, 2/22” of the date and time existing in the call history table. , 2/24, 2/25, 2/26 ”, and from the phone reception time and the frequency of no call reception in the emotion table, + 30% (= 100% / 3, The number was rounded down to the first decimal place, 3 was from the frequency of no call reception), but it was -10% (= 30% / 3, 3 was from the frequency of no call reception) by 2/24 and 2/26 calls, respectively. , 2/25 telephones were over the range of the telephone reception time “8: 42 ± 0: 39”, so ± 0%, 2/27 without telephone + 30%, 2/28 telephone reception time “8 : 42 ± 0: 39 ”is past, so it is calculated as + 30% −10% −10% + 30% + 30% = 70%.
[0052]
When the processing in step S201 is completed, the determination in step S202 is executed. If the desire to make a call in the emotion table stored in the personal
[0053]
In the user information acquisition step (S203), the user information of the user is acquired from the personal
[0054]
In the outgoing scenario composition step (S204), the
[0055]
In the outgoing voice synthesizing step (S205), the
[0056]
In the voice communication transmission step (S206 to S209), the
[0057]
After the emotion scenario is created, next, in step S207, it is determined whether or not the
[0058]
In step S208, as in step S109, the synthesized scenario is analyzed and divided into units for performing voice response. If the unit of the divided voice response is voice synthesis, the
[0059]
When the processing in the
[0060]
In the data rewriting step (S211), the personal
[0061]
As described above, by using the service called telephone calls by multiple users, the user's usage history is accumulated, and the usage history is statistically processed, so that the individual who wants to wake up without complicated settings can be obtained. It is possible to provide a system that can be applied to services with situations such as conversations with virtual lovers. .
[0062]
FIG. 8 is a block diagram showing a voice response system according to another embodiment of the present invention. 8 includes a
[0063]
The system shown in FIG. 8 adds a mail reception unit 9 and a
[0064]
In addition, as the operation of this system, the personal
[0065]
In the personal
[0066]
By using services such as telephone calls and e-mails by multiple users, the user's usage history and personal information are accumulated, and the usage history statistical processing and personal information can be used to wake up without complicated settings. To provide a system that can be personalized and can be applied to services with situations such as a conversation with a virtual lover without any discomfort. it can. For example, if the user is depressed, sending an email to that effect will give you a voice of comfort or encouragement with your favorite voice, or if the user is angry, quit it, etc. It is done.
[0067]
【The invention's effect】
As described above, according to the present invention, when a user uses a service multiple times, the user's usage history and personal information are accumulated and statistically processed, so that the personalized content without complicated settings. It is possible to be able to respond with.
Furthermore, it can also be a user's favorite voice.
[Brief description of the drawings]
FIG. 1 is a block diagram showing the configuration of a voice communication system that automatically responds to incoming calls via a voice communication network according to an embodiment of the present invention.
FIG. 2 is an example showing a personal information table stored in a personal
FIG. 3 is an example showing a call history table stored in a personal
FIG. 4 is an example showing an emotion table stored in the personal
FIG. 5 is a flowchart showing a voice response method using a voice communication system that automatically makes a voice response when an incoming call is received via the
FIG. 6 is an example of a scenario that is combined in a process flow for receiving a call from a user according to an embodiment of the present invention.
FIG. 7 is a flowchart showing a voice response method using a voice communication system that automatically makes a voice response when an incoming call is received via the
FIG. 8 is a block diagram showing a configuration of a voice communication system that automatically makes a voice response to an incoming call via a voice communication network according to another embodiment of the present invention.
[Explanation of symbols]
1: User
2: Voice communication unit
3: Scenario Management Department
4: Scenario storage
5: Personal attribute management department
6: Personal attribute storage
7: Speech synthesis unit
8: Audio information storage
101: Communication network
Claims (7)
音声通信手段が、通信網を通じて利用者から送信された情報のうち利用者を特定するための利用者情報を取得する利用者情報取得ステップと、
個人属性管理手段が、前記利用者情報取得ステップにより取得された前記利用者情報と個人属性記憶手段に格納された利用者情報とを比較して、前記利用者情報と関連付けられて前記個人属性記憶手段に格納された利用者に関する個人情報を特定する個人情報特定ステップと、
シナリオ管理手段が、前記個人情報特定ステップにより特定された個人情報とシナリオ記憶手段に格納された応答の内容及び応答の順序の雛型とに基づいて利用者に対する応答用のシナリオを合成する応答シナリオ合成ステップと、
音声合成手段が、前記応答シナリオ合成ステップにより合成されたシナリオと音声情報記憶手段に格納された音声合成に用いる音声データとに基づいて利用者に対する応答用の音声を合成する応答音声合成ステップと、
前記音声通信手段が、前記応答音声合成ステップにより合成された応答用の音声を利用者に送信し、利用者からの応答を受信し、前記シナリオ管理手段が、前記音声通信手段の受信した利用者からの応答を確認する音声応答ステップと、
前記個人属性管理手段が、前記音声応答ステップにより行われた通信の内容に応じて前記個人属性記憶手段に格納されたデータを書き替えるデータ書替ステップとからなり、
前記個人属性管理手段が、前記個人属性記憶手段に格納された個人情報の抜けを判定するステップと、
抜けがあると判定された場合には、前記シナリオ管理手段が個人情報の抜けた部分を補う補完シナリオを合成する補完シナリオ合成ステップと、
メール配信手段が、前記補完シナリオを電子メールで利用者に配信するメール配信ステップと、
メール受信手段が、利用者からの応答電子メールを受信するメール受信ステップと、
前記個人属性管理手段が、受信した応答電子メールの内容を解析することで個人情報を更新する個人情報更新ステップをさらに含む
ことを特徴とする音声通信方法。A voice communication method using a voice response system that automatically performs a voice response when an incoming call is received via a communication network,
A user information acquisition step in which the voice communication means acquires user information for identifying the user among the information transmitted from the user through the communication network;
The personal attribute management means compares the user information acquired in the user information acquisition step with the user information stored in the personal attribute storage means, and associates the user information with the user information to store the personal attribute A personal information identifying step for identifying personal information about the user stored in the means;
A response scenario in which a scenario management unit synthesizes a scenario for response to a user based on the personal information specified in the personal information specifying step, the response contents stored in the scenario storage unit, and the response sequence model A synthesis step;
A speech synthesis unit that synthesizes speech for response to the user based on the scenario synthesized by the response scenario synthesis step and the speech data used for speech synthesis stored in the speech information storage unit;
The voice communication means transmits the response voice synthesized in the response voice synthesis step to the user, receives a response from the user, and the scenario management means receives the user received by the voice communication means. A voice response step to confirm the response from
The personal attribute management means consist with the personal attribute storing unit exchange data writing rewrite data stored in the step in accordance with the contents of the communication performed by the voice response step,
The personal attribute management means determining the omission of personal information stored in the personal attribute storage means;
If it is determined that there is missing is a complementary scenario synthesis step of synthesizing a complementary scenario the scenario management means compensate for the missing portion of the personal information,
An email delivery step in which an email delivery means delivers the supplementary scenario to the user by email ;
A mail receiving step in which the mail receiving means receives a response email from the user ;
The voice communication method , further comprising a personal information update step in which the personal attribute management means updates the personal information by analyzing the content of the received response e-mail .
受信した情報のうち利用者を特定するための利用者情報を取得し、応答用の音声を送信し、利用者からの応答を受信する音声通信手段と、
前記音声通信手段により取得された利用者情報と、前記利用者情報に関連付けて利用者に関する個人情報とを格納する個人属性記憶手段と、
前記音声通信手段により取得された前記利用者情報と前記個人属性記憶手段に格納されている利用者情報とを比較して前記個人情報を特定し、前記音声通信手段が行った通信の内容に応じて前記個人属性記憶手段に格納されたデータを書き替える個人属性管理手段と、
応答の内容及び応答の順序の雛型とが格納されたシナリオ記憶手段と、
前記個人属性管理手段により特定された個人情報と前記シナリオ記憶手段に格納された応答の内容及び応答の順序の雛型とに基づいて利用者に対する応答用のシナリオを合成し、前記音声通信手段が受信した利用者からの応答を確認するシナリオ管理手段と、
音声合成に用いる音声データを格納した音声情報記憶手段と、
前記シナリオ管理手段により合成された応答用のシナリオと前記音声情報記憶手段に格納された音声合成に用いる音声データとに基づいて利用者に対する応答用の音声を合成して前記音声通信手段に転送する音声合成手段と、
補完シナリオを電子メールで利用者に配信するメール配信手段と、
利用者からの応答電子メールを受信するメール受信手段と、
を含み、
前記個人属性管理手段が、前記個人属性記憶手段に格納された個人情報の抜けを判定し、
抜けがあると判定された場合には、前記シナリオ管理手段が個人情報の抜けた部分を補う補完シナリオを合成して、前記メール配信手段にメール配信の指示を伝達し、
前記個人属性管理手段が、メール受信手段が受信した応答電子メールの内容を解析することで個人情報を更新する
ことを特徴とする音声通信装置。A voice communication device that automatically responds to voice calls when an incoming call is received via a communication network;
Voice communication means for acquiring user information for identifying the user among the received information, transmitting a response voice, and receiving a response from the user;
Personal attribute storage means for storing user information acquired by the voice communication means and personal information related to the user in association with the user information;
The user information acquired by the voice communication means is compared with the user information stored in the personal attribute storage means to identify the personal information, and depending on the content of the communication performed by the voice communication means Personal attribute management means for rewriting the data stored in the personal attribute storage means,
Scenario storage means storing response contents and response order templates;
The voice communication means synthesizes a scenario for response to the user based on the personal information specified by the personal attribute management means and the response content stored in the scenario storage means and the response order model. Scenario management means to confirm the response from the received user,
Voice information storage means storing voice data used for voice synthesis;
Based on the scenario for response synthesized by the scenario management means and the voice data used for voice synthesis stored in the voice information storage means, the voice for response to the user is synthesized and transferred to the voice communication means. Speech synthesis means;
An email delivery means for delivering the supplementary scenario to users via email ;
A mail receiving means for receiving a response email from the user ;
Including
The personal attribute management means determines omission of personal information stored in the personal attribute storage means ;
When it is determined that there is omission, the scenario management unit synthesizes a supplementary scenario that compensates for the missing portion of personal information, and transmits an e-mail delivery instruction to the e-mail delivery unit ,
The voice communication apparatus, wherein the personal attribute management means updates the personal information by analyzing the content of the response e-mail received by the mail receiving means .
前記個人属性管理手段が、前記発信タイミング決定ステップにより発信すべきタイミングであると決定された利用者の利用者情報を前記個人属性記憶手段から取得して前記音声通信手段に転送する利用者情報取得ステップと、
シナリオ管理手段が、前記発信タイミング決定ステップにより統計処理した結果と、前記個人属性記憶手段に格納された個人情報と、シナリオ記憶手段に格納された発信の内容、及び発信の順序の雛型とに基づいて利用者に対して発信すべきシナリオを合成する発信シナリオ合成ステップと、
音声合成手段が、前記発信シナリオ合成ステップにより合成されたシナリオと音声情報記憶手段に格納された音声合成に用いる音声データとに基づいて利用者に対する発信用の音声を合成する発信音声合成ステップと、
前記音声通信手段が、前記利用者情報取得ステップにより転送された利用者情報に基づいて音声通信の発信を行い、前記発信用の音声を送信し、利用者からの応答を受信し、前記音声通信手段が受信した利用者からの応答を前記シナリオ管理手段が確認する音声通信発信ステップと、
前記個人属性管理手段が、前記音声通信発信ステップにより行われた通信の内容に応じて前記個人属性記憶手段に格納されたデータを書き替えるデータ書替ステップとからなり、
前記個人属性管理手段が、前記個人属性記憶手段に格納された個人情報の抜けを判定するステップと、
抜けがあると判定された場合には、前記シナリオ管理手段が個人情報の抜けた部分を補う補完シナリオを合成する補完シナリオ合成ステップと、
メール配信手段が、前記補完シナリオを電子メールで利用者に配信するメール配信ステップと、
メール受信手段が、利用者からの応答電子メールを受信するメール受信ステップと、
前記個人属性管理手段が、受信した応答電子メールの内容を解析することで個人情報を更新する個人情報更新ステップをさらに含む
ことを特徴とする音声通信方法。A voice communication method using a voice communication system that automatically transmits via a communication network, wherein the personal attribute management means is acquired by the voice communication means that communicates with the user via the communication network and stores personal attributes. By statistically processing the user's user information stored in the means, the user's personal information obtained by communication with the user, and the history of the date and time of incoming calls from the user. A transmission timing determination step for determining a timing at which a message should be transmitted to the user;
User information acquisition in which the personal attribute management means acquires user information of a user determined to be a timing to be transmitted in the transmission timing determination step from the personal attribute storage means and transfers it to the voice communication means Steps,
The scenario management means performs statistical processing in the transmission timing determination step, the personal information stored in the personal attribute storage means, the content of the transmission stored in the scenario storage means, and the template of the order of transmission An outgoing scenario synthesis step for synthesizing a scenario to be sent to a user based on
A voice synthesis unit that synthesizes a voice for transmission to the user based on the scenario synthesized by the transmission scenario synthesis step and voice data used for voice synthesis stored in the voice information storage unit;
The voice communication means transmits voice communication based on the user information transferred in the user information acquisition step, transmits the outgoing voice, receives a response from the user, and receives the voice communication. Voice communication transmission step in which the scenario management means confirms the response from the user received by the means;
The personal attribute management means consist with the personal attribute storing unit exchange data writing rewrite data stored in the step in accordance with the contents of the communication performed by said voice communication emission step,
The personal attribute management means determining the omission of personal information stored in the personal attribute storage means;
If it is determined that there is missing is a complementary scenario synthesis step of synthesizing a complementary scenario the scenario management means compensate for the missing portion of the personal information,
An email delivery step in which an email delivery means delivers the supplementary scenario to the user by email ;
A mail receiving step in which the mail receiving means receives a response email from the user ;
The voice communication method further comprising a personal information update step in which the personal attribute management means updates the personal information by analyzing the content of the received response e-mail .
通信網を介して利用者の利用者情報を用いて利用者と通信を行う音声通信手段と、
利用者の前記利用者情報、利用者との通信により得られ前記利用者情報と関連付けられた利用者の個人情報、及び利用者からの着信日時の履歴情報を格納した個人属性記憶手段と、
個人属性記憶手段に格納された着信日時の履歴を統計処理することによって利用者に対してメッセージを発信すべきタイミングを決定し、発信すべきタイミングであると決定された利用者の利用者情報を前記個人属性記憶手段から取得して前記音声通信手段に転送し、前記音声通信手段が行った通信の内容に応じて前記個人属性記憶手段に格納されたデータを書き替える個人属性管理手段と、
応答の内容及び応答の順序の雛型とが格納されたシナリオ記憶手段と、
前記個人属性管理手段が統計処理した結果と、前記個人属性記憶手段に格納された個人情報と、シナリオ記憶手段に格納された発信の内容、及び発信の順序の雛型とに基づいて利用者に対して発信すべきシナリオを合成し、前記音声通信手段が受信した利用者からの応答を確認するシナリオ管理手段と、
音声合成に用いる音声データを格納した音声情報記憶手段と、
前記シナリオ管理手段により合成されたシナリオと前記音声情報記憶手段に格納された音声合成に用いる音声データとに基づいて利用者に対する発信用の音声を合成して前記音声通信手段に転送する前記音声合成手段と、
補完シナリオを電子メールで利用者に配信するメール配信手段と、
利用者からの応答電子メールを受信するメール受信手段と、
を含み、
前記個人属性管理手段が、前記個人属性記憶手段に格納された個人情報の抜けを判定し、
抜けがあると判定された場合には、前記シナリオ管理手段が個人情報の抜けた部分を補う補完シナリオを合成して、前記メール配信手段にメール配信の指示を伝達し、
前記個人属性管理手段が、メール受信手段が受信した応答電子メールの内容を解析することで個人情報を更新する
ことを特徴とする音声通信装置。A voice communication device that automatically makes a call via a communication network,
Voice communication means for communicating with the user using the user information of the user via the communication network;
Personal attribute storage means for storing the user information of the user, personal information of the user obtained through communication with the user and associated with the user information, and history information of the date and time of arrival from the user;
Determining when to transmit a message to the user by statistically processing the history of the incoming date stored in the personal attribute storage unit, the user of the user information that has been determined to be the timing to disseminate Is acquired from the personal attribute storage means and transferred to the voice communication means, and personal attribute management means for rewriting the data stored in the personal attribute storage means according to the content of the communication performed by the voice communication means;
Scenario storage means storing response contents and response order templates ;
Based on the result of the statistical processing by the personal attribute management means, the personal information stored in the personal attribute storage means, the contents of the transmission stored in the scenario storage means, and the template of the order of transmission Scenario management means for synthesizing a scenario to be transmitted to the user and confirming a response from the user received by the voice communication means;
Voice information storage means storing voice data used for voice synthesis;
The voice synthesis for synthesizing a voice for transmission to a user based on the scenario synthesized by the scenario management means and voice data used for voice synthesis stored in the voice information storage means and transferring the voice to the voice communication means Means,
An email delivery means for delivering the supplementary scenario to users via email ;
A mail receiving means for receiving a response email from the user ;
Including
The personal attribute management means determines omission of personal information stored in the personal attribute storage means ;
When it is determined that there is omission, the scenario management unit synthesizes a supplementary scenario that compensates for the missing portion of personal information, and transmits an e-mail delivery instruction to the e-mail delivery unit ,
The voice communication apparatus, wherein the personal attribute management means updates the personal information by analyzing the content of the response e-mail received by the mail receiving means .
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2002203601A JP3847674B2 (en) | 2002-07-12 | 2002-07-12 | Audio communication method, audio communication apparatus, program, and recording medium |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2002203601A JP3847674B2 (en) | 2002-07-12 | 2002-07-12 | Audio communication method, audio communication apparatus, program, and recording medium |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2004048416A JP2004048416A (en) | 2004-02-12 |
JP3847674B2 true JP3847674B2 (en) | 2006-11-22 |
Family
ID=31709427
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2002203601A Expired - Fee Related JP3847674B2 (en) | 2002-07-12 | 2002-07-12 | Audio communication method, audio communication apparatus, program, and recording medium |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP3847674B2 (en) |
Families Citing this family (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US8155624B2 (en) | 2005-04-29 | 2012-04-10 | Microsoft Corporation | Automatic wireless device message management responsive to end user preferences |
JP2010141837A (en) * | 2008-12-15 | 2010-06-24 | Nec Corp | Answering machine system, method of controlling the same, and program of the same |
CN105094315B (en) * | 2015-06-25 | 2018-03-06 | 百度在线网络技术(北京)有限公司 | The method and apparatus of human-machine intelligence's chat based on artificial intelligence |
JP6741322B1 (en) * | 2019-11-07 | 2020-08-19 | Jeインターナショナル株式会社 | Automatic transmission system, processing method, and program |
Family Cites Families (7)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPH10222178A (en) * | 1997-02-04 | 1998-08-21 | Brother Ind Ltd | Request system |
JP3450175B2 (en) * | 1998-02-19 | 2003-09-22 | 富士通株式会社 | Operator response scenario system |
JP2952771B1 (en) * | 1998-05-15 | 1999-09-27 | 直之 宮山 | Customer information collection and distribution system |
US6760428B2 (en) * | 1999-07-30 | 2004-07-06 | Avaya Technology Corp. | Modification of voice prompting based on prior communication in a call center |
JP2001119473A (en) * | 1999-10-20 | 2001-04-27 | Shimadzu Business Systems Corp | Message transmission system |
JP2001136272A (en) * | 1999-11-02 | 2001-05-18 | Oki Electric Ind Co Ltd | Automatic answering device |
JP2001309051A (en) * | 2000-04-17 | 2001-11-02 | Toshiba Corp | Automatic call device |
-
2002
- 2002-07-12 JP JP2002203601A patent/JP3847674B2/en not_active Expired - Fee Related
Also Published As
Publication number | Publication date |
---|---|
JP2004048416A (en) | 2004-02-12 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US8660038B1 (en) | Previewing voicemails using mobile devices | |
US20030109251A1 (en) | System and method for distributing ring tone data used for generating ring tone of mobile phones | |
US20040146150A1 (en) | Method for populating a caller's information to a host-based address book | |
EP2022242B1 (en) | Dynamic speed dial number mapping | |
CN1347237A (en) | Data record system for memory of telephone calling content of interphone and mobile phone | |
JP2006524962A (en) | Method and apparatus for a dynamically customizable smart phone book | |
US20110076995A1 (en) | System and method for providing multimedia object linked to mobile communication network | |
US7542552B2 (en) | Method and apparatus for generating default personal greetings using text to speech conversion | |
JP4627281B2 (en) | Communication support system, communication support method, and communication support program | |
US9167084B2 (en) | Apparatus and method for providing call connection notification to a caller by displaying public relation (PR) information of a callee | |
KR100881657B1 (en) | System for providing widzet type idle-screen | |
CN101150820A (en) | A method for realizing no disturbance service in mobile terminal | |
CN102045462B (en) | Method and apparatus for unified interface for heterogeneous session management | |
JP3847674B2 (en) | Audio communication method, audio communication apparatus, program, and recording medium | |
WO2002039422A2 (en) | Voice telephone book service system using voice recognition and method thereof | |
JP2009147399A (en) | Telephone relaying device, telephone relaying method, and program for telephone relay | |
JP2004282609A (en) | Tone information providing system | |
US7606352B2 (en) | Method and system of processing messages | |
CN101056337B (en) | Method and system for integrated representation of the multiple music services | |
KR100512048B1 (en) | Method to serve the reservation call | |
US20130136246A1 (en) | Initiating a telephonic connection | |
CN111953839A (en) | Address book updating method, server, terminal and storage medium | |
JP2002304392A (en) | Voice translation system | |
JP4121894B2 (en) | Message accumulation state management server and message accumulation state management system | |
JP2007142691A (en) | Mobile phone, simulated conversation method, and program thereof |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20040720 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20060427 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20060516 |
|
A521 | Written amendment |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20060714 |
|
RD02 | Notification of acceptance of power of attorney |
Free format text: JAPANESE INTERMEDIATE CODE: A7422 Effective date: 20060731 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20060822 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20060823 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20090901 Year of fee payment: 3 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20100901 Year of fee payment: 4 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20100901 Year of fee payment: 4 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20110901 Year of fee payment: 5 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20120901 Year of fee payment: 6 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20130901 Year of fee payment: 7 |
|
S531 | Written request for registration of change of domicile |
Free format text: JAPANESE INTERMEDIATE CODE: R313531 |
|
R350 | Written notification of registration of transfer |
Free format text: JAPANESE INTERMEDIATE CODE: R350 |
|
LAPS | Cancellation because of no payment of annual fees |