Nothing Special   »   [go: up one dir, main page]

JP3847674B2 - Audio communication method, audio communication apparatus, program, and recording medium - Google Patents

Audio communication method, audio communication apparatus, program, and recording medium Download PDF

Info

Publication number
JP3847674B2
JP3847674B2 JP2002203601A JP2002203601A JP3847674B2 JP 3847674 B2 JP3847674 B2 JP 3847674B2 JP 2002203601 A JP2002203601 A JP 2002203601A JP 2002203601 A JP2002203601 A JP 2002203601A JP 3847674 B2 JP3847674 B2 JP 3847674B2
Authority
JP
Japan
Prior art keywords
user
voice
scenario
response
information
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
JP2002203601A
Other languages
Japanese (ja)
Other versions
JP2004048416A (en
Inventor
健也 鈴木
浩太 日高
大介 滝川
徹 定方
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Nippon Telegraph and Telephone Corp
Original Assignee
Nippon Telegraph and Telephone Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Nippon Telegraph and Telephone Corp filed Critical Nippon Telegraph and Telephone Corp
Priority to JP2002203601A priority Critical patent/JP3847674B2/en
Publication of JP2004048416A publication Critical patent/JP2004048416A/en
Application granted granted Critical
Publication of JP3847674B2 publication Critical patent/JP3847674B2/en
Anticipated expiration legal-status Critical
Expired - Fee Related legal-status Critical Current

Links

Images

Landscapes

  • Telephonic Communication Services (AREA)

Description

【0001】
【発明の属する技術分野】
本発明は、通信網に接続された音声合成装置等を利用して、モーニングコール等のサービスを行うための音声通信方法及びその装置に関する。特に、利用者に対して個人化された内容、利用者の好みの声などによって、応対を行うことができる音声通信方法、音声通信システム、コンピュータに実行させるための音声通信プログラム、コンピュータに実行させるための音声通信プログラムを記録したコンピュータ読み取り可能な記録媒体に関する。
【0002】
【従来の技術】
従来の音声通信システムとしては、例えばホテル等においてモーニングコール・サービス等に利用されている音声通信システムがある。このシステムは、利用者が起こして欲しい時刻を特定の電話番号に電話してプッシュホン操作してシステムに登録することにより、その時刻になると通信システムのセンタ側から電話が発呼され、利用者がその電話に出るとあらかじめ録音されたメッセージや、音声合成装置によるボイスメール着信の通知等が再生されるものである。このシステムは、オペレータの手を介さずに、モーニングコールなどのサービスを自動的に行えるものであり、現在よく利用されている。
【0003】
また、一般的に提供されているシステムとしては、特定の電話番号に電話してプッシュホン操作して利用者の欲しい情報や好みを通信システムに伝えることで、あらかじめ録音されたメッセージや、音声合成装置による情報の朗読などが再生されるようにしているものがある。これもまた、オペレータの手を介さず自動的に必要な情報を開くことができるという点でサービス提供者に便宜であり、現在よく利用されている。
【0004】
しかし、従来の通信システムを用いた場合、モーニングコール等に利用するには、通信システムへのプッシュホン操作による設定が必要であり煩雑である。また、これらは画一的に応答される音声であるため利用者としても無味乾燥的な印象を受けるばかりか、このようなシステムに対しては、仮想的な恋人との会話などといったサービスを期待することはできない。さらに、一般的な情報サービス等では、利用者の欲しい情報や好みを通信システムに伝える方法について個人個人に対応することはできず、情報の選択にしても、単純な選択肢のみに限定されるものであり、これもまた、無味乾燥的な印象を受けてしまう。
【0005】
よって、これらのシステムを提供する者にとっては、頻繁に利用する利用者に対し、無味乾燥的な応答よりも利用者に応じたよりきめの細かい個別化された応答サービスを提供し得るシステムが望まれていた。
【0006】
【発明が解決しようとする課題】
そこで、本発明の第1の目的は、音声通信システムを利用して応答サービスを受ける者に対し、個別化された内容の応答を行うシステム及びその方法を提供することにある。
【0007】
本発明の第2の目的は、利用者による複数回のサービスの利用によって、利用者の利用履歴や個人情報を蓄積し統計処理することで、煩雑な設定なしに、個人化された内容、例えば、利用者の好みの声等によって応対を行うシステムを提供することにある。
【0008】
さらに本発明の第3の目的は、利用者に対して自発的に通信を行い、利用者に対しての個別化の度合いをさらに高めることにある。
【0009】
【課題を解決するための手段】
上記目的を達成するために、本件出願は以下の手段を講ずる。
【0010】
本件特許出願に係わる第1の発明は、
通信網を介して着信を受けた場合に自動的に音声応答を行う音声応答システムを用いた音声通信方法であって、
音声通信手段が、通信網を通じて利用者から送信された情報のうち利用者を特定するための利用者情報を取得する利用者情報取得ステップと、
個人属性管理手段が、前記利用者情報取得ステップにより取得された前記利用者情報と個人属性記憶手段に格納された利用者情報とを比較して、前記利用者情報と関連付けられて前記個人属性記憶手段に格納された利用者に関する個人情報を特定する個人情報特定ステップと、
シナリオ管理手段が、前記個人情報特定ステップにより特定された個人情報とシナリオ記憶手段に格納された応答の内容及び応答の順序の雛型とに基づいて利用者に対する応答用のシナリオを合成する応答シナリオ合成ステップと、
音声合成手段が、前記応答シナリオ合成ステップにより合成されたシナリオと音声情報記憶手段に格納された音声合成に用いる音声データとに基づいて利用者に対する応答用の音声を合成する応答音声合成ステップと、
前記音声通信手段が、前記応答音声合成ステップにより合成された応答用の音声を利用者に送信し、利用者からの応答を受信し、前記シナリオ管理手段が、前記音声通信手段の受信した利用者からの応答を確認する音声応答ステップと、
前記個人属性管理手段が、前記音声応答ステップにより行われた通信の内容に応じて前記個人属性記憶手段に格納されたデータを書き替えるデータ書替ステップとからなり
前記個人属性管理手段が、前記個人属性記憶手段に格納された個人情報の抜けを判定するステップと、
抜けがあると判定された場合には、前記シナリオ管理手段が個人情報の抜けた部分を補う補完シナリオを合成する補完シナリオ合成ステップと、
メール配信手段が、前記補完シナリオを電子メールで利用者に配信するメール配信ステップと
メール受信手段が、利用者からの応答電子メールを受信するメール受信ステップと
前記個人属性管理手段が、受信した応答電子メールの内容を解析することで個人情報を更新する個人情報更新ステップをさらに含む音声通信方法である。
【0011】
本件特許出願に係わる第2の発明は、
通信網を介して着信を受けた場合に自動的に音声応答を行う音声通信装置であって、
受信した情報のうち利用者を特定するための利用者情報を取得し、応答用の音声を送信し、利用者からの応答を受信する音声通信手段と、
前記音声通信手段により取得された利用者情報と、前記利用者情報に関連付けて利用者に関する個人情報とを格納する個人属性記憶手段と、
前記音声通信手段により取得された前記利用者情報と前記個人属性記憶手段に格納されている利用者情報とを比較して前記個人情報を特定し、前記音声通信手段が行った通信の内容に応じて前記個人属性記憶手段に格納されたデータを書き替える個人属性管理手段と、
応答の内容及び応答の順序の雛型とが格納されたシナリオ記憶手段と、
前記個人属性管理手段により特定された個人情報と前記シナリオ記憶手段に格納された応答の内容及び応答の順序の雛型とに基づいて利用者に対する応答用のシナリオを合成し、前記音声通信手段が受信した利用者からの応答を確認するシナリオ管理手段と、
音声合成に用いる音声データを格納した音声情報記憶手段と、
前記シナリオ管理手段により合成された応答用のシナリオと前記音声情報記憶手段に格納された音声合成に用いる音声データとに基づいて利用者に対する応答用の音声を合成して前記音声通信手段に転送する音声合成手段と、
補完シナリオを電子メールで利用者に配信するメール配信手段と
利用者からの応答電子メールを受信するメール受信手段と
を含み、
前記個人属性管理手段が、前記個人属性記憶手段に格納された個人情報の抜けを判定し
抜けがあると判定された場合には、前記シナリオ管理手段が個人情報の抜けた部分を補う補完シナリオを合成して、前記メール配信手段にメール配信の指示を伝達し
前記個人属性管理手段が、メール受信手段が受信した応答電子メールの内容を解析することで個人情報を更新する音声通信装置である。
【0012】
本件特許出願に係わる第3の発明は、
通信網を介して自動的に発信を行う音声通信システムを用いた音声通信方法であって、
個人属性管理手段が、通信網を介して利用者と通信を行う音声通信手段により取得され個人属性記憶手段に格納された、利用者の利用者情報、利用者との通信により得られた利用者の個人情報、及び利用者からの着信日時の履歴情報のうち着信日時の履歴を統計処理することによって利用者に対してメッセージを発信すべきタイミングを決定する発信タイミング決定ステップと、
前記個人属性管理手段が、前記発信タイミング決定ステップにより発信すべきタイミングであると決定された利用者の利用者情報を前記個人属性記憶手段から取得して前記音声通信手段に転送する利用者情報取得ステップと、
シナリオ管理手段が、前記発信タイミング決定ステップにより統計処理した結果と、前記個人属性記憶手段に格納された個人情報と、シナリオ記憶手段に格納された発信の内容、及び発信の順序の雛型とに基づいて利用者に対して発信すべきシナリオを合成する発信シナリオ合成ステップと、
音声合成手段が、前記発信シナリオ合成ステップにより合成されたシナリオと音声情報記憶手段に格納された音声合成に用いる音声データとに基づいて利用者に対する発信用の音声を合成する発信音声合成ステップと、
前記音声通信手段が、前記利用者情報取得ステップにより転送された利用者情報に基づいて音声通信の発信を行い、前記発信用の音声を送信し、利用者からの応答を受信し、前記音声通信手段が受信した利用者からの応答を前記シナリオ管理手段が確認する音声通信発信ステップと、
前記個人属性管理手段が、前記音声通信発信ステップにより行われた通信の内容に応じて前記個人属性記憶手段に格納されたデータを書き替えるデータ書替ステップとからなり
前記個人属性管理手段が、前記個人属性記憶手段に格納された個人情報の抜けを判定するステップと、
抜けがあると判定された場合には、前記シナリオ管理手段が個人情報の抜けた部分を補う補完シナリオを合成する補完シナリオ合成ステップと、
メール配信手段が、前記補完シナリオを電子メールで利用者に配信するメール配信ステップと
メール受信手段が、利用者からの応答電子メールを受信するメール受信ステップと
前記個人属性管理手段が、受信した応答電子メールの内容を解析することで個人情報を更新する個人情報更新ステップをさらに含む音声通信方法である。
【0013】
本件特許出願に係わる第4の発明は、
通信網を介して自動的に発信を行う音声通信装置であって、
通信網を介して利用者の利用者情報を用いて利用者と通信を行う音声通信手段と、
利用者の前記利用者情報、利用者との通信により得られ前記利用者情報と関連付けられた利用者の個人情報、及び利用者からの着信日時の履歴情報を格納した個人属性記憶手段と、
個人属性記憶手段に格納された着信日時の履歴を統計処理することによって利用者に対してメッセージを発信すべきタイミングを決定し、発信すべきタイミングであると決定された利用者の利用者情報を前記個人属性記憶手段から取得して前記音声通信手段に転送し、前記音声通信手段が行った通信の内容に応じて前記個人属性記憶手段に格納されたデータを書き替える個人属性管理手段と、
応答の内容及び応答の順序の雛型とが格納されたシナリオ記憶手段と
前記個人属性管理手段が統計処理した結果と、前記個人属性記憶手段に格納された個人情報と、シナリオ記憶手段に格納された発信の内容、及び発信の順序の雛型とに基づいて利用者に対して発信すべきシナリオを合成し、前記音声通信手段が受信した利用者からの応答を確認するシナリオ管理手段と、
音声合成に用いる音声データを格納した音声情報記憶手段と、
前記シナリオ管理手段により合成されたシナリオと前記音声情報記憶手段に格納された音声合成に用いる音声データとに基づいて利用者に対する発信用の音声を合成して前記音声通信手段に転送する前記音声合成手段と、
補完シナリオを電子メールで利用者に配信するメール配信手段と
利用者からの応答電子メールを受信するメール受信手段と
を含み、
前記個人属性管理手段が、前記個人属性記憶手段に格納された個人情報の抜けを判定し
抜けがあると判定された場合には、前記シナリオ管理手段が個人情報の抜けた部分を補う補完シナリオを合成して、前記メール配信手段にメール配信の指示を伝達し
前記個人属性管理手段が、メール受信手段が受信した応答電子メールの内容を解析することで個人情報を更新する音声通信装置である。
【0014】
本件特許出願に係わる第5の発明は、第1の発明の音声通信方法をコンピュータで処理させるためのプログラムである。
【0015】
本件特許出願に係わる第6の発明は、第3の発明の音声通信方法をコンピュータで処理させるためのプログラムである。
【0016】
本件特許出願に係わる第7の発明は、第5の発明または第6の発明のプログラムを格納したコンピュータ読み取り可能な記録媒体である。
【0017】
本発明における記録媒体には、電気的、磁気的、磁気光学的、光学的手段等によって記録される媒体を含むものとする。
【0018】
【発明の実施の形態】
以下、本発明の一の実施の形態について、図面を用いて説明する。
図1は、本発明の一実施形態に係る、音声通信網101を介して着信を行い、自動的に音声応答を行う音声通信システムの構成を表すブロック図である。
【0019】
図1に示す本発明に係るシステムは、受信した情報のうち利用者を特定するための受信した情報のうち利用者を特定するための利用者情報を取得し、応答用の音声を送信し、利用者からの応答を受信する音声通信部2と、音声通信部2により取得された発信番号と、発信番号に関連付けて利用者に関する個人情報を格納する個人属性格納部6と、前記音声通信部により取得された発信番号と個人属性記憶部2に格納されている発信番号とを比較して前記個人情報を特定し、音声通信部2が行った通信の内容に応じて個人属性格納部6に格納されたデータを書き替える個人属性管理部5と、応答の内容及び応答の順序の雛型とが格納されたシナリオ格納部4と、個人属性格納部6により特定された個人情報とシナリオ格納部4に格納された応答の内容及び応答の順序の雛型とに基づいて、利用者に対する応答用のシナリオを合成し、音声通信部2が受信した利用者からの応答を確認するシナリオ管理部3と、音声合成に用いる音声データを格納した音声情報格納部8と、シナリオ管理部3により合成された応答用のシナリオと音声情報格納部8に格納された音声合成に用いる音声データとに基づいて、利用者に対する応答用の音声を合成して音声通信部2に転送する音声合成部7とから構成される。
【0020】
利用者1は、本発明の一実施形態に係る音声通信システムの利用者を表し、固定電話や携帯電話、インターネット電話、その他あらゆる音声電話、さらには、音声により通信されるすべての機器を用いて本発明のシステムに発呼する。本実施の形態では電話を用いて説明する。利用者1の利用する電話は、利用者情報として、例えば、発信者番号通知のような、利用者1を特定することができる情報を同時に通知できる機能を持っていることとする。この利用者情報は電話番号に限定されるものではないのはもちろんである。音声通信部2は、受信した情報のうち利用者を特定するための発信電話番号を取得し、応答用の音声を送信し、利用者からの応答を受信する。個人属性格納部6は、音声通信部2により取得された発信番号と、発信番号に関連付けて利用者に関する個人情報を格納する。個人属性格納部6には、図2乃至図4に示したような個人情報テーブル(図2)、コール履歴テーブル(図3)、情動テーブル(図4)、が格納されており、個人属性管理部5によって管理される。図2に示す個人情報テーブルは、氏名、電話番号、誕生日、住所、所属、趣味など、文字通り、個人情報を格納するテーブルである。個人情報テーブルでは、ユーザIDをユニーク・キーとして個人情報を格納する。図2の個人情報テーブルは、電話番号と個人の対応をつけ、特定の個人情報に基づく応対を行う等のシステムの挙動を決定する。
【0021】
個人属性管理部5は、音声通信部2により取得された発信番号と個人属性格納部6に格納されている発信番号とを比較して前記個人情報を特定し、音声通信部2が行った通信の内容に応じて個人属性格納部6に格納されたデータを書き替える。シナリオ格納部4には、応答の内容及び応答の順序の雛型とが格納されている。シナリオ管理部3は、個人属性格納部6により特定された個人情報とシナリオ格納部4に格納された応答の内容及び応答の順序の雛型とに基づいて、利用者に対する応答用のシナリオを合成し、音声通信部2が受信した利用者からの応答を確認する。音声情報格納部8には、音声合成に用いる音声データが格納される。音声合成部7は、シナリオ管理部3により合成された応答用のシナリオと音声情報格納部8に格納された音声合成に用いる音声データとに基づいて、利用者に対する応答用の音声を合成して音声通信部2に転送する。
【0022】
以上により構成された本発明に係るシステムの動作を図5のフローチャートに基づいて説明する。図5は、本発明の一の実施形態に係る、音声通信網101を介して着信を受けた場合に自動的に音声応答を行う音声通信システムを用いた音声応答方法を示すフローチャートである。
【0023】
本発明に係る音声通信システムを用いた音声応答方法は、音声通信部2が、音声通信網を通じて利用者から送信された情報のうち利用者を特定するための利用者情報を取得する、利用者情報取得ステップ(S102)と、個人属性管理部5が、音声通信部2により取得された発信番号と個人属性格納部6に格納された発信番号とを比較して、発信番号と関連付けられて前記個人属性記憶手段に格納された利用者に関する個人情報を特定する個人情報特定ステップ(S103)と、シナリオ管理部3が、個人情報特定ステップ(S103)により特定された個人情報とシナリオ格納部4に格納された応答の内容及び応答の順序の雛型とに基づいて、利用者に対する応答用のシナリオを合成する、応答シナリオ合成ステップ(S107)と、音声合成部7が、シナリオ合成ステップ(S107)により合成されたシナリオと音声情報格納部8に格納された音声合成に用いる音声データとに基づいて、利用者に対する応答用の音声を合成する応答音声合成ステップ(S108)と、音声通信部2が、応答音声合成ステップにより合成された応答用の音声を利用者に送信する音声応答ステップ(S109)と、個人属性管理部5が、音声応答ステップ(S109)により行われた通信の内容に応じて前記個人属性格納部6に格納されたデータを書き替えるデータ書替ステップ(S112)とを含む。
【0024】
通常、システムは、音声通信部2において、ステップS101の条件判定を用いたループによって、利用者1からの電話着信を待っている。
【0025】
利用者情報取得ステップ(S102)では、音声通信部2が、音声通信網を通じて利用者から送信された情報のうち利用者を特定するための利用者情報を取得する。具体的には、音声通信部2は、利用者1からの電話を着信すると、利用者1の利用者番号(電話番号)を取得し、シナリオ管理部3に通知する。
【0026】
個人情報特定ステップ(S103)では、個人属性管理部5が、音声通信部2により取得された発信番号と個人属性格納部6に格納された発信番号とを比較して、発信番号と関連付けられて前記個人属性記憶手段に格納された利用者に関する個人情報を特定する。具体的には、シナリオ管理部3では、音声通信部2から、利用者1の発信者番号(電話番号)が通知されると、ステップS103として、個人属性管理部5に対し、利用者1の発信者番号(電話番号)の検索を要求する。個人属性管理部5では、シナリオ管理部3からの発信者番号(電話番号)の検索要求に対し、個人属性格納部6の図2に示したような個人情報テーブルを検索し、結果をシナリオ管理部3に返す。これにより発信者番号が取得される。
【0027】
ステップS104では、シナリオ管理部3において、個人属性管理部5から返された検索結果を判定し、利用者1の発信者番号〈電話番号〉が個人属性格納部6に存在しない場合は、ステップS105に分岐する。利用者1の発信者番号(電話番号)が個人属性格納部6に存在する場合は、「既知」として、ステップS106に分岐する。
【0028】
ステップS105では、利用者1の発信者番号〈電話番号〉が「未知」であるので、サービスに加入していない利用者からの電話であると考えられるため、サービスの案内など、録音されたメッセージを再生する。ここから、通常のCTI(Computer Telephony Integration)などのような応対モードに入っても良い。
【0029】
ステップS106では、個人属性格納部6に、利用者1の発信者番号(電話番号)が発見されているため、利用者1の発信者番号(電話番号)に対応するユーザIDをキーとして、利用者1に対応したコール履歴テーブルを決定し、今回の着信を記録する。
【0030】
応答シナリオ合成ステップ(S107)では、シナリオ管理部3が、個人情報特定ステップ(S103)により特定された個人情報とシナリオ格納部4に格納された応答の内容及び応答の順序の雛型とに基づいて、利用者に対する応答用のシナリオ(今日のシナリオ)を合成する。シナリオの合成については後述するが、例えば、図6のように記述される。
【0031】
応答音声合成ステップ(S108)では、音声合成部7が、シナリオ合成ステップ(S107)により合成されたシナリオと音声情報格納部8に格納された音声合成に用いる音声データとに基づいて、利用者に対する応答用の音声を合成する。このステップS108では、シナリオ管理部3において、合成されたシナリオを解析し、音声応答を行う単位に分割する。分割された音声応答の単位が、音声合成であれば、音声合成部7に音声合成の指示を伝達する。音声合成部7では、その音声合成の指示に従って、音声情報格納部8に格納されている音声データを検索し、音声合成を行う。
【0032】
音声応答ステップ(S109)では、前記応答音声合成ステップにより合成された応答用の音声を、前記音声通信部2が前記利用者に送信する。このステップS109では、例えば、PCMデータを生成し、音声通信部2に伝えて音声を再生する。その後、ステップS110を再開する。一方、分割された音声応答の単位が、利用者の応答待ちの場合は、音声通信部2に利用者の応答待ち指示を伝達し、音声通信部2では、シナリオ管理部3が利用者の応答を確認した後、シナリオ管理部3での処理ステップS109を再開する。ここで、音声通信部2における、利用者の応答待ちは、利用者が何らかの音声を連続的に発生したことを取得することで、応答が行われたと解釈する。もちろん、音声認識装置などを用いて、ある程度の応答が行われたことを確認しても良い。また、音声情報格納部8に格納されている音声データは、別途、利用者1によって個人情報テーブルに格納された「好みの声」フィールドの値に対応した音声データが格納されており、利用者1は自分の好みの音声〈声〉でシステムからの応答を開くことが出来る。
【0033】
さて、シナリオ管理部3では、ステップS109の次にステップS110として、ステップS108で音声応答を行う単位に分割されたシナリオが全て終了したかどうかを判定し、まだ残りがあるならステップS109に分岐して次の音声応答の単位を実行し、残りが無くてシナリオが終了したならステップS111に分岐する。
【0034】
なお、応答シナリオ合成ステップ(S107)においては、利用者が何らかの音声を連続的に発生したことを取得することで応答が行われたと解釈して音声応答を進めるほかに、例えば、シナリオ管理部3が利用者に対する応答用のシナリオ(今日のシナリオ)としてあらかじめ想定される複数のシナリオを用意し、利用者の応答内容に応じて分岐しながら音声応答を行うこともできる。その場合、例えば、音声合成部7に音声認識装置を含ませ、音声通信部2で受信した応答内容を音声合成部7が解析し、音声合成部7が解析した利用者の応答内容に応じたシナリオをシナリオ管理部3が判断してシナリオを選択することで、音声応答ステップ(S109)を行わせるようにすればよい。
【0035】
ステップS111では、音声通信部2に電話回線の切断指示を伝達し、今回の電話着信による音声応答処理を終了する。
【0036】
ステップS112では、個人属性管理部5が、音声応答ステップにより行われた通信の内容に応じて、個人属性格納部6のデータを書き替える。例えば、利用者1との音声応答は最後まで続いたか、などの情報が伝達され、その情報を元に、個人属性格納部6に格納された情動テーブルを更新する。その後、ステップS101に分岐して、別の利用者からの電話着信を待つ。
【0037】
図6は、本発明の一実施形態の利用者1からの電話を着信するための処理の流れにおけるステップS107で合成されるシナリオの例である。シナリオ格納部4には、図6のようなシナリオの元となる雛型が、キーワードに関連付けて多数格納されており、個人情報テーブル(図2)に格納されている「趣味」や「フリーキーワード」等から取得できる文字列や、情動テーブル(図4)に格納されている「興味」や「バイオリズム」等の数値を検索キーとして、雛型を検索することが出来る。シナリオ管理部3では、例えば、情動テーブル(図4)に格納されている「興味」は、システムの利用者1への閑心度を表しており、ここでは「50%」が格納されており、「バイオリズム」は、システムが摸している人格の持つ体調などを表しており、ここでは「快調」が格納されている。
【0038】
また、個人情報テーブル(図2)には、「趣味」フィールドに値が格納されているため、図6のようなシナリオの元となる下記のような雛型が取得される。
< VoiceBankScript version=“1.0” >
<greet disp=“はじめ” subject=“挨拶” time=“%time%”/>
<greet disp=“お礼” subject=“%call-method%”/>
<p>今朝、<personal−data name=“名前” />の調子はどお?</p>
<p>ところで、私の趣味って知ってる?
<pause/>
<personal−data name=“名前”/>は、<personal−data name=“趣味”/>だよね。</p>
<wait−reply/>
<p>わ・た・し・は、テニスなの。覚えておいてね。</p>
<p>じゃあ、<personal−data name=“名前”/>、今日も元気でね!</P>
<greet disp=“おわり” subject=“挨拶” time=“%time%”/>
</ VoiceBankScript >
【0039】
上記した雛型では、「%time%」「%call-method%」等の文字列を含むが、これを、「%time%」は、現在時刻に対応した文字列、例えば「朝」、「%call-method%」は、着信の方法、この場合は「電話」という文字列に置き換える事で、図6のスクリプトを得る。前記したスクリプトの雛型は、個人情報テーブル(図2)の各フィールドの値や、情動テーブル(図4)の各フィールドの値によって、例えば、使う電車や住んでいる場所、今日の天気や、バイオリズムの値などによって、検索されてくる雛型を変化させることで、各利用者個人に則した内容の雛型を取得することが出来る。また、前記した図6のスクリプトの内、「<greet」で始まり、最も近い「/>」で閉じられる一節は「あいさつ文の挿入」を表し、1つの音声応答を行う単位である。この「あいさつ文の挿入」節の属性は「disp=」「subject=」に続く「”」に囲まれた文字列で表され、「disp=」の属性値は、そのあいさつ文が置かれる位置や性質を示し、「Subject=」の属性値は、そのあいさつ文の主題を表している。
【0040】
特に「subject=」の属性値が「挨拶」の場合は「time=」属性を伴って、どの時刻のあいさつ文かが指定される。また、「<p>」で始まり、「</p>」で括られる一節は「パラグラフ」を表し、これも1つの音声応答を行う単位である。「<personal-data」で始まり、最も近い「/>」で閉じられる一節は「個人情報の挿入」を表し、「name=」の属性値で表される個人情報テーブル(図2)のフィールドの値と置き換えられる。<wait−reply/>の一節は、1つの音声応答を行う単位である「利用者の応答待ち」を表し、利用者が何らかの音声を連続的に発生したことを取得することで、応答が行われたと解釈する。
【0041】
従って、シナリオ管理部3でステップS109として実行される処理では、図6のシナリオは、以下のように分割され、処理される。
<greet disp=“はじめ” subject=“挨拶” time=“朝”/>
→おはよう!
<greet disp=“お礼” subject=“電話”/>
→お電話ありがとう。
<p>今朝、<personal−data name=“名前” />の調子はどお?</p>
→今朝、進むの調子はどぉ?
<p>ところで、私の趣味って知ってる?
<pause/>
<personal−data name=“名前”/>は、<personal−data name=“趣味”/>だよね。</p>
→ところで、私の趣味って知ってる? [pause]ススムは、スキューバダイビングだよね。
<wait−reply/>
→[利用者の応答待ち]
<p>わ・た・し・は、テニスなの。覚えておいてね。</p>
→わ・た・し・はテニスなの。覚えておいてね。
<p>じゃあ、<personal−data name=“名前”/>、今日も元気でね!</P>
→じゃあ、ススム、今日も元気でね!
<greet disp=“おわり” subject=“挨拶” time=“朝”/>
→バイバイ!
【0042】
ここで、「[pause]」は、音声合成部7における音声データ合成の際に「一呼吸おく」ことを指示するシーケンスであり、「[利用者の応答待ち]」は、音声通信部2に利用者の応答待ち指示を伝達することを示している。個人属性格納部6には、図2乃至図4に示したような個人情報テーブル(図2)、コール履歴テーブル(図3)、情動テーブル(図4)、が格納されており、個人属性管理部5によって管理される。
【0043】
個人情報テーブル〈図2〉は、氏名、電話番号、誕生日、住所、所属、趣味など、文字通り、個人情報を格納するテーブルである。個人情報テーブルでは、ユーザIDをユニーク・キーとして個人情報を格納する。システムは、個人情報テーブルによって、電話番号と個人の対応をつけ、特定の個人情報に基く応対を行うなどの、システムの挙動を決定する。
【0044】
コール履歴テーブル(図3)は、利用者1からの電話を記録しておくためのテーブルである。コール履歴テーブルには、着信のあった日付と時刻をキーとして、発信者番号(電話番号)を格納する。
【0045】
情動テーブル(図4)は、コール履歴テーブルを統計処理した結果推定される、利用者1が大体何時ごろ電話をかけてくるかというデータである電話受信時刻、コール履歴テーブルを統計処理した結果推定される、利用者1がどのくらいの頻度で電話をかけるのを忘れるかというデータである電話無受信頻度、電話無受信頻度とコール履歴テーブルから計算される、利用者1に対してシステムがどれほど電話を発信したいかを百分率で表した電話発信願望が格納される。
【0046】
以上のようにして、複数回の利用者による電話通話というサービス利用によって、利用者の利用履歴を蓄積し、利用履歴を統計処理することで、煩雑な設定なしに、個人化された内容で応対を行うことができるようにすることができ、仮想的な恋人との会話などのシチュエーションを持ったサービスに対しても違和感無く適用することができるシステムを提供することができる。
【0047】
本発明の一の実施形態に係る、音声通信網101を介して着信を受けた場合に自動的に音声応答を行う音声通信システムを用いた音声応答方法を示すフローチャートを図7に示す。
【0048】
本発明に係る音声通信システムを用いた音声応答方法は、個人属性管理部5が、通信網101を介して利用者と通信を行う音声通信部2により取得され個人属性格納部6に格納された、利用者の利用者情報、利用者との通信により得られた利用者の個人情報及び利用者からの着信日時の履歴情報のうち着信日時の履歴を個人属性格納部6が統計処理することによって利用者に対してメッセージを発信すべきタイミングを決定する発信タイミング決定ステップ(S201)と、個人属性管理部5が、発信タイミング決定ステップにより発信すべきタイミングであると決定された(S202)利用者の利用者情報を個人属性格納部6から取得して音声通信部2に転送する利用者情報取得ステップ(S203)と、シナリオ管理部3が、発信タイミング決定ステップにより統計処理した結果と、個人属性格納部6に格納された個人情報と、シナリオ格納部4に格納された発信の内容及び発信の順序の雛型とに基づいて利用者に対して発信すべきシナリオを合成する発信シナリオ合成ステップ(S204)と、音声合成部7が、発信シナリオ合成ステップにより合成されたシナリオと音声情報格納部に格納された音声合成に用いる音声データとに基づいて、利用者に対する発信用の音声を合成する、発信音声合成ステップ(S205)と、音声通信部2が、利用者情報取得ステップにより転送された利用者情報に基づいて音声通信の発信を行い、発信用の音声を送信し、利用者からの応答を受信し、音声通信部2が受信した利用者からの応答をシナリオ管理部3が確認する音声通信発信ステップ(S206〜S209)と、個人属性管理部5が、音声通信発信ステップにより行われた通信の内容に応じて、個人属性格納部6に格納されたデータを書き替えるデータ書替ステップ(S211)とを含む。
【0049】
システムは、個人属性管理部5において、例えば10分に1回程度、図7に示す、利用者1へ電話を発信するための処理を実行する。発信タイミング決定ステップ(S201)では、通信網101を介して利用者と通信を行う音声通信部2により取得され個人属性格納部6に格納された、利用者の利用者情報、利用者との通信により得られた利用者の個人情報及び利用者からの着信日時の履歴情報のうち着信日時の履歴を個人属性格納部6が統計処理することによって利用者に対してメッセージを発信すべきタイミングを決定する。利用者1へ電話を発信するための処理では、まず、ステップS201として、コール履歴テーブル(図3)を統計処理し、情動テーブル(図4)を更新することを行う。ステップS201の処理は、個人属性格納部6に格納されたコール履歴テーブルに関して、電話がかかってきた日付を統計処理することで、情動テーブル内の電話受信時刻、電話無受信頻度、電誘発信願望などを更新する。
【0050】
例えば、図3のようなコール履歴テーブルが存在し、簡単のために、仮にコール履歴テーブルのデータが2/20〜存在するとしたとき、電話受信時刻は、存在する日時の時刻データ「8:30、8:10、8:40、8:20、10:00、8:30」から、平均値8:42と標準偏差±0:39から、「8:42±0:39」と計算される(図4では、それ以前のデータの存在により、電話受信時刻が「8:30±0:25」と計算されている)。また、電話無受信頻度は、存在する日時の日付データ「2/20、2/21、2/22、2/24、2/25、2/26」から、「3日に1回」などと推定される(図4では、それ以前のデータの存在により、電話無受信頻度が「5日±1日に1回」と計算されている)。
【0051】
更に、ステップS201の処理が実行される日時が2/28 10:10であったとすると、電話発信願望は、コール履歴テーブルに存在する日時の日付データ「2/20、2/21、2/22、2/24、2/25、2/26」、及び、情動テーブル内の電話受信時刻と電話無受信頻度から、2/23に電話が来なかつたために、+30%(=100%/3、小数第1位以下切り捨て、3は電話無受信頻度より)されたが、2/24、2/26の電話によって、それぞれ−10%(=30%/3、3は電許無受信頻度より)、2/25の電話は、電話受信時刻「8:42±0:39」の範囲を過ぎていたので±0%、2/27は電話なしで+30%、2/28は電話受信時刻「8:42±0:39」の範囲を過ぎているので現時点では+30%、ということで、+30%−10%−10%+30%+30%=70%と計算される。
【0052】
ステップS201の処理が終ると、次に、ステップS202の判断が実行され、個人属性格納部6に格納された情動テーブルの電話発信願望が100%以上ならばステップS203に分岐し、100%より小さければ、利用者1へ電話を発信するための処理の流れを終了し、次の利用者のコール履歴の統計処理が実行される。情動テーブル(図4)の例では、電話発信願望は「70%」と計算されているので、100%より小さいため、利用者1へ電話を発信するための処理の流れは終了する。仮に、ステップS201の処理が実行される日時が3/110:10であったとすると、2/28は電話無し、3/1は電話受信時刻「8:42±0:39」の範囲を過ぎているということで、70%+30%=100%となり、ステップS203に分岐することになる。
【0053】
利用者情報取得ステップ(S203)では、利用者の利用者情報を個人属性格納部6から取得して音声通信部2に転送する。つまり、ステップS203では、処理の対象となっている情動テーブル(図4)に対応したユーザIDを取得し、ユーザIDをキーとして個人属性格納部6に格納された個人情報テーブル(図2)を検索することで、電話をかけるべき電話番号を取得する。
【0054】
発信シナリオ合成ステップ(S204)では、、シナリオ管理部3が、発信タイミング決定ステップにより統計処理した結果と、個人属性記憶手段5に格納された個人情報と、シナリオ格納部4に格納された発信の内容及び発信の順序の雛型とに基づいて利用者に対して発信すべきシナリオを合成する。具体的には、ステップS204として「情動シナリオ」の作成を行う。「情動シナリオの作成」は、基本的には、前記したステップS107と同様の処理となるが、電話発信願望の値が100%以上と高いため、シナリオ格納部4から選択されるシナリオは、例えば、「長い間電話が無いので心配そうな」シナリオなどとなる。更に、電話発信願望の値が高くなるにつれ、だんだん怒った内容になってきたり、過激な会話内容になってきたりするとか、ドスの効いた声や、恐い男の声になるなどの応用例も考えられる。
【0055】
発信音声合成ステップ(S205)では、音声合成部7が、発信シナリオ合成ステップにより合成されたシナリオと音声情報格納部に格納された音声合成に用いる音声データとに基づいて、利用者に対する発信用の音声を合成する。
【0056】
音声通信発信ステップ(S206〜S209)では、音声通信部2が、利用者情報取得ステップにより転送された利用者情報に基づいて音声通信の発信を行い、発信用の音声を送信し、利用者からの応答を受信し、音声通信部2が受信した利用者からの応答をシナリオ管理部3が確認する。具体的には、個人属性管理部5におけるステップS206として、シナリオ管理部3へ、その情動シナリオを伝達する。シナリオ管理部3では、音声通信部2を用いて、ステップS203で取得した電話番号に対して電話発信を行う。
【0057】
情動シナリオが作成されたら、次に、ステップS207では、ステップS206で発信した電話に利用者1が応答したかどうかを判定し、応答した場合はステップS208へ、応答しない場合はステップS210へ分岐する。
【0058】
ステップS208では、前記ステップS109と同様に、合成されたシナリオを解析し、音声応答を行う単位に分割し、分割された音声応答の単位が、音声合成であれば、音声合成部7に音声合成の指示を伝達、利用者の応答待ちの場合は、音声通信部2に利用者の応答待ち指示を伝達し、音声応答を行う。
【0059】
音声合成部7もしくは音声通信部2における処理が終ったら、ステップS209として、前記ステップS110と同様に、ステップS208で音声応答を行う単位に分割されたシナリオが全て終了したかどうかを判定し、まだ残りがあるならステップS208に分岐して次の音声応答の単位を実行し、残りが無くてシナリオが終了したならステップS210に分岐して電話回線を切断する。
【0060】
データ書替ステップ(S211)では、個人属性管理部5が、音声通信発信ステップにより行われた通信の内容に応じて、個人属性格納部6のデータを書き替える。ステップS211では、シナリオ管理部3から個人属性管理部5へ、利用者1が応答したか、もしくは、利用者1との音声応答は最後まで続いたか、などの情報が伝達され、その情報を元に、個人属性格納部6に格納された情動テーブルを更新する。例えば、利用者1が応答しなかった場合には、情動テーブルの別のフィールド(「怒り」など)の値を増加させたり、利用者1が応答して通話が完了した場合には、情動テーブルの電話発信願望の値を減少させたりする。ステップS211が完了したら、利用者1へ電話を発信するための処理の流れは終了する。続いて次の利用者の処理を行う。
【0061】
以上のようにして、複数回の利用者による電話通話というサービス利用によって、利用者の利用履歴を蓄積し、利用履歴を統計処理することで、煩雑な設定なしに、起こして欲しい時刻などの個人化された内容で応対を行うことができるようにすることができ、仮想的な恋人との会話などのシチュエーションを持ったサービスに対しても違和感無く適用することができるシステムを提供することができる。
【0062】
本願の他の発明の実施形態に係る音声応答システムを示すブロック図を図8に示す。図8に記載したシステムは、音声通信部2、シナリオ管理部3、シナリオ格納部4、個人属性管理部5、個人属性格納部6、音声合成部7、音声情報格納部8、メール受付部9、メール配信部10から構成される。
【0063】
図8に示すシステムは、図1に示した本発明の実施形態に対し、メール受付部9、メール配信部10を追加することで、個人属性格納部6に格納された個人情報テーブル(図2)の更新による個人化を、電子メールによるやり取りを通じて行うことが出来るようにしたものである。具体的には、個人属性管理部5が、利用者に関する個人情報について音声通信部2により得られた情報及び電子メール受付部により受信された利用者からの電子メールの内容のうち、いずれか又は双方を解析することで個人情報を更新するシステムである。
【0064】
また、本システムの動作としては、個人属性管理部5が、利用者に関する個人情報について前記音声通信手段により得られた情報及び電子メール受付部9により受信された利用者からの電子メールの内容のうち、いずれか又は双方を解析することで個人情報を更新する個人情報更新ステップを含む。例えば、利用者1が「今日は会社で失敗した。悲しい。」などという電子メールをシステムに対し送信したとする。すると、メール受付部9では、その電子メールを受信し、構文解析を行うことで単語を抽出し、抽出された単語を個人属性管理部5に伝達する。
【0065】
個人属性管理部5では、受取った単語群を個人属性格納部6に格納された個人情報テーブル(図2)のフリーキーワードなどに登録することで、将来の応対に用いる個人情報を蓄積することができる。また、システム側は、個人属性格納部6に格納された個人情報テーブル(図2)の空き具合などをトリガーとして、メール配信部10にメール配信の指示を伝達し、利用者1へのメールを送信することもできる。例えば、個人情報テーブルの「趣味」の値が空だった場合に、個人属性管理部5から「趣味」のキーワードをシナリオ管理部3に伝達し、シナリオ管理部3では、「趣味」のキーワードに該当するシナリオをシナリオ格納部4から検索してメール配信部10に伝えることで、「ススム君、こんにちは!突然だけど、わたし、最近テニスを始めたの。ススム君の趣味は何?」などといった電子メールを利用者1に対して送信することができ、利用者1の応答メールによっては、前記したメール受付部9を用いることで、個人情報テーブルの「趣味」の値を補完することが可能となる。
【0066】
複数回の利用者による電話通話及び電子メールというサービス利用によって、利用者の利用履歴や個人情報を蓄積し、利用履歴の統計処理と個人情報によって、煩雑な設定なしに、起こして欲しい時刻などの個人化された内容で応対を行うことができるようにすることができ、仮想的な恋人との会話などのシチュエーションを持ったサービスに対しても違和感無く適用することができるシステムを提供することができる。例えば、利用者が落ち込んでいるときには、その旨電子メールを送信すると、好きな声で慰めや励ましの声を聞かせてくれたり、利用者が怒っていたらいさめてくれたりなど、様々な応用が考えられる。
【0067】
【発明の効果】
以上説明したように、本発明によれば、利用者による複数回のサービスを利用すると、利用者の利用履歴や個人情報を蓄積し統計処理することで、煩雑な設定なしに個人化された内容で応対を行うことができるようにすることができる。
更に利用者の好みの声とすることもできる。
【図面の簡単な説明】
【図1】 本発明の一の実施形態を示す、音声通信網を介して着信を自動的に音声応答を行う音声通信システムの構成を表すブロック図である。
【図2】 個人属性格納部6に格納される、個人情報テーブルを示す一例である。
【図3】 個人属性格納部6に格納される、コール履歴テーブルを示す一例である。
【図4】 個人属性格納部6に格納される、情動テーブルを示す一例である。
【図5】 本発明の一の実施形態に係る、音声通信網101を介して着信を受けた場合に自動的に音声応答を行う音声通信システムを用いた音声応答方法を示すフローチャートである。
【図6】 本発明の一実施形態における利用者からの電話を着信するための処理の流れにおいて合成されるシナリオの例である。
【図7】 本発明の他の一の実施形態に係る、音声通信網101を介して着信を受けた場合に自動的に音声応答を行う音声通信システムを用いた音声応答方法を示すフローチャートである。
【図8】 本発明の他の実施形態を示す、音声通信網を介して着信に対して自動的に音声応答を行う音声通信システムの構成を表すブロック図である。
【符号の説明】
1:利用者
2:音声通信部
3:シナリオ管理部
4:シナリオ格納部
5:個人属性管理部
6:個人属性格納部
7:音声合成部
8:音声情報格納部
101:通信網
[0001]
BACKGROUND OF THE INVENTION
The present invention relates to a voice communication method and apparatus for performing a service such as a wake-up call using a voice synthesizer connected to a communication network. In particular, a voice communication method, a voice communication system, a voice communication program to be executed by a computer, and a computer to be executed by a user personalized content, a user's favorite voice, etc. The present invention relates to a computer-readable recording medium on which a voice communication program for recording is recorded.
[0002]
[Prior art]
As a conventional voice communication system, for example, there is a voice communication system used for a wake-up call service in a hotel or the like. This system calls a specific telephone number at the time that the user wants to wake up, operates the push phone, and registers it in the system. At that time, the telephone is called from the center of the communication system, and the user When the telephone is answered, a pre-recorded message, a voice mail incoming notification by the voice synthesizer, etc. are reproduced. This system can automatically provide services such as a wake-up call without intervention of an operator, and is currently widely used.
[0003]
In addition, as a generally provided system, a pre-recorded message or a voice synthesizer is provided by calling a specific telephone number and operating a push phone to convey information and preferences desired by the user to the communication system. There are some that are made to reproduce the reading of information by. This is also convenient for the service provider in that necessary information can be automatically opened without the intervention of the operator, and is currently used frequently.
[0004]
However, when a conventional communication system is used, it is necessary to make settings for the communication system by operating a push phone in order to use it for a wake-up call or the like. In addition, these are voices that are uniformly responded, so they not only get a dry impression for users, but also expect services such as conversations with virtual lovers for such systems. I can't do it. Furthermore, in general information services, etc., it is not possible to deal with individuals individually on how to communicate information and preferences desired by users to the communication system, and even when selecting information, it is limited to simple options. This also gives a tasteless and dry impression.
[0005]
Therefore, for those who provide these systems, a system that can provide a more detailed and personalized response service according to the user than a tasteless response to a user who uses frequently is desired. It was.
[0006]
[Problems to be solved by the invention]
SUMMARY OF THE INVENTION Accordingly, a first object of the present invention is to provide a system and method for responding personalized contents to a person who receives a response service using a voice communication system.
[0007]
The second object of the present invention is to accumulate user usage history and personal information and perform statistical processing by using the service multiple times by the user, so that personalized contents, for example, without complicated settings, for example, Another object of the present invention is to provide a system for responding to the user's favorite voice.
[0008]
Furthermore, the third object of the present invention is to spontaneously communicate with the user and further increase the degree of individualization for the user.
[0009]
[Means for Solving the Problems]
In order to achieve the above object, the present application takes the following measures.
[0010]
The first invention related to this patent application is:
Using a voice response system that automatically responds to voice calls when an incoming call is received via a communication network Voice communication method Because
A user information acquisition step in which the voice communication means acquires user information for identifying the user among the information transmitted from the user through the communication network;
The personal attribute management means compares the user information acquired in the user information acquisition step with the user information stored in the personal attribute storage means, and associates the user information with the user information to store the personal attribute A personal information identifying step for identifying personal information about the user stored in the means;
A response scenario in which a scenario management unit synthesizes a scenario for response to a user based on the personal information specified in the personal information specifying step, the response contents stored in the scenario storage unit, and the response sequence model A synthesis step;
The speech synthesis means Response scenario composition A response speech synthesis step of synthesizing speech for response to the user based on the scenario synthesized by the step and speech data used for speech synthesis stored in the speech information storage means;
The voice communication means transmits the response voice synthesized in the response voice synthesis step to the user, receives a response from the user, and the scenario management means receives the user received by the voice communication means. A voice response step to confirm the response from
A data rewriting step in which the personal attribute management means rewrites the data stored in the personal attribute storage means in accordance with the content of the communication performed in the voice response step; Consist of ,
The personal attribute management means determining the omission of personal information stored in the personal attribute storage means;
If it is determined that there is a missing part, the scenario management means compensates for the missing part of the personal information. Supplementary scenario Synthesize Complementary scenario synthesis Steps,
A mail distribution step in which a mail distribution means distributes the supplementary scenario to a user by e-mail; ,
A mail receiving step in which the mail receiving means receives a response email from the user; ,
The personal attribute management means displays the content of the received response e-mail. It further includes a personal information update step for updating the personal information by analysis. Voice communication method It is.
[0011]
The second invention related to this patent application is:
Automatically responds to voice calls when an incoming call is received via the communication network Voice communication device Because
Voice communication means for acquiring user information for identifying the user among the received information, transmitting a response voice, and receiving a response from the user;
Personal attribute storage means for storing user information acquired by the voice communication means and personal information related to the user in association with the user information;
The user information acquired by the voice communication means is compared with the user information stored in the personal attribute storage means to identify the personal information, and depending on the content of the communication performed by the voice communication means Personal attribute management means for rewriting the data stored in the personal attribute storage means,
Scenario storage means storing response contents and response order templates;
The voice communication means synthesizes a scenario for response to the user based on the personal information specified by the personal attribute management means and the response content stored in the scenario storage means and the response order model. Scenario management means to confirm the response from the received user,
Voice information storage means storing voice data used for voice synthesis;
Based on the scenario for response synthesized by the scenario management means and the voice data used for voice synthesis stored in the voice information storage means, the voice for response to the user is synthesized and transferred to the voice communication means. Speech synthesis means;
Mail delivery means for delivering supplemental scenarios to users via email ,
Mail receiving means for receiving response e-mail from users; ,
Including
The personal attribute management means determines whether the personal information stored in the personal attribute storage means is missing. ,
If it is determined that there is omission, the scenario management unit synthesizes a supplementary scenario that compensates for the missing portion of the personal information, and transmits an e-mail distribution instruction to the e-mail distribution unit. ,
A voice communication apparatus in which the personal attribute management means updates the personal information by analyzing the content of the response e-mail received by the mail receiving means It is.
[0012]
The third invention related to this patent application is
A voice communication method using a voice communication system that automatically transmits via a communication network,
User attribute information acquired by voice communication means that communicates with the user via the communication network and stored in the personal attribute storage means, the user obtained by communication with the user A transmission timing determination step for determining a timing at which a message should be transmitted to the user by statistically processing the history of the reception date and time among the personal information and the history information of the reception date and time from the user;
User information acquisition in which the personal attribute management means acquires user information of a user determined to be a timing to be transmitted in the transmission timing determination step from the personal attribute storage means and transfers it to the voice communication means Steps,
The scenario management means performs statistical processing in the transmission timing determination step, the personal information stored in the personal attribute storage means, the content of the transmission stored in the scenario storage means, and the template of the order of transmission An outgoing scenario synthesis step for synthesizing a scenario to be sent to a user based on
Speech synthesis means Is an outgoing voice synthesis step of synthesizing outgoing voice for the user based on the scenario synthesized by the outgoing scenario synthesis step and voice data used for voice synthesis stored in the voice information storage means;
The voice communication means transmits voice communication based on the user information transferred in the user information acquisition step, transmits the outgoing voice, receives a response from the user, and receives the voice communication. Voice communication transmission step in which the scenario management means confirms the response from the user received by the means;
A data rewriting step in which the personal attribute management means rewrites data stored in the personal attribute storage means in accordance with the content of the communication performed in the voice communication transmission step; Consist of ,
The personal attribute management means determining the omission of personal information stored in the personal attribute storage means;
If it is determined that there is a missing part, the scenario management means compensates for the missing part of the personal information. Supplementary scenario Synthesize Complementary scenario synthesis Steps,
A mail distribution step in which a mail distribution means distributes the supplementary scenario to a user by e-mail; ,
A mail receiving step in which the mail receiving means receives a response email from the user; ,
The personal attribute management means displays the content of the received response e-mail. The voice communication method further includes a personal information update step of updating personal information by analysis.
[0013]
The fourth invention related to this patent application is:
Calls automatically via the communication network Voice communication device Because
Voice communication means for communicating with the user using the user information of the user via the communication network;
Personal attribute storage means for storing the user information of the user, personal information of the user obtained through communication with the user and associated with the user information, and history information of the date and time of arrival from the user;
Determines when to send a message to the user by statistically processing the history of incoming date and time stored in the personal attribute storage means And departure The user information of the user determined to be the timing to be transmitted is acquired from the personal attribute storage means and transferred to the voice communication means, and the personal attribute according to the content of the communication performed by the voice communication means Personal attribute management means for rewriting data stored in the storage means;
Scenario storage means storing response contents and response order templates; ,
Based on the result of the statistical processing by the personal attribute management means, the personal information stored in the personal attribute storage means, the contents of the transmission stored in the scenario storage means, and the template of the order of transmission Scenario management means for synthesizing a scenario to be transmitted to the user and confirming a response from the user received by the voice communication means;
Voice information storage means storing voice data used for voice synthesis;
The voice synthesis for synthesizing a voice for transmission to a user based on the scenario synthesized by the scenario management means and voice data used for voice synthesis stored in the voice information storage means and transferring the voice to the voice communication means Means,
Mail delivery means for delivering supplemental scenarios to users via email ,
Mail receiving means for receiving response e-mail from users; ,
Including
The personal attribute management means determines whether the personal information stored in the personal attribute storage means is missing. ,
If it is determined that there is omission, the scenario management unit synthesizes a supplementary scenario that compensates for the missing portion of the personal information, and transmits an e-mail distribution instruction to the e-mail distribution unit. ,
A voice communication apparatus in which the personal attribute management means updates the personal information by analyzing the content of the response e-mail received by the mail receiving means It is.
[0014]
The fifth invention related to this patent application is the same as the first invention. Program for processing voice communication method by computer It is.
[0015]
The sixth invention relating to this patent application is the same as that of the third invention. Program for processing voice communication method by computer It is.
[0016]
The seventh invention related to this patent application is the fifth invention or the sixth invention. Computer-readable recording medium storing program It is.
[0017]
The recording medium in the present invention includes a medium recorded by electrical, magnetic, magneto-optical, optical means or the like.
[0018]
DETAILED DESCRIPTION OF THE INVENTION
Hereinafter, an embodiment of the present invention will be described with reference to the drawings.
FIG. 1 is a block diagram showing a configuration of a voice communication system that receives a call via the voice communication network 101 and automatically makes a voice response according to an embodiment of the present invention.
[0019]
The system according to the present invention shown in FIG. 1 acquires user information for identifying a user from among received information for identifying a user, and transmits a response voice. A voice communication unit 2 that receives a response from the user, a call number acquired by the voice communication unit 2, a personal attribute storage unit 6 that stores personal information related to the user in association with the call number, and the voice communication unit The personal information is identified by comparing the transmission number acquired by the transmission number and the transmission number stored in the personal attribute storage unit 2 and stored in the personal attribute storage unit 6 according to the content of the communication performed by the voice communication unit 2. Personal attribute management unit 5 for rewriting stored data, scenario storage unit 4 storing response contents and response order templates, and personal information and scenario storage unit specified by the personal attribute storage unit 6 Response stored in 4 A scenario management unit 3 that synthesizes a response scenario for the user based on the content and response order template and confirms the response from the user received by the voice communication unit 2, and a voice used for the voice synthesis Based on the voice information storage unit 8 storing data, the scenario for response synthesized by the scenario management unit 3 and the voice data used for voice synthesis stored in the voice information storage unit 8, The voice synthesizer 7 synthesizes voice and transfers it to the voice communication unit 2.
[0020]
A user 1 represents a user of a voice communication system according to an embodiment of the present invention, and uses a fixed phone, a mobile phone, an Internet phone, any other voice phone, and all devices communicated by voice. Call the system of the present invention. This embodiment mode will be described using a telephone. The phone used by the user 1 has a function capable of simultaneously notifying information that can identify the user 1 such as a caller ID notification as user information. Of course, this user information is not limited to telephone numbers. The voice communication unit 2 acquires a calling telephone number for identifying the user from the received information, transmits a response voice, and receives a response from the user. The personal attribute storage unit 6 stores the transmission number acquired by the voice communication unit 2 and personal information about the user in association with the transmission number. The personal attribute storage unit 6 stores a personal information table (FIG. 2), a call history table (FIG. 3), and an emotion table (FIG. 4) as shown in FIGS. Managed by part 5. The personal information table shown in FIG. 2 is a table that literally stores personal information such as name, telephone number, birthday, address, affiliation, and hobbies. In the personal information table, personal information is stored using the user ID as a unique key. The personal information table in FIG. 2 determines the behavior of the system, such as providing a correspondence between telephone numbers and individuals and responding based on specific personal information.
[0021]
The personal attribute management unit 5 compares the transmission number acquired by the voice communication unit 2 with the transmission number stored in the personal attribute storage unit 6 to identify the personal information, and the communication performed by the voice communication unit 2 The data stored in the personal attribute storage unit 6 is rewritten in accordance with the contents of. The scenario storage unit 4 stores response contents and response order templates. The scenario management unit 3 synthesizes a scenario for response to the user based on the personal information specified by the personal attribute storage unit 6, the content of the response stored in the scenario storage unit 4, and the response order template. Then, the response from the user received by the voice communication unit 2 is confirmed. The voice information storage unit 8 stores voice data used for voice synthesis. The voice synthesizer 7 synthesizes a voice for response to the user based on the scenario for response synthesized by the scenario manager 3 and voice data used for voice synthesis stored in the voice information storage unit 8. Transfer to the voice communication unit 2.
[0022]
The operation of the system according to the present invention configured as described above will be described based on the flowchart of FIG. FIG. 5 is a flowchart showing a voice response method using a voice communication system that automatically makes a voice response when an incoming call is received via the voice communication network 101 according to an embodiment of the present invention.
[0023]
In the voice response method using the voice communication system according to the present invention, the voice communication unit 2 acquires user information for identifying a user from information transmitted from the user through the voice communication network. In the information acquisition step (S102), the personal attribute management unit 5 compares the transmission number acquired by the voice communication unit 2 with the transmission number stored in the personal attribute storage unit 6, and associates the transmission number with the transmission number. The personal information specifying step (S103) for specifying the personal information about the user stored in the personal attribute storage means, and the scenario management unit 3 store the personal information and the scenario storage unit 4 specified in the personal information specifying step (S103). A response scenario synthesis step (S107) for synthesizing a scenario for response to the user based on the contents of the stored response and the template of the order of responses; The response unit 7 synthesizes speech for response to the user based on the scenario synthesized in the scenario synthesis step (S107) and the speech data used for speech synthesis stored in the speech information storage unit 8. Step (S108), the voice communication unit 2 transmits the response voice synthesized by the response voice synthesis step to the user (S109), and the personal attribute management unit 5 performs the voice response step (S109). And a data rewriting step (S112) of rewriting the data stored in the personal attribute storage unit 6 in accordance with the content of the communication performed by (1).
[0024]
Normally, the system waits for an incoming call from the user 1 in the voice communication unit 2 through a loop using the condition determination in step S101.
[0025]
In the user information acquisition step (S102), the voice communication unit 2 acquires user information for identifying the user from the information transmitted from the user through the voice communication network. Specifically, when receiving a call from the user 1, the voice communication unit 2 acquires the user number (phone number) of the user 1 and notifies the scenario management unit 3.
[0026]
In the personal information specifying step (S103), the personal attribute management unit 5 compares the transmission number acquired by the voice communication unit 2 with the transmission number stored in the personal attribute storage unit 6 and associates it with the transmission number. The personal information related to the user stored in the personal attribute storage means is specified. Specifically, when the caller number (telephone number) of the user 1 is notified from the voice communication unit 2 in the scenario management unit 3, as shown in step S103, the scenario management unit 3 sends the personal attribute management unit 5 to the user 1 Requests a caller ID (phone number) search. In response to a caller number (telephone number) search request from the scenario management unit 3, the personal attribute management unit 5 searches a personal information table as shown in FIG. Return to part 3. Thereby, a caller ID is acquired.
[0027]
In step S104, the scenario management unit 3 determines the search result returned from the personal attribute management unit 5, and if the caller number <phone number> of the user 1 does not exist in the personal attribute storage unit 6, step S105 is performed. Branch to If the caller ID (telephone number) of the user 1 is present in the personal attribute storage unit 6, it is determined as “known” and the process branches to step S106.
[0028]
In step S105, since the caller ID <phone number> of the user 1 is “unknown”, it is considered that the call is from a user who has not subscribed to the service. Play. From here, it is possible to enter a response mode such as normal CTI (Computer Telephony Integration).
[0029]
In step S106, since the caller number (telephone number) of the user 1 has been found in the personal attribute storage unit 6, the user ID corresponding to the caller number (telephone number) of the user 1 is used as a key. The call history table corresponding to the user 1 is determined, and this incoming call is recorded.
[0030]
In the response scenario composition step (S107), the scenario management unit 3 is based on the personal information specified in the personal information specification step (S103), the response contents stored in the scenario storage unit 4, and the response order template. Thus, a scenario for responding to the user (today's scenario) is synthesized. The scenario synthesis will be described later, but is described as shown in FIG. 6, for example.
[0031]
In the response speech synthesis step (S108), the speech synthesis unit 7 responds to the user based on the scenario synthesized in the scenario synthesis step (S107) and the speech data used for speech synthesis stored in the speech information storage unit 8. Synthesize response voice. In step S108, the scenario management unit 3 analyzes the synthesized scenario and divides it into units for voice response. If the divided voice response unit is voice synthesis, a voice synthesis instruction is transmitted to the voice synthesis unit 7. The speech synthesizer 7 searches for speech data stored in the speech information storage unit 8 and performs speech synthesis in accordance with the speech synthesis instruction.
[0032]
In the voice response step (S109), the voice communication unit 2 transmits the response voice synthesized in the response voice synthesis step to the user. In this step S109, for example, PCM data is generated and transmitted to the voice communication unit 2 to reproduce the voice. Thereafter, step S110 is resumed. On the other hand, when the divided voice response unit is waiting for the user's response, the user's response waiting instruction is transmitted to the voice communication unit 2, and in the voice communication unit 2, the scenario management unit 3 receives the user response. After confirming, processing step S109 in the scenario management unit 3 is resumed. Here, the user's response waiting in the voice communication unit 2 is interpreted as a response by acquiring that the user has continuously generated some voice. Of course, it may be confirmed that a certain level of response has been made using a voice recognition device or the like. The voice data stored in the voice information storage unit 8 is separately stored as voice data corresponding to the value of the “favorite voice” field stored in the personal information table by the user 1. 1 can open the response from the system with your favorite voice <voice>.
[0033]
The scenario management unit 3 determines whether or not all the scenarios divided into units for performing the voice response in step S108 have been completed as step S110 after step S109. If there is still a remainder, the process branches to step S109. Then, the next voice response unit is executed, and if there is no remaining and the scenario ends, the process branches to step S111.
[0034]
In the response scenario synthesis step (S107), in addition to interpreting that the response has been made by acquiring that the user has continuously generated some voice, the voice response is advanced, for example, the scenario management unit 3 Can prepare a plurality of scenarios that are assumed in advance as scenarios for responding to the user (today's scenario), and perform a voice response while branching according to the response content of the user. In this case, for example, a speech recognition unit is included in the speech synthesizer 7, the response content received by the speech communication unit 2 is analyzed by the speech synthesizer 7, and according to the response content of the user analyzed by the speech synthesizer 7. The scenario management unit 3 determines the scenario and selects the scenario so that the voice response step (S109) is performed.
[0035]
In step S111, an instruction to disconnect the telephone line is transmitted to the voice communication unit 2, and the voice response process for the incoming call is terminated.
[0036]
In step S112, the personal attribute management unit 5 rewrites the data in the personal attribute storage unit 6 according to the content of the communication performed in the voice response step. For example, information such as whether the voice response with the user 1 has continued to the end is transmitted, and the emotion table stored in the personal attribute storage unit 6 is updated based on the information. Thereafter, the process branches to step S101 and waits for an incoming call from another user.
[0037]
FIG. 6 is an example of the scenario synthesized in step S107 in the process flow for receiving a call from the user 1 according to the embodiment of the present invention. The scenario storage unit 4 stores a large number of templates that are the basis of the scenario as shown in FIG. 6 in association with keywords, and stores “hobbies” and “free keywords” stored in the personal information table (FIG. 2). The template can be searched by using a character string that can be acquired from “etc.” or numerical values such as “interest” and “biorhythm” stored in the emotion table (FIG. 4). In the scenario management unit 3, for example, “interest” stored in the emotion table (FIG. 4) represents the degree of quietness to the user 1 of the system, and “50%” is stored here. “Biorhythm” represents the physical condition of the personality that the system is jealous of, and “good” is stored here.
[0038]
In addition, since a value is stored in the “hobby” field in the personal information table (FIG. 2), the following template that is the basis of the scenario as shown in FIG. 6 is acquired.
<VoiceBankScript version = “1.0”>
<Greet disp = “Introduction” subject = “greeting” time = “% time%” />
<Greet disp = "thanks" subject = "% call-method%"/>
<P> How is <personal-data name = "name"//> this morning? </ P>
<P> By the way, do you know my hobby?
<Pause />
<Personal-data name = “name” /> is <personal-data name = “hobby” />. </ P>
<Wait-reply />
<P> Wa Tashi is tennis. Please remember. </ P>
<P> So, <personal-data name = "name"/>,I'm fine today! </ P>
<Greet disp = “End” subject = “greeting” time = “% time%” />
≪ VoiceBankScript >
[0039]
The above template includes character strings such as “% time%” and “% call-method%”, and “% time%” is a character string corresponding to the current time, for example, “morning”, “ By replacing “% call-method%” with the incoming call method, in this case the character string “telephone”, the script of FIG. 6 is obtained. Depending on the value of each field of the personal information table (FIG. 2) and the value of each field of the emotion table (FIG. 4), for example, the train used, the place where you live, the weather today, By changing the searched template according to the biorhythm value, etc., it is possible to acquire a template having contents in accordance with each individual user. In the script shown in FIG. 6, a section starting with “<greet” and closed with the nearest “/>” represents “insert greeting”, and is a unit for performing one voice response. The attribute of this “Insert Greeting” section is represented by a character string surrounded by “” ”following“ disp = ”and“ subject = ”, and the attribute value of“ disp = ”is the position where the greeting sentence is placed The attribute value “Subject =” represents the subject of the greeting.
[0040]
In particular, when the attribute value of “subject =” is “greeting”, a greeting sentence at which time is specified with the “time =” attribute. A section starting with “<p>” and enclosed with “</ p>” represents a “paragraph”, which is also a unit for making one voice response. The section starting with “<personal-data” and closed with the nearest “/>” represents “insertion of personal information”, and is a field of the personal information table (FIG. 2) represented by the attribute value of “name =” Replaced with value. The section of <wait-reply /> represents “waiting for user response”, which is a unit for performing one voice response, and the response is made by acquiring that the user has continuously generated some voice. I interpret it as
[0041]
Therefore, in the process executed as step S109 by the scenario management unit 3, the scenario of FIG. 6 is divided and processed as follows.
<Greet disp = “Introduction” subject = “greeting” time = “morning” />
→ Good morning!
<Greet disp = "thank you" subject = "phone"/>
→ Thank you for calling.
<P> How is <personal-data name = "name"//> this morning? </ P>
→ How are you going this morning?
<P> By the way, do you know my hobby?
<Pause />
<Personal-data name = “name” /> is <personal-data name = “hobby” />. </ P>
→ By the way, do you know my hobby? [pause] Susume is scuba diving.
<Wait-reply />
→ [Waiting for user response]
<P> Wa Tashi is tennis. Please remember. </ P>
→ Wa, Ta, and Shi are tennis. Please remember.
<P> So, <personal-data name = "name"/>,I'm fine today! </ P>
→ Well, Susumu, be fine today!
<Greet disp = “End” subject = “greeting” time = “morning” />
→ Bye-bye!
[0042]
Here, “[pause]” is a sequence for instructing “keep a breath” at the time of voice data synthesis in the voice synthesizer 7, and “[waiting for user response]” is sent to the voice communication unit 2. It shows that the user's response waiting instruction is transmitted. The personal attribute storage unit 6 stores a personal information table (FIG. 2), a call history table (FIG. 3), and an emotion table (FIG. 4) as shown in FIGS. Managed by part 5.
[0043]
The personal information table <FIG. 2> is a table that literally stores personal information such as name, telephone number, birthday, address, affiliation, and hobby. In the personal information table, personal information is stored using the user ID as a unique key. Based on the personal information table, the system determines the behavior of the system, such as associating a telephone number with an individual and responding based on specific personal information.
[0044]
The call history table (FIG. 3) is a table for recording calls from the user 1. In the call history table, the caller ID (telephone number) is stored using the date and time of the incoming call as a key.
[0045]
The emotion table (FIG. 4) is estimated as a result of statistical processing of the call history table, which is estimated as a result of the statistical processing of the call history table, and the time when the user 1 makes a call. How often the system calls the user 1, calculated from the frequency of no call reception, the frequency of no call reception and the call history table, which is data on how often user 1 forgets to make a call The telephone call desire expressed as a percentage indicating that the user wants to make a call is stored.
[0046]
As described above, by using a service called a telephone call by a plurality of users, the user's usage history is accumulated, and the usage history is statistically processed, so that personalized contents can be handled without complicated settings. It is possible to provide a system that can be applied to a service having a situation such as a conversation with a virtual lover without a sense of incongruity.
[0047]
FIG. 7 is a flowchart showing a voice response method using a voice communication system that automatically makes a voice response when an incoming call is received via the voice communication network 101 according to an embodiment of the present invention.
[0048]
In the voice response method using the voice communication system according to the present invention, the personal attribute management unit 5 is acquired by the voice communication unit 2 communicating with the user via the communication network 101 and stored in the personal attribute storage unit 6. The personal attribute storage unit 6 statistically processes the history of the incoming date and time among the user information of the user, the personal information of the user obtained through communication with the user, and the history information of the incoming date and time from the user. A transmission timing determination step (S201) for determining a timing at which a message should be transmitted to the user, and the personal attribute management unit 5 determined to be a timing at which the message should be transmitted by the transmission timing determination step (S202) User information acquisition step (S203) for acquiring the user information from the personal attribute storage unit 6 and transferring it to the voice communication unit 2, and the scenario management unit 3 Based on the result of the statistical processing by the determination step, the personal information stored in the personal attribute storage unit 6, the content of the transmission stored in the scenario storage unit 4 and the template of the order of transmission A transmission scenario synthesis step (S204) for synthesizing a scenario to be transmitted, and the voice synthesis unit 7 based on the scenario synthesized by the transmission scenario synthesis step and voice data used for voice synthesis stored in the voice information storage unit. A voice synthesis step (S205) for synthesizing a voice for transmission to the user, and the voice communication unit 2 performs voice communication based on the user information transferred in the user information acquisition step. Voice communication transmission step in which the scenario management unit 3 confirms the response from the user received by the voice communication unit 2. (S211) and the data rewriting step (S211) in which the personal attribute management unit 5 rewrites the data stored in the personal attribute storage unit 6 in accordance with the content of the communication performed in the voice communication transmission step. Including.
[0049]
In the personal attribute management unit 5, the system executes a process for making a call to the user 1 shown in FIG. In the transmission timing determination step (S201), user information of the user acquired by the voice communication unit 2 that communicates with the user via the communication network 101 and stored in the personal attribute storage unit 6, and communication with the user The personal attribute storage unit 6 statistically processes the history of the incoming date and time of the personal information of the user and the history information of the incoming date and time obtained from the user to determine the timing for sending a message to the user. To do. In the process for making a call to the user 1, first, in step S201, the call history table (FIG. 3) is statistically processed, and the emotion table (FIG. 4) is updated. In step S201, the call history table stored in the personal attribute storage unit 6 is statistically processed with respect to the date on which a call is received, so that the telephone reception time in the emotion table, the telephone non-reception frequency, the electrical induction desire Update etc.
[0050]
For example, when there is a call history table as shown in FIG. 3 and for the sake of simplicity, it is assumed that the call history table data is 2 / 20˜, the telephone reception time is the time data “8:30” of the existing date and time. , 8:10, 8:40, 8:20, 10:00, 8:30 ”, the average value is calculated as 8: 42 ± 0: 39 from 8:42 and standard deviation ± 0: 39. (In FIG. 4, the telephone reception time is calculated as “8: 30 ± 0: 25” due to the presence of the previous data). In addition, the frequency of non-reception of the phone calls from date data “2/20, 2/21, 2/22, 2/24, 2/25, 2/26” of existing date and time to “once every 3 days”, etc. (In FIG. 4, due to the presence of data before that, the frequency of no call reception is calculated as “5 days ± once a day”).
[0051]
Further, assuming that the date and time when the process of step S201 is executed is 2/28 10:10, the telephone call desire is the date data “2/20, 2/21, 2/22” of the date and time existing in the call history table. , 2/24, 2/25, 2/26 ”, and from the phone reception time and the frequency of no call reception in the emotion table, + 30% (= 100% / 3, The number was rounded down to the first decimal place, 3 was from the frequency of no call reception), but it was -10% (= 30% / 3, 3 was from the frequency of no call reception) by 2/24 and 2/26 calls, respectively. , 2/25 telephones were over the range of the telephone reception time “8: 42 ± 0: 39”, so ± 0%, 2/27 without telephone + 30%, 2/28 telephone reception time “8 : 42 ± 0: 39 ”is past, so it is calculated as + 30% −10% −10% + 30% + 30% = 70%.
[0052]
When the processing in step S201 is completed, the determination in step S202 is executed. If the desire to make a call in the emotion table stored in the personal attribute storage unit 6 is 100% or more, the process branches to step S203 and is smaller than 100%. For example, the flow of processing for making a call to the user 1 is terminated, and the statistical processing of the call history of the next user is executed. In the example of the emotion table (FIG. 4), since the telephone call desire is calculated as “70%”, it is smaller than 100%, and thus the processing flow for calling the user 1 is completed. Assuming that the date and time when the process of step S201 is executed is 3/110: 10, 2/28 is no telephone and 3/1 is past the range of the telephone reception time “8: 42 ± 0: 39”. Therefore, 70% + 30% = 100%, and the process branches to step S203.
[0053]
In the user information acquisition step (S203), the user information of the user is acquired from the personal attribute storage unit 6 and transferred to the voice communication unit 2. That is, in step S203, a user ID corresponding to the emotion table (FIG. 4) to be processed is acquired, and the personal information table (FIG. 2) stored in the personal attribute storage unit 6 using the user ID as a key. By searching, the telephone number to be called is obtained.
[0054]
In the outgoing scenario composition step (S204), the scenario management unit 3 performs statistical processing in the outgoing timing determination step, the personal information stored in the personal attribute storage means 5, and the outgoing message stored in the scenario storage unit 4. A scenario to be transmitted to the user is synthesized based on the contents and the template of the order of transmission. Specifically, an “emotion scenario” is created in step S204. “Emotion scenario creation” is basically the same processing as step S107 described above. However, since the value of the telephone call desire is as high as 100% or more, the scenario selected from the scenario storage unit 4 is, for example, , “Sometimes I ’m worried because there ’s no phone for a long time”. In addition, as the value of the desire to make a call increases, it becomes increasingly angry or extreme conversation content, and there are application examples such as a voice that is effective and a scary man's voice Conceivable.
[0055]
In the outgoing voice synthesizing step (S205), the voice synthesizing unit 7 uses the scenario synthesized in the outgoing scenario synthesizing step and the voice data used for voice synthesis stored in the voice information storage unit to make a call to the user. Synthesize speech.
[0056]
In the voice communication transmission step (S206 to S209), the voice communication unit 2 performs voice communication based on the user information transferred in the user information acquisition step, transmits the voice for transmission, and receives the voice from the user. The scenario management unit 3 confirms the response from the user received by the voice communication unit 2. Specifically, the emotion scenario is transmitted to the scenario management unit 3 as step S206 in the personal attribute management unit 5. The scenario management unit 3 uses the voice communication unit 2 to make a call to the telephone number acquired in step S203.
[0057]
After the emotion scenario is created, next, in step S207, it is determined whether or not the user 1 has responded to the call made in step S206, and if it is answered, the process branches to step S208, and if not, the process branches to step S210. .
[0058]
In step S208, as in step S109, the synthesized scenario is analyzed and divided into units for performing voice response. If the unit of the divided voice response is voice synthesis, the voice synthesis unit 7 performs voice synthesis. Is transmitted, and when waiting for a response from the user, the response waiting instruction from the user is transmitted to the voice communication unit 2 to perform a voice response.
[0059]
When the processing in the voice synthesizing unit 7 or the voice communication unit 2 is finished, in step S209, as in step S110, it is determined whether or not the scenario divided into units in which voice response is performed in step S208 is completed. If there is a remaining part, the process branches to step S208 to execute the next voice response unit. If there is no remaining part and the scenario ends, the process branches to step S210 to disconnect the telephone line.
[0060]
In the data rewriting step (S211), the personal attribute management unit 5 rewrites the data in the personal attribute storage unit 6 in accordance with the content of the communication performed in the voice communication transmission step. In step S211, information such as whether the user 1 responds or the voice response with the user 1 continues to the end is transmitted from the scenario management unit 3 to the personal attribute management unit 5. In addition, the emotion table stored in the personal attribute storage unit 6 is updated. For example, when the user 1 does not respond, the value of another field (such as “anger”) of the emotion table is increased, or when the user 1 responds and the call is completed, the emotion table Or decrease the value of the phone call desire. When step S211 is completed, the process flow for making a call to the user 1 ends. Next, the next user process is performed.
[0061]
As described above, by using the service called telephone calls by multiple users, the user's usage history is accumulated, and the usage history is statistically processed, so that the individual who wants to wake up without complicated settings can be obtained. It is possible to provide a system that can be applied to services with situations such as conversations with virtual lovers. .
[0062]
FIG. 8 is a block diagram showing a voice response system according to another embodiment of the present invention. 8 includes a voice communication unit 2, a scenario management unit 3, a scenario storage unit 4, a personal attribute management unit 5, a personal attribute storage unit 6, a voice synthesis unit 7, a voice information storage unit 8, and a mail reception unit 9. The mail delivery unit 10 is configured.
[0063]
The system shown in FIG. 8 adds a mail reception unit 9 and a mail delivery unit 10 to the embodiment of the present invention shown in FIG. ) Can be personalized through e-mail exchange. Specifically, the personal attribute management unit 5 is one of the information obtained by the voice communication unit 2 regarding the personal information about the user and the content of the email received from the user received by the email receiving unit or It is a system that updates personal information by analyzing both.
[0064]
In addition, as the operation of this system, the personal attribute management unit 5 includes the information obtained by the voice communication means regarding the personal information related to the user and the content of the electronic mail from the user received by the electronic mail receiving unit 9. A personal information update step of updating personal information by analyzing either or both of them is included. For example, it is assumed that the user 1 sends an e-mail message such as “Today it failed at the company. Sad” to the system. Then, the mail reception unit 9 receives the electronic mail, extracts a word by performing syntax analysis, and transmits the extracted word to the personal attribute management unit 5.
[0065]
In the personal attribute management unit 5, the received word group is registered in a free keyword or the like of the personal information table (FIG. 2) stored in the personal attribute storage unit 6, so that personal information used for future reception can be accumulated. it can. Further, the system side transmits a mail delivery instruction to the mail delivery unit 10 by using the empty state of the personal information table (FIG. 2) stored in the personal attribute storage unit 6 as a trigger, and sends a mail to the user 1. It can also be sent. For example, when the value of “hobby” in the personal information table is empty, the keyword “hobby” is transmitted from the personal attribute management unit 5 to the scenario management unit 3, and the scenario management unit 3 sets the keyword “hobby” as a keyword. and search for the appropriate scenario from the scenario storage unit 4 is to convey to the mail distribution section 10, "Susumu-kun, Hello! I'm suddenly, I, of began recently tennis. Susumu Mr. hobby is what?" electrons, such as An email can be sent to the user 1, and depending on the response email of the user 1, the “hobby” value of the personal information table can be supplemented by using the above-described mail receiving unit 9. Become.
[0066]
By using services such as telephone calls and e-mails by multiple users, the user's usage history and personal information are accumulated, and the usage history statistical processing and personal information can be used to wake up without complicated settings. To provide a system that can be personalized and can be applied to services with situations such as a conversation with a virtual lover without any discomfort. it can. For example, if the user is depressed, sending an email to that effect will give you a voice of comfort or encouragement with your favorite voice, or if the user is angry, quit it, etc. It is done.
[0067]
【The invention's effect】
As described above, according to the present invention, when a user uses a service multiple times, the user's usage history and personal information are accumulated and statistically processed, so that the personalized content without complicated settings. It is possible to be able to respond with.
Furthermore, it can also be a user's favorite voice.
[Brief description of the drawings]
FIG. 1 is a block diagram showing the configuration of a voice communication system that automatically responds to incoming calls via a voice communication network according to an embodiment of the present invention.
FIG. 2 is an example showing a personal information table stored in a personal attribute storage unit 6;
FIG. 3 is an example showing a call history table stored in a personal attribute storage unit 6;
FIG. 4 is an example showing an emotion table stored in the personal attribute storage unit 6;
FIG. 5 is a flowchart showing a voice response method using a voice communication system that automatically makes a voice response when an incoming call is received via the voice communication network 101 according to an embodiment of the present invention.
FIG. 6 is an example of a scenario that is combined in a process flow for receiving a call from a user according to an embodiment of the present invention.
FIG. 7 is a flowchart showing a voice response method using a voice communication system that automatically makes a voice response when an incoming call is received via the voice communication network 101 according to another embodiment of the present invention. .
FIG. 8 is a block diagram showing a configuration of a voice communication system that automatically makes a voice response to an incoming call via a voice communication network according to another embodiment of the present invention.
[Explanation of symbols]
1: User
2: Voice communication unit
3: Scenario Management Department
4: Scenario storage
5: Personal attribute management department
6: Personal attribute storage
7: Speech synthesis unit
8: Audio information storage
101: Communication network

Claims (7)

通信網を介して着信を受けた場合に自動的に音声応答を行う音声応答システムを用いた音声通信方法であって、
音声通信手段が、通信網を通じて利用者から送信された情報のうち利用者を特定するための利用者情報を取得する利用者情報取得ステップと、
個人属性管理手段が、前記利用者情報取得ステップにより取得された前記利用者情報と個人属性記憶手段に格納された利用者情報とを比較して、前記利用者情報と関連付けられて前記個人属性記憶手段に格納された利用者に関する個人情報を特定する個人情報特定ステップと、
シナリオ管理手段が、前記個人情報特定ステップにより特定された個人情報とシナリオ記憶手段に格納された応答の内容及び応答の順序の雛型とに基づいて利用者に対する応答用のシナリオを合成する応答シナリオ合成ステップと、
音声合成手段が、前記応答シナリオ合成ステップにより合成されたシナリオと音声情報記憶手段に格納された音声合成に用いる音声データとに基づいて利用者に対する応答用の音声を合成する応答音声合成ステップと、
前記音声通信手段が、前記応答音声合成ステップにより合成された応答用の音声を利用者に送信し、利用者からの応答を受信し、前記シナリオ管理手段が、前記音声通信手段の受信した利用者からの応答を確認する音声応答ステップと、
前記個人属性管理手段が、前記音声応答ステップにより行われた通信の内容に応じて前記個人属性記憶手段に格納されたデータを書き替えるデータ書替ステップとからなり
前記個人属性管理手段が、前記個人属性記憶手段に格納された個人情報の抜けを判定するステップと、
抜けがあると判定された場合には、前記シナリオ管理手段が個人情報の抜けた部分を補う補完シナリオを合成する補完シナリオ合成ステップと、
メール配信手段が、前記補完シナリオを電子メールで利用者に配信するメール配信ステップと
メール受信手段が、利用者からの応答電子メールを受信するメール受信ステップと
前記個人属性管理手段が、受信した応答電子メールの内容を解析することで個人情報を更新する個人情報更新ステップをさらに含む
ことを特徴とする音声通信方法
A voice communication method using a voice response system that automatically performs a voice response when an incoming call is received via a communication network,
A user information acquisition step in which the voice communication means acquires user information for identifying the user among the information transmitted from the user through the communication network;
The personal attribute management means compares the user information acquired in the user information acquisition step with the user information stored in the personal attribute storage means, and associates the user information with the user information to store the personal attribute A personal information identifying step for identifying personal information about the user stored in the means;
A response scenario in which a scenario management unit synthesizes a scenario for response to a user based on the personal information specified in the personal information specifying step, the response contents stored in the scenario storage unit, and the response sequence model A synthesis step;
A speech synthesis unit that synthesizes speech for response to the user based on the scenario synthesized by the response scenario synthesis step and the speech data used for speech synthesis stored in the speech information storage unit;
The voice communication means transmits the response voice synthesized in the response voice synthesis step to the user, receives a response from the user, and the scenario management means receives the user received by the voice communication means. A voice response step to confirm the response from
The personal attribute management means consist with the personal attribute storing unit exchange data writing rewrite data stored in the step in accordance with the contents of the communication performed by the voice response step,
The personal attribute management means determining the omission of personal information stored in the personal attribute storage means;
If it is determined that there is missing is a complementary scenario synthesis step of synthesizing a complementary scenario the scenario management means compensate for the missing portion of the personal information,
An email delivery step in which an email delivery means delivers the supplementary scenario to the user by email ;
A mail receiving step in which the mail receiving means receives a response email from the user ;
The voice communication method , further comprising a personal information update step in which the personal attribute management means updates the personal information by analyzing the content of the received response e-mail .
通信網を介して着信を受けた場合に自動的に音声応答を行う音声通信装置であって、
受信した情報のうち利用者を特定するための利用者情報を取得し、応答用の音声を送信し、利用者からの応答を受信する音声通信手段と、
前記音声通信手段により取得された利用者情報と、前記利用者情報に関連付けて利用者に関する個人情報とを格納する個人属性記憶手段と、
前記音声通信手段により取得された前記利用者情報と前記個人属性記憶手段に格納されている利用者情報とを比較して前記個人情報を特定し、前記音声通信手段が行った通信の内容に応じて前記個人属性記憶手段に格納されたデータを書き替える個人属性管理手段と、
応答の内容及び応答の順序の雛型とが格納されたシナリオ記憶手段と、
前記個人属性管理手段により特定された個人情報と前記シナリオ記憶手段に格納された応答の内容及び応答の順序の雛型とに基づいて利用者に対する応答用のシナリオを合成し、前記音声通信手段が受信した利用者からの応答を確認するシナリオ管理手段と、
音声合成に用いる音声データを格納した音声情報記憶手段と、
前記シナリオ管理手段により合成された応答用のシナリオと前記音声情報記憶手段に格納された音声合成に用いる音声データとに基づいて利用者に対する応答用の音声を合成して前記音声通信手段に転送する音声合成手段と、
補完シナリオを電子メールで利用者に配信するメール配信手段と
利用者からの応答電子メールを受信するメール受信手段と
を含み、
前記個人属性管理手段が、前記個人属性記憶手段に格納された個人情報の抜けを判定し
抜けがあると判定された場合には、前記シナリオ管理手段が個人情報の抜けた部分を補う補完シナリオを合成して、前記メール配信手段にメール配信の指示を伝達し
前記個人属性管理手段が、メール受信手段が受信した応答電子メールの内容を解析することで個人情報を更新する
ことを特徴とする音声通信装置
A voice communication device that automatically responds to voice calls when an incoming call is received via a communication network;
Voice communication means for acquiring user information for identifying the user among the received information, transmitting a response voice, and receiving a response from the user;
Personal attribute storage means for storing user information acquired by the voice communication means and personal information related to the user in association with the user information;
The user information acquired by the voice communication means is compared with the user information stored in the personal attribute storage means to identify the personal information, and depending on the content of the communication performed by the voice communication means Personal attribute management means for rewriting the data stored in the personal attribute storage means,
Scenario storage means storing response contents and response order templates;
The voice communication means synthesizes a scenario for response to the user based on the personal information specified by the personal attribute management means and the response content stored in the scenario storage means and the response order model. Scenario management means to confirm the response from the received user,
Voice information storage means storing voice data used for voice synthesis;
Based on the scenario for response synthesized by the scenario management means and the voice data used for voice synthesis stored in the voice information storage means, the voice for response to the user is synthesized and transferred to the voice communication means. Speech synthesis means;
An email delivery means for delivering the supplementary scenario to users via email ;
A mail receiving means for receiving a response email from the user ;
Including
The personal attribute management means determines omission of personal information stored in the personal attribute storage means ;
When it is determined that there is omission, the scenario management unit synthesizes a supplementary scenario that compensates for the missing portion of personal information, and transmits an e-mail delivery instruction to the e-mail delivery unit ,
The voice communication apparatus, wherein the personal attribute management means updates the personal information by analyzing the content of the response e-mail received by the mail receiving means .
通信網を介して自動的に発信を行う音声通信システムを用いた音声通信方法であって、 個人属性管理手段が、通信網を介して利用者と通信を行う音声通信手段により取得され個人属性記憶手段に格納された、利用者の利用者情報、利用者との通信により得られた利用者の個人情報、及び利用者からの着信日時の履歴情報のうち着信日時の履歴を統計処理することによって利用者に対してメッセージを発信すべきタイミングを決定する発信タイミング決定ステップと、
前記個人属性管理手段が、前記発信タイミング決定ステップにより発信すべきタイミングであると決定された利用者の利用者情報を前記個人属性記憶手段から取得して前記音声通信手段に転送する利用者情報取得ステップと、
シナリオ管理手段が、前記発信タイミング決定ステップにより統計処理した結果と、前記個人属性記憶手段に格納された個人情報と、シナリオ記憶手段に格納された発信の内容、及び発信の順序の雛型とに基づいて利用者に対して発信すべきシナリオを合成する発信シナリオ合成ステップと、
音声合成手段が、前記発信シナリオ合成ステップにより合成されたシナリオと音声情報記憶手段に格納された音声合成に用いる音声データとに基づいて利用者に対する発信用の音声を合成する発信音声合成ステップと、
前記音声通信手段が、前記利用者情報取得ステップにより転送された利用者情報に基づいて音声通信の発信を行い、前記発信用の音声を送信し、利用者からの応答を受信し、前記音声通信手段が受信した利用者からの応答を前記シナリオ管理手段が確認する音声通信発信ステップと、
前記個人属性管理手段が、前記音声通信発信ステップにより行われた通信の内容に応じて前記個人属性記憶手段に格納されたデータを書き替えるデータ書替ステップとからなり
前記個人属性管理手段が、前記個人属性記憶手段に格納された個人情報の抜けを判定するステップと、
抜けがあると判定された場合には、前記シナリオ管理手段が個人情報の抜けた部分を補う補完シナリオを合成する補完シナリオ合成ステップと、
メール配信手段が、前記補完シナリオを電子メールで利用者に配信するメール配信ステップと
メール受信手段が、利用者からの応答電子メールを受信するメール受信ステップと
前記個人属性管理手段が、受信した応答電子メールの内容を解析することで個人情報を更新する個人情報更新ステップをさらに含む
ことを特徴とする音声通信方法。
A voice communication method using a voice communication system that automatically transmits via a communication network, wherein the personal attribute management means is acquired by the voice communication means that communicates with the user via the communication network and stores personal attributes. By statistically processing the user's user information stored in the means, the user's personal information obtained by communication with the user, and the history of the date and time of incoming calls from the user. A transmission timing determination step for determining a timing at which a message should be transmitted to the user;
User information acquisition in which the personal attribute management means acquires user information of a user determined to be a timing to be transmitted in the transmission timing determination step from the personal attribute storage means and transfers it to the voice communication means Steps,
The scenario management means performs statistical processing in the transmission timing determination step, the personal information stored in the personal attribute storage means, the content of the transmission stored in the scenario storage means, and the template of the order of transmission An outgoing scenario synthesis step for synthesizing a scenario to be sent to a user based on
A voice synthesis unit that synthesizes a voice for transmission to the user based on the scenario synthesized by the transmission scenario synthesis step and voice data used for voice synthesis stored in the voice information storage unit;
The voice communication means transmits voice communication based on the user information transferred in the user information acquisition step, transmits the outgoing voice, receives a response from the user, and receives the voice communication. Voice communication transmission step in which the scenario management means confirms the response from the user received by the means;
The personal attribute management means consist with the personal attribute storing unit exchange data writing rewrite data stored in the step in accordance with the contents of the communication performed by said voice communication emission step,
The personal attribute management means determining the omission of personal information stored in the personal attribute storage means;
If it is determined that there is missing is a complementary scenario synthesis step of synthesizing a complementary scenario the scenario management means compensate for the missing portion of the personal information,
An email delivery step in which an email delivery means delivers the supplementary scenario to the user by email ;
A mail receiving step in which the mail receiving means receives a response email from the user ;
The voice communication method further comprising a personal information update step in which the personal attribute management means updates the personal information by analyzing the content of the received response e-mail .
通信網を介して自動的に発信を行う音声通信装置であって、
通信網を介して利用者の利用者情報を用いて利用者と通信を行う音声通信手段と、
利用者の前記利用者情報、利用者との通信により得られ前記利用者情報と関連付けられた利用者の個人情報、及び利用者からの着信日時の履歴情報を格納した個人属性記憶手段と、
個人属性記憶手段に格納された着信日時の履歴を統計処理することによって利用者に対してメッセージを発信すべきタイミングを決定し、発信すべきタイミングであると決定された利用者の利用者情報を前記個人属性記憶手段から取得して前記音声通信手段に転送し、前記音声通信手段が行った通信の内容に応じて前記個人属性記憶手段に格納されたデータを書き替える個人属性管理手段と、
応答の内容及び応答の順序の雛型とが格納されたシナリオ記憶手段と
前記個人属性管理手段が統計処理した結果と、前記個人属性記憶手段に格納された個人情報と、シナリオ記憶手段に格納された発信の内容、及び発信の順序の雛型とに基づいて利用者に対して発信すべきシナリオを合成し、前記音声通信手段が受信した利用者からの応答を確認するシナリオ管理手段と、
音声合成に用いる音声データを格納した音声情報記憶手段と、
前記シナリオ管理手段により合成されたシナリオと前記音声情報記憶手段に格納された音声合成に用いる音声データとに基づいて利用者に対する発信用の音声を合成して前記音声通信手段に転送する前記音声合成手段と、
補完シナリオを電子メールで利用者に配信するメール配信手段と
利用者からの応答電子メールを受信するメール受信手段と
を含み、
前記個人属性管理手段が、前記個人属性記憶手段に格納された個人情報の抜けを判定し
抜けがあると判定された場合には、前記シナリオ管理手段が個人情報の抜けた部分を補う補完シナリオを合成して、前記メール配信手段にメール配信の指示を伝達し
前記個人属性管理手段が、メール受信手段が受信した応答電子メールの内容を解析することで個人情報を更新する
ことを特徴とする音声通信装置
A voice communication device that automatically makes a call via a communication network,
Voice communication means for communicating with the user using the user information of the user via the communication network;
Personal attribute storage means for storing the user information of the user, personal information of the user obtained through communication with the user and associated with the user information, and history information of the date and time of arrival from the user;
Determining when to transmit a message to the user by statistically processing the history of the incoming date stored in the personal attribute storage unit, the user of the user information that has been determined to be the timing to disseminate Is acquired from the personal attribute storage means and transferred to the voice communication means, and personal attribute management means for rewriting the data stored in the personal attribute storage means according to the content of the communication performed by the voice communication means;
Scenario storage means storing response contents and response order templates ;
Based on the result of the statistical processing by the personal attribute management means, the personal information stored in the personal attribute storage means, the contents of the transmission stored in the scenario storage means, and the template of the order of transmission Scenario management means for synthesizing a scenario to be transmitted to the user and confirming a response from the user received by the voice communication means;
Voice information storage means storing voice data used for voice synthesis;
The voice synthesis for synthesizing a voice for transmission to a user based on the scenario synthesized by the scenario management means and voice data used for voice synthesis stored in the voice information storage means and transferring the voice to the voice communication means Means,
An email delivery means for delivering the supplementary scenario to users via email ;
A mail receiving means for receiving a response email from the user ;
Including
The personal attribute management means determines omission of personal information stored in the personal attribute storage means ;
When it is determined that there is omission, the scenario management unit synthesizes a supplementary scenario that compensates for the missing portion of personal information, and transmits an e-mail delivery instruction to the e-mail delivery unit ,
The voice communication apparatus, wherein the personal attribute management means updates the personal information by analyzing the content of the response e-mail received by the mail receiving means .
請求項1に記載の音声通信方法をコンピュータで処理させるためのプログラム A program for causing a computer to process the voice communication method according to claim 1 . 請求項3に記載の音声通信方法をコンピュータで処理させるためのプログラム A program for causing a computer to process the voice communication method according to claim 3 . 請求項5または請求項6に記載のプログラムを格納したコンピュータ読み取り可能な記録媒体 A computer-readable recording medium storing the program according to claim 5 or 6 .
JP2002203601A 2002-07-12 2002-07-12 Audio communication method, audio communication apparatus, program, and recording medium Expired - Fee Related JP3847674B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2002203601A JP3847674B2 (en) 2002-07-12 2002-07-12 Audio communication method, audio communication apparatus, program, and recording medium

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2002203601A JP3847674B2 (en) 2002-07-12 2002-07-12 Audio communication method, audio communication apparatus, program, and recording medium

Publications (2)

Publication Number Publication Date
JP2004048416A JP2004048416A (en) 2004-02-12
JP3847674B2 true JP3847674B2 (en) 2006-11-22

Family

ID=31709427

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2002203601A Expired - Fee Related JP3847674B2 (en) 2002-07-12 2002-07-12 Audio communication method, audio communication apparatus, program, and recording medium

Country Status (1)

Country Link
JP (1) JP3847674B2 (en)

Families Citing this family (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US8155624B2 (en) 2005-04-29 2012-04-10 Microsoft Corporation Automatic wireless device message management responsive to end user preferences
JP2010141837A (en) * 2008-12-15 2010-06-24 Nec Corp Answering machine system, method of controlling the same, and program of the same
CN105094315B (en) * 2015-06-25 2018-03-06 百度在线网络技术(北京)有限公司 The method and apparatus of human-machine intelligence's chat based on artificial intelligence
JP6741322B1 (en) * 2019-11-07 2020-08-19 Jeインターナショナル株式会社 Automatic transmission system, processing method, and program

Family Cites Families (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH10222178A (en) * 1997-02-04 1998-08-21 Brother Ind Ltd Request system
JP3450175B2 (en) * 1998-02-19 2003-09-22 富士通株式会社 Operator response scenario system
JP2952771B1 (en) * 1998-05-15 1999-09-27 直之 宮山 Customer information collection and distribution system
US6760428B2 (en) * 1999-07-30 2004-07-06 Avaya Technology Corp. Modification of voice prompting based on prior communication in a call center
JP2001119473A (en) * 1999-10-20 2001-04-27 Shimadzu Business Systems Corp Message transmission system
JP2001136272A (en) * 1999-11-02 2001-05-18 Oki Electric Ind Co Ltd Automatic answering device
JP2001309051A (en) * 2000-04-17 2001-11-02 Toshiba Corp Automatic call device

Also Published As

Publication number Publication date
JP2004048416A (en) 2004-02-12

Similar Documents

Publication Publication Date Title
US8660038B1 (en) Previewing voicemails using mobile devices
US20030109251A1 (en) System and method for distributing ring tone data used for generating ring tone of mobile phones
US20040146150A1 (en) Method for populating a caller&#39;s information to a host-based address book
EP2022242B1 (en) Dynamic speed dial number mapping
CN1347237A (en) Data record system for memory of telephone calling content of interphone and mobile phone
JP2006524962A (en) Method and apparatus for a dynamically customizable smart phone book
US20110076995A1 (en) System and method for providing multimedia object linked to mobile communication network
US7542552B2 (en) Method and apparatus for generating default personal greetings using text to speech conversion
JP4627281B2 (en) Communication support system, communication support method, and communication support program
US9167084B2 (en) Apparatus and method for providing call connection notification to a caller by displaying public relation (PR) information of a callee
KR100881657B1 (en) System for providing widzet type idle-screen
CN101150820A (en) A method for realizing no disturbance service in mobile terminal
CN102045462B (en) Method and apparatus for unified interface for heterogeneous session management
JP3847674B2 (en) Audio communication method, audio communication apparatus, program, and recording medium
WO2002039422A2 (en) Voice telephone book service system using voice recognition and method thereof
JP2009147399A (en) Telephone relaying device, telephone relaying method, and program for telephone relay
JP2004282609A (en) Tone information providing system
US7606352B2 (en) Method and system of processing messages
CN101056337B (en) Method and system for integrated representation of the multiple music services
KR100512048B1 (en) Method to serve the reservation call
US20130136246A1 (en) Initiating a telephonic connection
CN111953839A (en) Address book updating method, server, terminal and storage medium
JP2002304392A (en) Voice translation system
JP4121894B2 (en) Message accumulation state management server and message accumulation state management system
JP2007142691A (en) Mobile phone, simulated conversation method, and program thereof

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20040720

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20060427

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20060516

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20060714

RD02 Notification of acceptance of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7422

Effective date: 20060731

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20060822

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20060823

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20090901

Year of fee payment: 3

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20100901

Year of fee payment: 4

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20100901

Year of fee payment: 4

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20110901

Year of fee payment: 5

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20120901

Year of fee payment: 6

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20130901

Year of fee payment: 7

S531 Written request for registration of change of domicile

Free format text: JAPANESE INTERMEDIATE CODE: R313531

R350 Written notification of registration of transfer

Free format text: JAPANESE INTERMEDIATE CODE: R350

LAPS Cancellation because of no payment of annual fees