JP4155854B2 - 対話制御システム及び方法 - Google Patents
対話制御システム及び方法 Download PDFInfo
- Publication number
- JP4155854B2 JP4155854B2 JP2003081136A JP2003081136A JP4155854B2 JP 4155854 B2 JP4155854 B2 JP 4155854B2 JP 2003081136 A JP2003081136 A JP 2003081136A JP 2003081136 A JP2003081136 A JP 2003081136A JP 4155854 B2 JP4155854 B2 JP 4155854B2
- Authority
- JP
- Japan
- Prior art keywords
- information
- agent
- input
- dialogue
- dialog
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Expired - Fee Related
Links
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F9/00—Arrangements for program control, e.g. control units
- G06F9/06—Arrangements for program control, e.g. control units using stored programs, i.e. using an internal store of processing equipment to receive or retain programs
- G06F9/44—Arrangements for executing specific programs
- G06F9/451—Execution arrangements for user interfaces
Landscapes
- Engineering & Computer Science (AREA)
- Software Systems (AREA)
- Theoretical Computer Science (AREA)
- Human Computer Interaction (AREA)
- Physics & Mathematics (AREA)
- General Engineering & Computer Science (AREA)
- General Physics & Mathematics (AREA)
- User Interface Of Digital Computer (AREA)
Description
【発明の属する技術分野】
本発明は、コンピュータとユーザとの間で情報のやり取りを円滑に行うことができる対話制御システム及び方法に関する。
【0002】
【従来の技術】
近年のコンピュータによる処理能力の急速な向上、及びインターネット等の通信環境の広範囲にわたる普及によって、ユーザがコンピュータを通じて情報を取得したり、情報を通知したりする機会が急増している。かかるコンピュータを用いた情報サービスは幅広い分野で提供されており、コンピュータに精通しているユーザのみならず、例えばコンピュータに詳しくない、あるいは不慣れなユーザが、このような情報サービスを利用する機会も増えてきている。さらに、今後、インターネット環境においてはブロードバンド化が急速に進むことが予想されており、より大量の情報を提供する情報サービスが増えるものと考えられている。
【0003】
かかる状況下において、システムとの対話を前提とした対話サービスにおいては、ユーザに事前に想定されている認識用文法に沿った入力を要求すること自体が困難な状況になりつつある。すなわち、認識用文法想定時には考えが及んでいない内容が入力されることも考えられる。あるいは、1つの対話エージェント内では収束せず、複数の対話エージェントにまたがった対話を行うことも多く、このような場合でも対話として成立させることに対する要望が強くなっている。
【0004】
そこで、ユーザがシステムと自然な対話を行いながら、上述したような情報サービスを享受することができるユーザインタフェース技術が、様々な側面から開発されてきている。
【0005】
例えば、VoiceXMLやSALTのようなミドルウェアを用いて、音声インタフェースを利用した情報サービスアプリケーションを構築する技術も開発されている。図1に、ミドルウェアを用いた場合の対話システムの構成図を示す。
【0006】
図1に示すように、入力部101から入力されるユーザの入力情報、及びユーザの入力情報に対するコンピュータの処理や、出力部102に対して出力される画面や音声の処理を対話アプリケーション104に記述しておくことにより、入力情報に対応する出力情報を生成する処理をミドルウェア103で行うことができ、対話システムを円滑に運用することが可能となる。このようにすることで、銀行の窓口業務、企業の電話受付等のサービスをコンピュータによって代替することが可能となっている。
【0007】
また、ユーザが当該対話システムを用いて円滑な対話を行う方法を知るために、他のユーザが行った対話内容を知ることができるようにして、どのような入力によって欲しい情報を得ることができるか学習することができるようにすることも考えられる。
【0008】
例えば、(特許文献1)においては、ユーザが任意の対話エージェントを用いてシステムと対話し、第三者である他のユーザに対して、当該対話エージェントを介して行った対話内容を公開する技術が開示されている。
【0009】
一方では、ユーザの入力内容を解析して、入力内容に対応している対話エージェントを選択できるようにすることで、ユーザがどのような内容を入力してきても対応できるようにすることも考えられる。
【0010】
例えば、(特許文献2)においては、対話エージェントとの仲介を行うヘルプエージェントを用いて、ユーザの入力内容に適した対話エージェントとの対話を仲介する技術が開示されている。
【0011】
【特許文献1】
特開平11−15666号公報
【0012】
【特許文献2】
特開2001−337827号公報
【0013】
【発明が解決しようとする課題】
しかし、上述したようなユーザインタフェースは、例えば銀行窓口で引き落としの手続き等を行う際に利用される等、単一の作業においては効果的であるものの、様々な手続きや作業を行う場合においては、ユーザインタフェースが画一的であるがために、ユーザにとって自然な対話を行うことが困難になるという問題点があった。
【0014】
例えば、マイクロソフト社のWindows(R)等のGUIを用いる場合、複数のアプリケーションについて同時に作業を行うには、マウスやキーボード等を用いて、明示的にアプリケーションを切り替えて操作を行う必要がある。また、音声ポータルなどで提供されるサービスなども、異なる機能やサービスは、ユーザが明示的に音声を用いて切り替える必要がある。特に、長時間に渡り複数のサービスや機能を何度も切り替える場合、ユーザが過去にどのようにサービスや機能を利用したかを記憶しておく必要があり、ユーザに負担を強いることになる。
【0015】
また、複数のサービスや機能が存在する場合、図2に示すようなメニューツリーを用いてサービス等の提供パスを設ける場合が多い。そして、ユーザが利用するたびに、メニューツリーのルートツリーであるメインページから辿るような利用形態の場合は特に問題は生じない。しかし、一度ルートツリーから内部ツリーへと入り込んで当該サービス等を利用している途中に、別のツリーへ移動する必要がある場合等においては、当該メニューツリーのルートツリーに戻る作業や、移動先の別のツリーから再度元のメニューツリーに戻る作業等が必要となり、ユーザの操作負荷が大きくなるという問題点があった。
【0016】
例えば、図2において、「ニュース情報」から「スポーツ」を利用してその中の記事を読んでいる途中で、「天気情報」の「週間予報」が気になった場合、一度、メインページまで戻って「天気情報」、「週間予報」と順番にメニューを遷移させる必要が生じる。さらにその後、再度「スポーツ」に戻る場合、同様の作業を繰り返し行う必要がある。
【0017】
かかる問題点を解消するべく、個々のメニューから他のメニューへと直接移動できる経路を加えることも考えられているが、メニューの数が多くなればなるほど、あるいはメニュー階層が増えれば増えるほど、このような経路の数も指数級数的に増大し、それに対応するGUIの表示や音声入力における認識対象の語彙も増大し、現実的な解決策とはなり得ない。
【0018】
また、(特許文献2)においては、ユーザによる各対話エージェントにおける対話内容を記録しておき、対話が終了していない対話エージェントについては、他の対話エージェント使用時であっても、対話が終了していない対話エージェントにおける入力ガイダンスをシステム応答として行うことができるようにしているが、相当数の対話エージェントが同時に使用される場合、繰り返し出力されるシステム応答も複数になり、また特に音声で回答される場合には、時間が経過すればするほど前の内容を思い出すことが困難であることから、ユーザにとって自然対話感覚とはほど遠い実用性のないユーザインタフェースとなってしまうという問題点もあった。
【0019】
さらに、任意の対話入力に応答するためには、すべての対話エージェントがあらゆる入力音声に対応可能な認識用文法を準備しておく必要があるが、ディスク等の記憶装置の容量等の物理的な制約が有る以上、すべての対話エージェントがそのような認識用文法を準備することは現実的に困難である。
【0020】
本発明は、上記問題点を解決するために、ユーザが操作履歴を意識することなく、ユーザによる自然な対話内容に動的に対応して円滑な対話を実現する対話制御システム及び方法を提供することを目的とする。
【0021】
【課題を解決するための手段】
上記目的を達成するために本発明にかかる対話制御システムは、ユーザにより入力された入力情報を解釈する入力部と、入力情報に対応する応答を行う対話エージェントと、対話エージェントと入力部の間で、複数の対話エージェントを識別し、入力情報を対話エージェントに送信して応答を依頼し、対話エージェントからの応答を出力部に送る対話制御部を有する対話制御システムであって、対話制御部が、入力情報が入力されると、複数の対話エージェントに対して処理可能情報を問い合わせ、処理可能情報を記憶し、入力情報と処理可能情報を照合して、入力情報を処理できる対話エージェントを選択し、選択された対話エージェントに対して入力情報を送信して応答を受信することを特徴とする。
【0022】
かかる構成により、入力情報に対応可能な対話エージェントを確実に選択することができるとともに、入力されるごとに対話エージェントを変更することもできることから、入力情報のカテゴリが頻繁に変化する自然な対話に近い状態で、円滑な対話を行うことが可能となる。
【0023】
また、本発明にかかる対話制御システムは、対話制御部において、予め対話エージェントの識別情報と対話エージェントの選択優先度を対応付けて格納し、入力情報と処理可能情報の照会を行う際に、選択優先度の高い対話エージェントから順に照会を行い、最初に選択された対話エージェントに対して、入力情報を送信して応答を依頼することが好ましい。
【0024】
また、本発明にかかる対話制御システムは、対話制御部において、入力情報の送信先として選択された対話エージェントの識別情報を蓄積し、次の対話エージェントを選択する際に、最初に記憶されている対話エージェントを照会し、記憶されている対話エージェントが入力情報を処理可能であれば、記憶されている対話エージェントに入力情報を送信し応答の依頼を行い、記憶されている対話エージェントが入力情報を処理できない場合は、選択優先度の高い対話エージェントから順に照会を行うことが好ましい。前回の入力に対して対話を行った対話エージェントを継続して用いる可能性が最も高いからである。
【0025】
さらに、本発明にかかる対話制御システムは、対話エージェントの選択優先度が利用頻度に応じて自動更新されることが好ましい。
【0026】
また、本発明にかかる対話制御システムは、対話制御部において、入力情報の内容に応じて照会する対話エージェントを絞り込み、絞り込まれた対話エージェントに対して選択優先度の高い順に照会を行うことが好ましい。さらに、本発明にかかる対話制御システムは、対話制御部において、対話エージェントごとの処理可能情報に基づいて利用可能であると判定された対話エージェントの識別情報を記憶し、対話処理部が、利用可能であると判定された対話エージェントにのみ処理可能情報を問い合わせることが好ましい。無用な照会処理を未然に回避することで、計算機資源の無駄遣いを未然に防止することができるからである。
【0027】
また、本発明にかかる対話制御システムは、対話制御部において、ユーザを識別する情報を入力するユーザ情報入力部と、入力されたユーザを識別する情報と、ユーザごとに選択優先度を含む対話エージェントを用いた状態に関する情報を記憶し、ユーザごとの選択優先度に応じた処理を行うことが好ましい。ユーザごとに対話状況を記憶しておくことで、連続して対話を行わない場合であっても、容易にもとの対話状況に復帰することができるからである。
【0028】
また、本発明は、上記のような対話制御システムの機能をコンピュータの処理ステップとして実行するソフトウェアを特徴とするものであり、具体的には、ユーザにより入力された入力情報を解釈する工程と、入力情報に対応する応答を行う複数の対話エージェントを識別し、入力情報を対話エージェントに送信して応答を依頼し、対話エージェントからの応答を出力する工程を有する対話制御方法であって、入力情報が入力されると、複数の対話エージェントに対して、処理可能情報を問い合わせ、処理可能情報を記憶し、入力情報と処理可能情報を照合して、入力情報を処理できる対話エージェントを選択し、選択された対話エージェントに対して入力情報を送信して応答を受信する対話制御方法並びにそのような工程を具現化するコンピュータ実行可能なプログラムであることを特徴とする。
【0029】
かかる構成により、コンピュータ上へ当該プログラムをロードさせ実行することで、入力情報に対応可能な対話エージェントを確実に選択することができるとともに、入力されるごとに対話エージェントを変更することもできることから、入力情報のカテゴリが頻繁に変化する自然な対話に近い状態で、円滑な対話を行うことができる対話制御システムを実現することが可能となる。
【0030】
【発明の実施の形態】
以下、本発明の実施の形態にかかる対話制御システムについて、図面を参照しながら説明する。図3は本発明の実施の形態にかかる対話制御システムの構成図である。図3において、入力部301からは、ユーザによる入力情報としてユーザ発話やテキストデータ等が入力される。なお、入力部301は、例えばユーザ発話のような音声データが入力された場合には、対話制御部303で使用できるように音声認識を行って、テキストデータ等のデジタルデータへと変換する機能も包含するものとする。
【0031】
そして、入力部301において入力された情報は、対話制御部303に渡される。対話制御部303は、事前に登録されている複数の対話エージェント304を管理しており、これらの中から入力された情報を処理することができる対話エージェントを選択して、当該選択された対話エージェント304に対して応答処理を依頼する。そして、選択された対話エージェント304における応答処理結果を出力部302に通知し、ユーザへの出力処理を行う。
【0032】
また、入力部301及び出力部302と対話制御部303との間に、入出力を取りまとめたり、タイマー等のイベント処理を行うミドルウェアを配置することも考えられる。このようにすることで、VoiceXMLやSALT等のような既存の対話ミドルウェアを有効に利用することも可能となる。
【0033】
次に、図4に本発明の実施の形態にかかる対話制御システムにおける対話制御部303の構成図を示す。マイクやキーボード等の入力デバイス、あるいは対話ミドルウェアといった入力部301から通知される入力情報を受け取り、入力情報に対応する出力情報を生成するまでの手続きを管理するスケジューリング部401と、スケジューリング部401からの依頼によって個々の対話エージェント304に対して処理可能か否かに関する応答を依頼し、処理可能であると判断された対話エージェント402を選択し、選択された対話エージェント402から出力される応答情報を出力部302に通知するエージェント管理部402とで構成されている。
【0034】
なお、出力部302において、エージェント管理部402から通知される応答情報を蓄積し、スケジューリング部401からの出力要求に基づいて出力情報を生成するものとする。
【0035】
スケジューリング部401における処理の流れは、以下のようになる。図5に本発明の実施の形態にかかる対話制御システムにおけるスケジューリング部401の処理の流れ図を示す。
【0036】
図5において、まず、スケジューリング部401は、入力部301においてユーザから入力がなされるごとに送信されてくる、出力情報の生成依頼情報を含む入力情報とともに受信する(ステップS501)。
【0037】
スケジューリング部401は、当該出力情報の生成依頼情報を受信すると、エージェント管理部402に対して入力情報を送信する(ステップS502)。次に、同じくエージェント管理部402に対して、提供した入力情報に基づいた応答依頼情報を送信し(ステップS503)、応答したすべての対話エージェント304の処理可能情報を登録するよう登録依頼情報を送信する(ステップS504)。
【0038】
最後に、スケジューリング部401は、エージェント管理部402から、対話エージェント304からの応答を受信し、出力部302に応答を出力した旨の通知を受信すると(ステップS505)、出力部302に対して当該応答に関する出力依頼情報を送信する(ステップS506)。
【0039】
ここで処理可能情報とは、入力情報を用いて対話エージェントが応答を生成するために必要な情報を意味しており、例えば入力情報がユーザ発話情報であった場合には、音声認識用文法がこれに該当する。
【0040】
次に、図6に本発明の実施の形態にかかる対話制御システムにおけるエージェント管理部402の構成図を示す。図6において、まずエージェント管理部402は、処理部601においてスケジューリング部401からの応答依頼情報を受信するとともに入力情報を受信する。
【0041】
次にエージェント管理部402は、エージェントアクセサ604を介して、処理部601が受信した入力情報に基づいて処理を依頼する対話エージェント304を選択する。すなわち、ユーザが利用した対話エージェント304の識別情報と利用回数や最終利用日時、対話エージェント304の選択優先度に関する情報等を格納する対話エージェント情報格納部605と、対話エージェント304で用いるための認識用文法等を格納する処理可能情報格納部606を参照して、対話可能な対話エージェント304を選択する。この際、エージェント管理部402は、すべての対話エージェント304に対して処理可能情報格納部606に格納されている認識用文法等を登録し、対話エージェントから受け取った応答の内容に応じて処理が可能な対話エージェントであるか否かを判断する。
【0042】
また、カレントコンテキストエージェント推定部603は、現在ユーザが対話を通じて利用していると考えられるサービスや機能を提供する対話エージェント304に関する情報を格納するものである。したがって、ユーザに対して最後に応答を行った対話エージェント304に関する情報として、識別番号や、現在のメニュー遷移等の情報を保存しておくことになる。
【0043】
また、処理部601には、ユーザの入力を処理した対話エージェントの識別情報を一時的に格納する処理対象対話エージェント識別情報格納部602を有する。このようにすることで、現時点においてユーザの入力情報について処理を行っている対話エージェントを容易に特定することができ、当該対話エージェントの選択優先度を高める等の処理を行うことによって、対話を円滑に行うことが可能となる。
【0044】
次に、エージェント管理部402における処理の流れについて説明する。図7は、本発明の実施の形態にかかる対話制御システムにおけるエージェント管理部402での入力情報処理の流れ図である。
【0045】
図7において、まず処理部601内部の処理対象対話エージェント識別情報格納部602に保存されている情報をすべて消去する(ステップS701)。その後、カレントコンテキストエージェント推定部603から、現在ユーザが対話を行っている対話エージェント(以下、「カレントコンテキストエージェント」という。)を選択する(ステップS702)。
【0046】
カレントコンテキストエージェント推定部603から、対話を行っている対話エージェントの識別情報を受信すると、選択した対話エージェント、すなわちカレントコンテキストエージェントが、提供された入力情報を処理できるか否かについて、対話エージェントの識別情報をキー情報としてエージェントアクセサ604に問い合わせる(ステップS703)。
【0047】
カレントコンテキストエージェントが提供された入力情報を処理できる場合には(ステップS703:Yes)、エージェントアクセサ604を通じて選択された対話エージェント(カレントコンテキストエージェント)に対して入力情報を送信して処理を依頼する(ステップS704)。
【0048】
カレントコンテキストエージェントが提供された入力情報を処理できない場合には(ステップS703:No)、エージェントアクセサ604に対して、カレントコンテキストエージェント以外の対話エージェントを選択するべく、対話エージェント情報格納部605を参照しながら、優先度順に対話エージェントを検索する(ステップS705)。
【0049】
処理可能な対話エージェントが見つからなかった場合には(ステップS706:No)、そのまま処理を終了する。処理可能な対話エージェントが見つかった場合には(ステップS706:Yes)、当該対話エージェントに対して入力情報を送信して処理を依頼する(ステップS707)。
【0050】
当該対話エージェント内で入力情報を正しく評価できなかった場合等、当該対話エージェントから処理の失敗が通知されると(ステップS708:No)、再度、エージェントアクセサ604に対して、次に優先度の高い対話エージェントの検索を行う(ステップS705)。
【0051】
処理が成功した場合(ステップS708:Yes)、処理を行った対話エージェントの識別情報を処理対象対話エージェント識別情報格納部602に格納して処理を終了する(ステップS709)。
【0052】
次に、図8は、本発明の実施の形態にかかる対話制御システムにおけるエージェント管理部402での応答依頼処理の流れ図である。
【0053】
図8において、エージェント管理部402は、まず処理部601において、処理対象対話エージェント識別情報格納部602に入力情報を処理した対話エージェントの識別情報が格納されているか否かを確認する(ステップS801)。入力情報を処理した対話エージェントの識別情報が格納されている場合には(ステップS801:Yes)、当該識別情報に対応する対話エージェントに対して、エージェントアクセサ604を通じて応答処理を依頼する(ステップS802)。
【0054】
次に、エージェント管理部402は、応答処理を依頼された対話エージェントから通知される処理結果が正しいか否かを判断する(ステップS803)。
【0055】
入力情報を処理した対話エージェントの識別情報が格納されていない場合(ステップS801:No)、あるいは応答処理の処理結果が正しくないと判断された場合には(ステップS803:No)、カレントコンテキストエージェント推定部603に対して、処理対象対話エージェント識別情報格納部602に格納されている対話エージェントの識別情報と、既に処理依頼を行った、入力情報を処理した対話エージェントの識別情報とが一致しているか否かを問い合わせる(ステップS804)。
【0056】
処理対象対話エージェント識別情報格納部602に格納されている対話エージェントの識別情報と、カレントコンテキストエージェント推定部603に格納されている対話エージェントの識別情報とが異なっている場合には(ステップS804:No)、カレントコンテキストエージェント推定部603に格納されている対話エージェントが当該入力情報に対して入力処理を行っていない対話エージェントであると判断し、当該対話エージェントの識別情報を用いて、エージェントアクセサ604を通じて応答処理を依頼する(ステップS805)。
【0057】
処理対象対話エージェント識別情報格納部602に格納されている対話エージェントの識別情報と、カレントコンテキストエージェント推定部603に格納されている対話エージェントの識別情報とが一致し(ステップS804:Yes)、当該応答処理の結果が正しくないと判断された場合(ステップS806:No)、エージェントアクセサ604において対話エージェント情報格納部605を参照しながら、優先度が高い順に応答処理を行うことができる対話エージェントを検索する(ステップS807)。このとき、既に発話処理が依頼されている対話エージェントについては検索の対象から外すことによって、処理の重複を避けることができる。
【0058】
エージェントアクセサ604において、処理可能な対話エージェントが選択されたら(ステップS808:Yes)、当該選択された対話エージェントに対して応答処理を依頼する(ステップS809)。
【0059】
次に、当該対話エージェントにおける応答処理の結果を評価し(ステップS810)、応答処理が失敗していると判断された場合(ステップS810:No)、再度、エージェントアクセサ604において、次に優先度の高い対話エージェントの検索を行う(ステップS807)。
【0060】
全ての対話エージェントを検索対象としても選択対象となるべき対話エージェントが見つからない場合には、処理部601における応答処理は終了する。一方、対話エージェントに対する応答処理が成功していると判断された場合には(ステップS803:Yes、ステップS806:Yes、ステップS810:Yes)、対話エージェントにおける応答処理の結果を出力部302に出力する(ステップS811)。
【0061】
その後、カレントコンテキストエージェント推定部603に対して、応答処理を行った対話エージェントの識別情報を保存する(ステップS812)。このようにすることで、現在ユーザと対話を行っている対話エージェントがどの対話エージェントであるのかについて、カレントコンテキストエージェント推定部603を照会することで判断することが可能となる。通常、新しく登録された対話エージェントがカレントコンテキストの対話エージェントと判断される。
【0062】
上述した応答処理を行った後に、エージェントアクセサ604が対話エージェント情報格納部605に格納されている対話エージェントの優先度に関する情報を更新することも考えられる。具体的には、応答した対話エージェントの優先度を増加させることが考えられる。これは、利用頻度の高い対話エージェントの優先度を高く設定することを意味している。このようにすることで、ユーザの入力をより簡略化することが可能となる。
【0063】
例えば、「天気予報」のサービスを行う対話エージェントと、「経路探索」のサービスを行う対話エージェントが存在し、その両方が「神戸」や「川崎」といった地名の情報を入力情報として処理可能である場合を考える。この場合、ユーザが「天気予報」をよく利用すると、「天気予報」のサービスを行う対話エージェントの方が優先度が高く設定されるようになることから、ユーザが「神戸」と入力するだけで、「天気予報」のサービスを行う対話エージェントが応答することが可能になる。
【0064】
次に、エージェント管理部402における処理可能情報の登録処理について説明する。図9は、本発明の実施の形態にかかる対話制御システムにおけるエージェント管理部402での処理可能情報の登録処理の流れ図である。
【0065】
図9において、処理部601は、エージェントアクセサ604に対して対話エージェントの順次選択を依頼する(ステップS901)。エージェントアクセサ604において対話エージェントが選択されると、エージェントアクセサ604に対して処理可能情報の登録処理を依頼する(ステップS902)。
【0066】
登録処理が依頼されると、それぞれの対話エージェントは、次回の入力情報処理を行う際に処理可能な情報あるいは情報の種類をエージェントアクセサ604を介して登録する(ステップS903)。登録される処理可能な情報は、エージェントアクセサ604によって処理可能情報を格納する処理可能情報格納部606に格納される。当該処理可能情報の登録処理は、すべての対話エージェントに対して実行される(ステップS904)。
【0067】
また、処理可能情報の登録処理において、エージェントアクセサ604が対話エージェントを順次選択する処理を行う際、処理可能入力情報格納部606を参照しながら、格納されている情報の量や種類に合わせて、選択する対話エージェントに制限を加えることも考えられる。
【0068】
このようにすることで、例えば音声認識を行う場合には、認識対象とする認識語彙に制限を加えることができ、その結果、認識対象とする認識語彙が増えると認識率が低下するという問題に的確に対応することが可能となる。また、画面表示等を行う場合においても、画面表示面積に物理的な限界がある端末等で用いる場合に、入力対象とする情報が多すぎると表示が煩雑になり操作しにくくなるが、入力対象とする情報を対話エージェントの優先度に合わせて減らすことによって、ユーザにとって見やすい画面表示を行うことが可能となる。
【0069】
図10に、利用する対話エージェント304を変更する機能を有する対話制御システムの構成図を示す。図10において、対話制御部303は、利用エージェント管理部1001を通じて、利用可能対話エージェント識別情報格納部1002に保存されている利用可能な対話エージェントに関する識別情報に対して、エージェント管理部402のエージェントアクセサ604からアクセスできるようにする。このようにすることで、すべての対話エージェント304を対象として検索するのではなく、利用可能対話エージェント識別情報格納部1002に保存されている利用可能な対話エージェントのみに絞り込んで検索することができ、利用可能対話エージェント識別情報格納部1002に保存されている利用可能な対話エージェントの内容を更新することで、容易に検索対象となる対話エージェントを変更することが可能になる。よって、ユーザの状況や目的等に合わせて、検索対象となる対話エージェントを変更することが可能となる。
【0070】
次に、図11に、利用者別に制御情報を外部に格納する場合の対話制御システムの構成図を示す。図11において、入力部301から対話の最初にユーザの識別情報を含むユーザに関する情報が入力される。もちろん、ユーザに関する情報を入力するユーザ情報入力部(図示せず)を別途設ける構成であっても良いし、あるいは入力された音声データに基づいて話者認識するものであっても良い。そして、入力されたユーザに関する情報に基づいて、対話制御部303は、ユーザ情報管理部1101を通じて利用者別対話制御情報格納部1102から利用しているユーザに関係する対話制御情報を取得する。
【0071】
ここで「対話制御情報」とは、図6における対話エージェント情報や、図10における利用可能対話エージェント識別情報を意味している。かかる構成とすることによって、対話エージェントの選択優先度に関する情報を継続的に利用することができ、ユーザが異なるタイミングで対話制御システムを利用した場合であっても、前回と同じ対話エージェントを用いて、同じ要領で対話を行うことが可能となる。
【0072】
以上のように本実施の形態によれば、ユーザは、入力情報に対応可能な対話エージェントを確実に選択することができるとともに、入力されるごとに対話エージェントを変更することもできることから、入力情報のカテゴリが頻繁に変化する自然な対話に近い状態で、円滑な対話を行うことができる対話制御システムを実現することが可能となる。
【0073】
なお、本実施の形態にかかる対話制御システムにおいては、音声による対話に限定されるものではなく、例えばチャットシステムのようなテキストデータによる対話等、ユーザとシステム間で対話を行うことができる形態で有れば何でも良い。
【0074】
以下、本発明の実施例にかかる対話制御システムについて説明する。図12に示すように、本実施例においては、音声を使って天気予報を知ったり、電子メールの送受信、スケジュールの確認を行ったりすることができる音声対話システムに適用した例について説明する。
【0075】
図12において、入力部としては、一般的なマイクロホンから人間の話した言葉を認識して計算機で扱えるシンボル情報に変換する音声認識部1201を有する。音声認識部1201における認識エンジンとしては、特に限定されるものではなく、汎用的に利用されているものであれば何でも良い。
【0076】
出力部としては、スピーカへの出力を行うためにテキストから音声データに変換する音声合成部1202を有する。音声合成部1202についても、音声認識部1201と同様、特に形式が限定されるものではなく、既に汎用的に利用されているものであれば何でも良い。
【0077】
そして、音声認識部1201及び音声合成部1202の情報をまとめて制御するための音声ミドルウェア1203を有する。音声ミドルウェア1203についても、VoiceXML等の汎用的な技術が利用可能である。
【0078】
当該音声ミドルウェア1203が、対話制御部1204に対して音声認識部1201で認識された入力情報を通知し、逆に対話制御部1204からの出力情報を音声合成部1202へ出力する。対話制御部は1204、天気エージェント1205、メールエージェント1206、カレンダーエージェント1207という複数の対話エージェントの制御を行うものと想定する。
【0079】
音声ミドルウェア1203から対話制御部1204へ伝えられる入力情報は、入力情報の種類を表す入力スロットと情報の実際の値を示す入力値から構成される。図13に本実施例で用いられる入力情報の例示図を示す。
【0080】
図13において、実際にユーザが発話した内容がユーザ発話である。それに対応する入力スロットと入力値の組合せを表形式で示している。例えば、「神戸」や「川崎」といった、ともに地名を表すものは同じ入力スロット名「CityName」に分類され、それぞれ異なる入力値である“kobe”及び“kawasaki”が与えられている。
【0081】
対話エージェントは、ユーザの入力に合わせて状態が変化し、変化に合わせて発話処理を行う。図14に、天気予報を行う「天気エージェント」の動作を例示する。
【0082】
例えば図14に示すような「天気エージェント」の場合、まず天気トップページ1401から動作が始まる。この状態に対してユーザが「今日の天気」というと今日の予報1402に状態が遷移し、発話処理として「どこの天気ですか?」というシステム出力を行う。さらにユーザが「神戸」と答えると、状態が神戸1403に移り、システムが「神戸の今日の天気は晴れです」と出力する。その後、ユーザが「結構」と入力すると、再度今日の予報1402に状態が遷移する。
【0083】
対話制御部1204は、ユーザの入力情報を対話エージェントに伝えるが、その際、対話エージェント側から通知される入力可能情報に基づいて、対話エージェントに入力情報を伝える。例えば、天気エージェント1205が「どこの天気ですか?」という状態にある時、ユーザからは「川崎」、「神戸」、「結構」という入力を受け付けることができる。これは図13に示す入力情報例において、入力スロット「CityName」に対応する入力値を処理可能であることを意味している。
【0084】
したがって、この場合、対話制御部1204からの処理可能情報登録処理に対して、天気エージェント1205は「CityName」を処理可能情報として通知する。次回、ユーザからの入力が「神戸」であった場合、対話制御部1204は本方式により、天気エージェントが処理可能であると判断し、天気エージェント1205に入力情報の処理依頼を行い、天気エージェント1205が状態遷移を行うとそのまま対話制御部1204に成功したことが通知され、次の発話処理が依頼されることになる。
【0085】
次に、図15は、カーナビエージェント1207における動作の一部を示す。図15において、ユーザが目的地設定を行っている場合には、目的位置設定1502の状態に存在し、ユーザから「川崎」、「神戸」といった地名、あるいは「結構」といった操作の入力情報で状態が遷移する。ユーザが「神戸」と言うと、システムが「神戸のどこに行きたいですか?」という発話を行う。前述の天気サービス1205とカーナビエージェント1207を同時に利用している場合、カーナビエージェント1207は「CityName」という入力スロットと「Operation」という入力スロットの入力情報を処理可能情報として対話制御部に通知する。一方、天気エージェント1205は、最初に天気トップページ1401の状態にあるので「今日の天気」や「週間予報」といった「WeatherWhen」という入力スロットの入力情報を処理可能情報、すなわち音声認識用文法として対話制御部1204に通知する。
【0086】
この目的位置設定を行っている最中に、ユーザが「晴れている場所に行きたい」と考えて天気エージェント1205に今日の天気を尋ねる場合、ユーザが「今日の天気」と発話すると、音声認識部1201における認識結果は音声ミドルウェア1203を通じて、対話制御部1204に対して、「WeatherWhen」入力スロットが“today”という一対の入力情報を通知して出力処理を依頼する。
【0087】
対話制御部1204のスケジューリング部401は、エージェント管理部402へ入力情報の処理依頼を行うと、エージェント管理部402の処理部601は、エージェントアクセサ604を通じて、処理可能情報格納部606に登録されている情報から「WeatherWhen」入力スロットを登録した天気エージェント1205を検索し、対話エージェント情報格納部605に天気エージェント1205の識別情報を登録する。
【0088】
次に、スケジューリング部401から発話処理依頼が行われると、エージェント管理部402は、対話エージェント情報格納部605に天気エージェント1205が格納されていると判断し、天気エージェント1205に対して発話処理を依頼する。
【0089】
天気エージェント1205は、「今日の天気」という入力情報から「今日の予報」に状態を遷移させ「どこの天気ですか?」という発話処理を行う。さらに、処理部601は、カレントコンテキストエージェント推定部603に対して天気エージェント1205が発話をしたことを通知し、カレントコンテキストエージェント推定部603は、カレントコンテキストに登録されている対話エージェントを天気エージェント1205に変更する。
【0090】
この後、天気エージェント1205やカーナビエージェント1207には、スケジューリング部401からの処理可能情報の登録依頼が行われる。天気エージェント1205は状態が遷移しているので、処理可能情報の登録を新たに行う。ここでは、「今日の予報」1402の状態においては、「神戸」や「川崎」という「CityName」に対応する入力情報と、「結構」という「Operation」に対応する入力情報を処理可能とする。
【0091】
カーナビエージェント1207に関しては、前回の目的位置設定という状態から遷移していないので、前回と同じ「CityName」と「Operation」に対応する入力情報が処理可能となる。つまり、この段階では、天気エージェント1205もカーナビエージェント1207も同じ入力スロットの入力情報が処理可能でるとして、対話制御部1204に通知している。
【0092】
そして、「どこの天気ですか?」に対して、ユーザが「神戸」と入力した場合、スケジューリング部401から入力情報の処理依頼を受けたエージェント管理部402は、処理部601がカレントコンテキストエージェント推定部603から対話エージェントとしてカレントコンテキストエージェントを選択すると天気エージェント1205が選ばれることから、入力情報の処理は、エージェントアクセサ604を介して天気エージェント1205に依頼されることになる。これにより、処理部601の処理対象対話エージェント識別情報格納部602に格納する対話エージェントが天気エージェント1205となり、発話処理依頼も天気エージェント1205に対して行われる。
【0093】
このように、複数の対話エージェントで同じ入力情報を処理できる場合であっても、前回の対話結果に基づいて、ユーザは継続的に天気エージェント1205と対話を行うことができる。さらに、もう一度「神戸」というと、今度は「神戸」の入力情報を処理できるのはカーナビエージェント1207のみであることから、カーナビエージェント1207に入力情報の処理の依頼が行われる。
【0094】
なお、本発明の実施の形態にかかる対話制御システムを実現するプログラムは、図17に示すように、CD−ROM172−1やフレキシブルディスク172−2等の可搬型記録媒体172だけでなく、通信回線の先に備えられた他の記憶装置171や、コンピュータ173のハードディスクやRAM等の記録媒体174のいずれに記憶されるものであっても良く、プログラム実行時には、プログラムはローディングされ、主メモリ上で実行される。
【0095】
また、本発明の実施の形態にかかる対話制御システムにより生成された処理可能情報等のデータについても、図17に示すように、CD−ROM172−1やフレキシブルディスク172−2等の可搬型記録媒体172だけでなく、通信回線の先に備えられた他の記憶装置171や、コンピュータ173のハードディスクやRAM等の記録媒体174のいずれに記憶されるものであっても良く、例えば本発明にかかる対話制御システムを利用する際にコンピュータ173により読み取られる。
【0096】
【発明の効果】
以上のように本発明にかかる対話制御システムによれば、入力情報に対応可能な対話エージェントを確実に選択することができるとともに、入力されるごとに対話エージェントを変更することもできることから、入力情報のカテゴリが頻繁に変化する自然な対話に近い状態で、円滑な対話を行うことができる対話制御システムを実現することが可能となる。
【図面の簡単な説明】
【図1】 従来の対話システムの構成図
【図2】 従来の対話システムにおけるメニュー構成の例示図
【図3】 本発明の実施の形態にかかる対話制御システムの構成図
【図4】 本発明の実施の形態にかかる対話制御システムにおける対話制御部の構成図
【図5】 本発明の実施の形態にかかる対話制御システムにおける対話制御部の処理の流れ図
【図6】 本発明の実施の形態にかかる対話制御システムにおけるエージェント管理部の構成図
【図7】 本発明の実施の形態にかかる対話制御システムにおけるエージェント管理部の入力情報処理の流れ図
【図8】 本発明の実施の形態にかかる対話制御システムにおけるエージェント管理部の応答依頼処理の流れ図
【図9】 本発明の実施の形態にかかる対話制御システムにおけるエージェント管理部の処理可能情報登録依頼処理の流れ図
【図10】 本発明の実施の形態にかかる対話制御システムの他の構成図
【図11】 本発明の実施の形態にかかる対話制御システムの他の構成図
【図12】 本発明の実施例にかかる対話制御システムの構成図
【図13】 本発明の実施例にかかる対話制御システムにおける入力情報の例示図
【図14】 本発明の実施例にかかる対話制御システムにおける天気エージェントの状態遷移の例示図
【図15】 本発明の実施例にかかる対話制御システムにおけるカーナビエージェントの状態遷移の例示図
【図16】 本発明の実施例にかかる対話制御システムにおける対話結果の例示図
【図17】 コンピュータ環境の例示図
【符号の説明】
101、301 入力部
102、302 出力部
103 ミドルウェア
104 対話アプリケーション
303、1204 対話制御部
304 対話エージェント
401 スケジューリング部
402 エージェント管理部
601 処理部
602 処理対象対話エージェント識別情報格納部
603 カレントコンテキストエージェント推定部
604 エージェントアクセサ
605 対話エージェント情報格納部
606 処理可能情報格納部
1001 利用可能対話エージェント管理部
1002 利用可能対話エージェント識別情報格納部
1101 ユーザ情報管理部
1102 ユーザ別対話制御情報格納部
1201 音声認識部
1202 音声合成部
1203 音声ミドルウェア
1205 天気エージェント
1206 メールエージェント
1207 カーナビエージェント
171 回線先の記憶装置
172 CD−ROMやフレキシブルディスク等の可搬型記録媒体
172−1 CD−ROM
172−2 フレキシブルディスク
173 コンピュータ
174 コンピュータ上のRAM/ハードディスク等の記録媒体
Claims (8)
- ユーザにより入力された入力情報を解釈する入力部と、
前記入力部が解釈した入力情報のうち受け付け可能な入力情報を受け付けて、前記入力情報に対する前記ユーザへの応答を生成して出力し、かつ、生成した前記応答に応じて、次に受け付け可能な入力情報の種類が遷移する複数の対話エージェントと、
前記複数の対話エージェント各々の受け付け可能な入力情報の種類を示す情報を、処理可能情報として記憶する処理可能情報格納部と、
前記入力部が解釈した前記入力情報を受け付け可能な対話エージェントを、前記処理可能情報格納部に記憶された処理可能情報を参照することにより選択し、当該選択した対話エージェントに、入力情報に対する応答の出力を依頼し、さらに、当該応答を出力した対話エージェントから、次に受け付け可能な入力情報の種類を示す情報の通知を受けて、当該情報に基づいて前記処理可能情報格納部の前記処理可能情報を更新する対話制御部と、
前記対話エージェントから前記応答を受け取り、前記ユーザに対して出力する出力部とを備える、対話制御システム。 - 前記対話エージェントの識別情報と前記対話エージェントの選択優先度を対応付けて格納する対話エージェント情報格納部をさらに備え、
前記対話制御部は、前記入力情報を受け付け可能な対話エージェントを選択する際に、前記選択優先度順に、前記処理可能情報格納部の対話エージェントを検索することにより、前記入力情報を受け付け可能な対話エージェントを選択する、請求項1に記載の対話制御システム。 - ユーザに対して最後に応答を行った対話エージェントを示す情報を記憶するカレントコンテキストエージェント推定部をさらに備え、
前記対話制御部は、前記カレントコンテキストエージェント推定部に記憶された情報で示される対話エージェントを最初に選択し、当該選択した対話エージェントが、前記入力情報を処理可能であれば、当該対話エージェントに、前記入力情報に対する応答の出力を依頼する請求項1または2に記載の対話制御システム。 - 対話エージェントの利用頻度が高いほど、前記対話エージェントの前記選択優先度が高くなるように自動更新される請求項2に記載の対話制御システム。
- 利用対象の対話エージェントの識別情報を記憶する利用可能対話エージェント識別情報格納部をさらに備え、
前記対話制御部は、前記入力情報を受け付け可能な対話エージェントを選択する際に、前記利用可能対話エージェント識別情報格納部に記憶された識別情報の対話エージェントから前記対話エージェントを選択する、請求項1乃至4のいずれか1項に記載の対話制御システム。 - 前記対話制御部において、ユーザを識別する情報を入力するユーザ情報入力部をさらに備え、
前記対話エージェント情報格納部は、前記対話エージェントの前記選択優先度をユーザ別に格納し、
前記対話制御部は、前記入力情報を受け付け可能な対話エージェントを選択する際に、前記ユーザ情報入力部で入力された情報で識別されるユーザの選択優先度を前記対話エージェント情報格納部から取得し、当該選択優先度順に、前記処理可能情報格納部の対話エージェントを検索することにより、前記入力情報を受け付け可能な対話エージェントを選択する、請求項2に記載の対話制御システム。 - ユーザからの入力情報のうち受け付け可能な入力情報に対する前記ユーザへの応答を生成して出力し、かつ、生成した前記応答に応じて受け付け可能な入力情報の種類を遷移させる複数の対話エージェントに対して、処理を実行させるコンピュータによる対話制御方法であって、
前記コンピュータは、前記複数の対話エージェント各々の受け付け可能な入力情報の種類を示す情報を、処理可能情報として記憶する処理可能情報格納部にアクセス可能であり、
前記コンピュータが、ユーザにより入力された入力情報を解釈する入力工程と、
前記コンピュータが、前記入力工程で解釈した前記入力情報を受け付け可能な対話エージェントを、前記処理可能情報格納部に記憶された処理可能情報を参照することにより選択する工程と、
前記コンピュータが、当該選択した対話エージェントに、入力情報に対する応答の出力を依頼する工程と、
前記コンピュータが、当該応答を出力した対話エージェントから、次に受け付け可能な入力情報の種類を示す情報の通知を受けて、当該情報に基づいて前記処理可能情報格納部の処理可能情報を更新する工程と、
前記コンピュータが、前記対話エージェントから前記応答を受け取り、前記ユーザに対して出力する工程とを含む、対話制御方法。 - ユーザからの入力情報のうち受け付け可能な入力情報に対する応答を生成して出力し、かつ、受け付けた入力情報に応じて受け付け可能な入力情報の種類を遷移させる複数の対話エージェントを備えるコンピュータに、対話制御処理を実行させるプログラムであって、
前記コンピュータは、前記複数の対話エージェント各々の受け付け可能な入力情報の種類を示す情報を、処理可能情報として記憶する処理可能情報格納部にアクセス可能であり、
ユーザにより入力された入力情報を解釈する処理と、
前記入力処理で解釈した前記入力情報を受け付け可能な対話エージェントを、前記処理可能情報格納部に記憶された処理可能情報を参照することにより選択する処理と、
当該選択した対話エージェントに、入力情報に対する応答の出力を依頼する処理と、
当該応答を出力した対話エージェントから、次に受け付け可能な入力情報の種類を示す情報の通知を受けて、当該情報に基づいて、前記処理可能情報格納部の処理可能情報を更新する処理と、
前記対話エージェントから前記応答を受け取り、前記ユーザに対して出力する処理とをコンピュータに実行させるプログラム。
Priority Applications (2)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2003081136A JP4155854B2 (ja) | 2003-03-24 | 2003-03-24 | 対話制御システム及び方法 |
US10/766,928 US20040189697A1 (en) | 2003-03-24 | 2004-01-30 | Dialog control system and method |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2003081136A JP4155854B2 (ja) | 2003-03-24 | 2003-03-24 | 対話制御システム及び方法 |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2004288018A JP2004288018A (ja) | 2004-10-14 |
JP4155854B2 true JP4155854B2 (ja) | 2008-09-24 |
Family
ID=32984953
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2003081136A Expired - Fee Related JP4155854B2 (ja) | 2003-03-24 | 2003-03-24 | 対話制御システム及び方法 |
Country Status (2)
Country | Link |
---|---|
US (1) | US20040189697A1 (ja) |
JP (1) | JP4155854B2 (ja) |
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US11423088B2 (en) | 2018-06-11 | 2022-08-23 | Kabushiki Kaisha Toshiba | Component management device, component management method, and computer program product |
Families Citing this family (27)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP4145302B2 (ja) * | 2003-04-14 | 2008-09-03 | 富士通株式会社 | 対話装置、対話方法及び対話プログラム |
US20050080628A1 (en) * | 2003-10-10 | 2005-04-14 | Metaphor Solutions, Inc. | System, method, and programming language for developing and running dialogs between a user and a virtual agent |
DE602004012532T2 (de) * | 2004-04-30 | 2009-04-02 | Harman Becker Automotive Systems Gmbh | Fahrzeugmultimediasystem und -verfahren zur Aktivierung einer Funktion eines solchen Systems |
KR100679043B1 (ko) * | 2005-02-15 | 2007-02-05 | 삼성전자주식회사 | 음성 대화 인터페이스 장치 및 방법 |
US8073681B2 (en) | 2006-10-16 | 2011-12-06 | Voicebox Technologies, Inc. | System and method for a cooperative conversational voice user interface |
US7818176B2 (en) | 2007-02-06 | 2010-10-19 | Voicebox Technologies, Inc. | System and method for selecting and presenting advertisements based on natural language processing of voice-based input |
US8140335B2 (en) | 2007-12-11 | 2012-03-20 | Voicebox Technologies, Inc. | System and method for providing a natural language voice user interface in an integrated voice navigation services environment |
US9305548B2 (en) | 2008-05-27 | 2016-04-05 | Voicebox Technologies Corporation | System and method for an integrated, multi-modal, multi-device natural language voice services environment |
US8285550B2 (en) * | 2008-09-09 | 2012-10-09 | Industrial Technology Research Institute | Method and system for generating dialogue managers with diversified dialogue acts |
US8326637B2 (en) | 2009-02-20 | 2012-12-04 | Voicebox Technologies, Inc. | System and method for processing multi-modal device interactions in a natural language voice services environment |
US8521513B2 (en) * | 2010-03-12 | 2013-08-27 | Microsoft Corporation | Localization for interactive voice response systems |
US10264125B2 (en) * | 2010-03-30 | 2019-04-16 | Call Compass, Llc | Method and system for accurate automatic call tracking and analysis |
US9898459B2 (en) | 2014-09-16 | 2018-02-20 | Voicebox Technologies Corporation | Integration of domain information into state transitions of a finite state transducer for natural language processing |
CN107003996A (zh) | 2014-09-16 | 2017-08-01 | 声钰科技 | 语音商务 |
WO2016061309A1 (en) | 2014-10-15 | 2016-04-21 | Voicebox Technologies Corporation | System and method for providing follow-up responses to prior natural language inputs of a user |
US10431214B2 (en) | 2014-11-26 | 2019-10-01 | Voicebox Technologies Corporation | System and method of determining a domain and/or an action related to a natural language input |
US10614799B2 (en) | 2014-11-26 | 2020-04-07 | Voicebox Technologies Corporation | System and method of providing intent predictions for an utterance prior to a system detection of an end of the utterance |
US10581769B2 (en) * | 2016-07-13 | 2020-03-03 | Nokia Of America Corporation | Integrating third-party programs with messaging systems |
US10331784B2 (en) | 2016-07-29 | 2019-06-25 | Voicebox Technologies Corporation | System and method of disambiguating natural language processing requests |
KR101929800B1 (ko) * | 2017-02-24 | 2018-12-18 | 주식회사 원더풀플랫폼 | 주제별 챗봇 제공 방법 및 이를 이용한 주제별 챗봇 제공 시스템 |
KR102574593B1 (ko) | 2018-03-29 | 2023-09-05 | 삼성전자주식회사 | 챗봇을 이용한 서비스 제공 방법 및 그 장치 |
JP7142093B2 (ja) * | 2018-07-09 | 2022-09-26 | 富士フイルム富山化学株式会社 | 情報提供システム、情報提供サーバ、情報提供方法、情報提供ソフトウエア、及び対話型ソフトウエア |
JP7068962B2 (ja) | 2018-08-13 | 2022-05-17 | 株式会社日立製作所 | 対話方法、対話システム及びプログラム |
JP2020119412A (ja) * | 2019-01-28 | 2020-08-06 | ソニー株式会社 | 情報処理装置、情報処理方法、及びプログラム |
JP7175221B2 (ja) * | 2019-03-06 | 2022-11-18 | 本田技研工業株式会社 | エージェント装置、エージェント装置の制御方法、およびプログラム |
CN111161717B (zh) * | 2019-12-26 | 2022-03-22 | 思必驰科技股份有限公司 | 用于语音对话平台的技能调度方法及系统 |
JP2021182190A (ja) * | 2020-05-18 | 2021-11-25 | トヨタ自動車株式会社 | エージェント制御装置、エージェント制御方法及びエージェント制御プログラム |
Family Cites Families (13)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US4305131A (en) * | 1979-02-05 | 1981-12-08 | Best Robert M | Dialog between TV movies and human viewers |
US4974191A (en) * | 1987-07-31 | 1990-11-27 | Syntellect Software Inc. | Adaptive natural language computer interface system |
US5597312A (en) * | 1994-05-04 | 1997-01-28 | U S West Technologies, Inc. | Intelligent tutoring method and system |
JPH1115666A (ja) * | 1997-06-10 | 1999-01-22 | Internatl Business Mach Corp <Ibm> | コンピュータ・システム、メッセージ・モニター方法、及び関連メッセージ送信方法 |
WO1999018514A1 (en) * | 1997-10-06 | 1999-04-15 | Contact Dynamics, Inc. | System enabling a salesperson to chat with a customer browsing the salesperson's web site |
US20020042713A1 (en) * | 1999-05-10 | 2002-04-11 | Korea Axis Co., Ltd. | Toy having speech recognition function and two-way conversation for dialogue partner |
US6748361B1 (en) * | 1999-12-14 | 2004-06-08 | International Business Machines Corporation | Personal speech assistant supporting a dialog manager |
US20020005865A1 (en) * | 1999-12-17 | 2002-01-17 | Barbara Hayes-Roth | System, method, and device for authoring content for interactive agents |
US20010039203A1 (en) * | 2000-02-23 | 2001-11-08 | Brown Geoffrey Parker | Behavior modeling in a gaming environment with contextual accuracy |
US20020052913A1 (en) * | 2000-09-06 | 2002-05-02 | Teruhiro Yamada | User support apparatus and system using agents |
US7024348B1 (en) * | 2000-09-28 | 2006-04-04 | Unisys Corporation | Dialogue flow interpreter development tool |
US20020133347A1 (en) * | 2000-12-29 | 2002-09-19 | Eberhard Schoneburg | Method and apparatus for natural language dialog interface |
US20030028498A1 (en) * | 2001-06-07 | 2003-02-06 | Barbara Hayes-Roth | Customizable expert agent |
-
2003
- 2003-03-24 JP JP2003081136A patent/JP4155854B2/ja not_active Expired - Fee Related
-
2004
- 2004-01-30 US US10/766,928 patent/US20040189697A1/en not_active Abandoned
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US11423088B2 (en) | 2018-06-11 | 2022-08-23 | Kabushiki Kaisha Toshiba | Component management device, component management method, and computer program product |
Also Published As
Publication number | Publication date |
---|---|
JP2004288018A (ja) | 2004-10-14 |
US20040189697A1 (en) | 2004-09-30 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP4155854B2 (ja) | 対話制御システム及び方法 | |
JP7357113B2 (ja) | バーチャルアシスタントのコマンド処理を容易にするためのコンテクスト情報の使用 | |
US10521189B1 (en) | Voice assistant with user data context | |
US10475446B2 (en) | Using context information to facilitate processing of commands in a virtual assistant | |
US8996379B2 (en) | Speech recognition text entry for software applications | |
US10056077B2 (en) | Using speech recognition results based on an unstructured language model with a music system | |
US8868425B2 (en) | System and method for providing network coordinated conversational services | |
US8886540B2 (en) | Using speech recognition results based on an unstructured language model in a mobile communication facility application | |
US8838457B2 (en) | Using results of unstructured language model based speech recognition to control a system-level function of a mobile communications facility | |
US20080288252A1 (en) | Speech recognition of speech recorded by a mobile communication facility | |
US20090030687A1 (en) | Adapting an unstructured language model speech recognition system based on usage | |
US20090030685A1 (en) | Using speech recognition results based on an unstructured language model with a navigation system | |
US20080221902A1 (en) | Mobile browser environment speech processing facility | |
US20080312934A1 (en) | Using results of unstructured language model based speech recognition to perform an action on a mobile communications facility | |
US20090030697A1 (en) | Using contextual information for delivering results generated from a speech recognition facility using an unstructured language model | |
US20090030691A1 (en) | Using an unstructured language model associated with an application of a mobile communication facility | |
US20090030688A1 (en) | Tagging speech recognition results based on an unstructured language model for use in a mobile communication facility application | |
KR101891498B1 (ko) | 대화형 ai 에이전트 시스템에서 멀티 도메인 인텐트의 혼재성을 해소하는 멀티 도메인 서비스를 제공하는 방법, 컴퓨터 장치 및 컴퓨터 판독가능 기록 매체 | |
JP7347217B2 (ja) | 情報処理装置、情報処理システム、および情報処理方法、並びにプログラム |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20050308 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20080311 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20080512 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20080624 |
|
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20080708 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20110718 Year of fee payment: 3 |
|
R150 | Certificate of patent or registration of utility model |
Free format text: JAPANESE INTERMEDIATE CODE: R150 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20110718 Year of fee payment: 3 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20120718 Year of fee payment: 4 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20120718 Year of fee payment: 4 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20130718 Year of fee payment: 5 |
|
LAPS | Cancellation because of no payment of annual fees |