JP7377668B2 - Control device, control method and computer program - Google Patents
Control device, control method and computer program Download PDFInfo
- Publication number
- JP7377668B2 JP7377668B2 JP2019183954A JP2019183954A JP7377668B2 JP 7377668 B2 JP7377668 B2 JP 7377668B2 JP 2019183954 A JP2019183954 A JP 2019183954A JP 2019183954 A JP2019183954 A JP 2019183954A JP 7377668 B2 JP7377668 B2 JP 7377668B2
- Authority
- JP
- Japan
- Prior art keywords
- customer
- control unit
- speech
- content
- business
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
- 238000000034 method Methods 0.000 title claims description 41
- 238000004590 computer program Methods 0.000 title claims description 3
- 230000004044 response Effects 0.000 claims description 62
- 230000015572 biosynthetic process Effects 0.000 claims description 53
- 238000003786 synthesis reaction Methods 0.000 claims description 53
- 238000012545 processing Methods 0.000 claims description 45
- 230000008569 process Effects 0.000 claims description 37
- 238000004891 communication Methods 0.000 description 24
- 238000010586 diagram Methods 0.000 description 8
- 230000010365 information processing Effects 0.000 description 6
- 230000006870 function Effects 0.000 description 5
- 238000005516 engineering process Methods 0.000 description 4
- 238000013473 artificial intelligence Methods 0.000 description 3
- 230000003993 interaction Effects 0.000 description 3
- 239000004065 semiconductor Substances 0.000 description 3
- 238000010801 machine learning Methods 0.000 description 2
- 230000003340 mental effect Effects 0.000 description 2
- 230000005236 sound signal Effects 0.000 description 2
- 238000012706 support-vector machine Methods 0.000 description 2
- 230000009118 appropriate response Effects 0.000 description 1
- 238000012790 confirmation Methods 0.000 description 1
- 230000007423 decrease Effects 0.000 description 1
- 238000013135 deep learning Methods 0.000 description 1
- 230000002452 interceptive effect Effects 0.000 description 1
- 238000004801 process automation Methods 0.000 description 1
- 238000012549 training Methods 0.000 description 1
- 238000012546 transfer Methods 0.000 description 1
- 230000007306 turnover Effects 0.000 description 1
Images
Landscapes
- Telephonic Communication Services (AREA)
Description
本発明は、コンタクトセンター等の顧客対応業務において用いられる技術に関する。 The present invention relates to technology used in customer service operations such as contact centers.
近年、コンタクトセンターの顧客対応業務において、人手を介して行うことに複数の課題が指摘されている。例えば、労働力人口の減少やクレーム対応における精神的負担の高さなどに伴い、人材確保が難しくなってきている。また、上述した精神的負担の高さ等の条件に起因して離職率が非常に高く、育成コストが高くついてしまっている。 In recent years, multiple issues have been pointed out in contact center customer service operations that require manual intervention. For example, it has become difficult to secure human resources due to the decline in the working population and the high mental burden of dealing with complaints. Furthermore, due to conditions such as the high mental burden mentioned above, the turnover rate is extremely high and training costs are high.
このような課題に対し、例えば特許文献1や特許文献2に開示されているように、AIを用いた顧客対応業務の技術が提案されている。 To address these issues, technologies for customer service operations using AI have been proposed, as disclosed in Patent Document 1 and Patent Document 2, for example.
しかしながら、自動化の技術はまだ完全ではなく、認識や解釈などの処理の精度が十分ではない場合があった。
上記事情に鑑み、本発明は、顧客対応業務においてより精度の高い処理を実行することができる技術の提供を目的としている。
However, automation technology is not yet perfect, and the accuracy of processing such as recognition and interpretation may not be sufficient.
In view of the above circumstances, an object of the present invention is to provide a technology that allows more accurate processing to be executed in customer service operations.
本発明の一態様は、顧客の発話内容に基づいて、前記顧客に提示される応答文を決定し、前記顧客の要求に応じた業務内容を判定し、前記業務内容の実行を業務実行装置に対して指示する制御部、を備え、前記制御部は、前記発話内容を解析する処理の実行主体となる装置を、同種の処理が可能な複数の装置の中から選択する、制御装置である。 One aspect of the present invention is to determine a response sentence to be presented to the customer based on the content of the customer's utterance, determine the business content in response to the customer's request, and cause the business execution device to execute the business content. The control unit is a control device that selects a device that will be the main body for executing processing for analyzing the utterance content from among a plurality of devices capable of performing the same type of processing.
本発明の一態様は、上記の制御装置であって、前記発話内容は音声で表され、前記制御部は、音声認識処理を実行する音声認識装置に対し、前記発話内容を示す音声の音声認識処理を要求し、前記音声認識装置から得られた認識結果に基づいて前記応答文を決定し、前記業務内容を判定し、前記制御部は、所定の条件が満たされる場合には、複数の音声認識装置の中から、前記音声認識処理の実行主体となる装置を前記条件に応じた装置として選択する。 One aspect of the present invention is the above-mentioned control device, wherein the content of the utterance is expressed as a voice, and the control unit is configured to cause a voice recognition device that executes a voice recognition process to perform voice recognition of the voice indicating the content of the utterance. The control unit requests processing, determines the response sentence based on the recognition result obtained from the voice recognition device, determines the business content, and when a predetermined condition is satisfied, the control unit From among the recognition devices, a device that is the main body for executing the voice recognition process is selected as a device that meets the conditions.
本発明の一態様は、上記の制御装置であって、前記制御部は、音声合成処理を実行する音声合成装置に対し、前記応答文を表す音声の生成を要求し、前記音声合成装置から得られた音声を用いて前記顧客に対して応答を行い、前記制御部は、所定の条件が満たされる場合には、複数の音声合成装置の中から、前記音声合成処理の実行主体となる装置を前記条件に応じた装置として選択する。 One aspect of the present invention is the above control device, wherein the control unit requests a speech synthesis device that executes speech synthesis processing to generate speech representing the response sentence, and obtains a speech from the speech synthesis device. The controller responds to the customer using the voice generated by the user, and if a predetermined condition is satisfied, the control unit selects a device that will be the main body for executing the voice synthesis process from among the plurality of voice synthesis devices. Select the device according to the above conditions.
本発明の一態様は、顧客の発話内容に基づいて、前記顧客に提示される応答文を決定する第一ステップと、前記顧客の要求に応じた業務内容を判定する第二ステップと、前記業務内容の実行を業務実行装置に対して指示する第三ステップと、前記第一ステップ、第二ステップ、第三ステップのいずれかの処理の実行主体となる装置を、同種の処理が可能な複数の装置の中から選択する第四ステップと、を有する制御方法である。 One aspect of the present invention includes a first step of determining a response sentence to be presented to the customer based on the content of the customer's utterance, a second step of determining the business content in response to the customer's request, and a second step of determining the business content according to the customer's request. The third step is to instruct the business execution device to execute the content, and the device that is the main body for executing any of the processes in the first step, second step, or third step is divided into two or more devices that can perform the same type of processing. This control method includes a fourth step of selecting from among the devices.
本発明の一態様は、上記の制御装置としてコンピュータを機能させるためのコンピュータプログラムである。 One aspect of the present invention is a computer program for causing a computer to function as the above control device.
本発明により、顧客対応業務においてより精度の高い処理を実行することが可能となる。 According to the present invention, it is possible to perform more accurate processing in customer service work.
以下、本発明の具体的な構成例について、図面を参照しながら説明する。
図1は、本発明の顧客対応業務システム100のシステム構成を示す概略ブロック図である。顧客対応業務システム100は、応答制御装置10、フロー制御装置20、複数の音声認識装置30(30-1、30-2)、複数の意図解釈装置40(40-1、40-2)、複数の音声合成装置50(50-1、50-2)、業務実行装置60、業務システム70及びオペレーター端末80を備える。このように、音声認識装置30、意図解釈装置40及び音声合成装置50に関しては、同種の処理を行う装置が複数備えられる。同種の処理を行う装置の具体例として、図1ではそれぞれ2台の装置が記載されているが、3台以上備えられてもよい。音声認識装置30、意図解釈装置40及び音声合成装置50が行うそれぞれの処理は、発話内容を解析する処理である。顧客対応業務システム100の各装置は、ネットワーク300を介してデータ通信可能に接続されている。顧客対応業務システム100は、ネットワーク300又は電話網400を介して接続してくるユーザー端末200のユーザー(顧客)に対し、音声対話又は文字対話による顧客対応業務を行う。
Hereinafter, specific configuration examples of the present invention will be described with reference to the drawings.
FIG. 1 is a schematic block diagram showing the system configuration of a customer
ユーザー端末200は、顧客対応業務システム100と通信可能に接続されている。ユーザー端末200は、ネットワーク300を介してデータ通信可能に顧客対応業務システム100に接続されてもよいし、電話網400を介して音声通信やデータ通信が可能となるように顧客対応業務システム100に接続されてもよい。ユーザー端末200は、顧客となるユーザーによって操作されることによって、顧客対応業務システム100との間で音声通信又は文字の通信を行う。ユーザー端末200は、スマートフォン、電話機、パーソナルコンピューター、スマートスピーカー等の情報処理装置である。
The
次に顧客対応業務システム100の各装置について説明する。
応答制御装置10は、ユーザー端末200と顧客対応業務システム100との間で通信インターフェースとしての機能を実現する。応答制御装置10は、例えばユーザー端末200との間で通信のセッションを管理する。応答制御装置10は、例えばユーザー端末200から文字対話の通信を要求された場合、ユーザー端末200から送信された文字を示す情報をフロー制御装置20に出力する。応答制御装置10は、例えばユーザー端末200から音声対話の通信を要求された場合、ユーザー端末200から送信された音声を示す情報をフロー制御装置20に出力する。応答制御装置10は、フロー制御装置20から応答情報を受信すると、応答情報に基づいてユーザー端末200に対し応答する。応答制御装置10は、例えばユーザー端末200から文字対話の通信を要求されている場合、ユーザー端末200に対し応答内容を示す文字列を送信する。応答制御装置10は、例えばユーザー端末200から音声対話の通信を要求されている場合、ユーザー端末200に対し音声信号を送信することによって音声で応答する。このような応答制御装置10の機能は、例えばIVR(Interactive Voice Response)を用いて実現されてもよい。
Next, each device of the customer
The
フロー制御装置20は、ユーザー端末200から送信されるユーザーの発話内容に応じて対応処理を行う。図2は、フロー制御装置20の機能ブロックの具体例を示す図である。フロー制御装置20は、パーソナルコンピューターやサーバー装置等の情報処理装置を用いて構成される。フロー制御装置20は、通信部21、通話履歴記憶部22、フロー情報記憶部23、ルール情報記憶部24及び制御部25を備える。
The
通信部21は、通信インターフェースを用いて構成される。通信部21は、ネットワーク300を介して他の装置とデータ通信する。
The
通話履歴記憶部22は、磁気ハードディスク装置や半導体記憶装置等の記憶装置を用いて構成される。通話履歴記憶部22は、通話履歴情報を記憶する。通話履歴情報は、通話開始時刻、通話終了時刻、ユーザー識別情報、通話内容情報を含む。通話開始時刻は、通話が開始された時刻である。文字対話の通信の場合には、文字対話が開始された時刻を指す。通話終了時刻は、通話が終了した時刻である。文字対話の通信の場合には、文字対話が終了した時刻を指す。ユーザー識別情報は、対話を行ったユーザーを示す情報である。ユーザー識別情報は、例えばユーザーに予め割り当てられた識別情報(ユーザーID)であってもよいし、ユーザー端末200に割り当てられている発信者番号(電話番号)であってもよいし、他の情報であってもよい。通話内容情報は、顧客と顧客対応業務システム100との間で行われた通話における、顧客の発話内容と、顧客対応業務システム100による顧客への発話内容と、を含む。例えば音声対話が行われた場合には、その音声が録音されたデータであってもよい。例えば文字対話が行われた場合には、その文字列が記録されたデータであってもよい。音声対話が行われた場合には、音声の録音データと、音声認識の結果を示す文字列データと、の双方が記録されてもよい。
The call
フロー情報記憶部23は、磁気ハードディスク装置や半導体記憶装置等の記憶装置を用いて構成される。フロー情報記憶部23は、フロー情報を記憶する。図3は、フロー情報テーブルの具体例を示す図である。フロー情報テーブルは、テーブル形式で構成されたフロー情報である。フロー情報テーブルは、複数のフロー情報レコード231を記憶する。フロー情報レコード231は、メッセージID及び業務内容情報を有する。メッセージIDは、顧客に対して通知されるメッセージを示す識別情報である。業務内容情報は、同じフロー情報レコード231に記録されているメッセージIDのメッセージが顧客に通知された際に、実行されるべき業務内容を示す。例えば、メッセージIDが依頼を受領したことを伝えるメッセージ(例えば「ご依頼承りました。ありがとうございました。」というメッセージ)を示す場合、業務内容情報には、それまでの音声で蓄積された依頼内容に基づいて発注処理を行うことを示す情報が定義される。業務内容情報は、例えばRPA(Robotic Process Automation)のシナリオを示す情報として定義されてもよい。
The flow
ルール情報記憶部24は、磁気ハードディスク装置や半導体記憶装置等の記憶装置を用いて構成される。ルール情報記憶部24は、ルール情報を記憶する。図4は、ルール情報テーブルの具体例を示す図である。ルール情報テーブルは、テーブル形式で構成されたルール情報である。ルール情報テーブルは、複数のルール情報レコード241を記憶する。ルール情報レコード241は、条件、実行タイミング及び装置IDを有する。条件は、顧客との間で行われている処理に関する条件を示す。実行タイミングは、条件が満たされた際に装置IDによる処理が実行されるタイミングを示す。装置IDは、処理結果が採用される装置を示す識別情報である。装置IDは、例えば、顧客対応業務システム100に含まれる装置を一意に示す識別情報である。装置IDは、例えば第一音声認識装置30-1を示す識別情報、第二音声認識装置30-2を示す識別情報、第一意図解釈装置40-1を示す識別情報、第二意図解釈装置40-2を示す識別情報、第一音声合成装置50-1を示す識別情報、第二音声合成装置50-2を示す識別情報、などを含む。
The rule
ルール情報レコード241に示される条件が満たされると、その実行タイミングが示す処理は、装置IDが示す装置によって実行される。例えば、メッセージID“A1”が顧客に対して出力された場合、1つ次の処理は、装置ID“20d1”によって実行されるように制御が行われる。実行タイミングが“1つ次”となっている場合のように、条件が満たされたことが判明した後の処理を示すタイミングの処理に関しては、処理の実行主体は装置IDが示す装置のみに限定されてもよい。
When the conditions indicated in the
例えば、顧客によって行われた回答の音声に“名前”という文字列が含まれていた場合には、その音声に対する処理は、処理が可能な各装置によって実行された後に、装置ID“30a2”による実行結果が採用される。実行タイミングが“現在”となっている場合のように、条件が満たされたことが判明するのに一度は処理を実行しなければならない場合には、処理の実行主体は複数(又は全部)が選択され、その後に条件が判定されて、満たされた条件に応じた装置IDの実行結果のみが採用されてもよい。 For example, if the character string "name" is included in the voice response given by the customer, the voice will be processed by each device that can process it, and then the voice will be processed using the device ID "30a2". The execution result is adopted. If the execution timing is "current" and the process must be executed once to determine that the condition has been met, multiple (or all) execution entities may be responsible for executing the process. A device ID may be selected, and then a condition is determined, and only the execution result of the device ID corresponding to the satisfied condition may be adopted.
制御部25は、CPU(Central Processing Unit)等のプロセッサとメモリとを用いて構成される。制御部25は、所定のプログラムを実行することによって、セッション制御部251、履歴制御部252、音声認識制御部253、意図解釈制御部254、音声合成制御部255及び業務制御部256として機能する。
The
セッション制御部251は、ユーザー端末200と顧客対応業務システム100との間の通信セッションを制御する。セッション制御部251は、例えばエスカレーションの条件が満たされたか否か判定する。エスカレーションの条件とは、現在実行中の顧客対応では対応を維持することとが困難である可能性を示す条件である。例えば、エスカレーションの条件は、ユーザー端末200から受信された音声に、顧客が気分を害している可能性があることを示す所定の文字列が含まれていることであってもよい。エスカレーションとは、他の顧客対応者又は他の顧客機能に顧客対応を移行することである。本実施形態では、エスカレーションの具体例として、人間のオペレーターに対して顧客対応が移行される。セッション制御部251は、業務制御部256においてエスカレーションを行うと判定された場合には、音声対話の接続先をフロー制御装置20からオペレーター端末80に変更する。
The
履歴制御部252は、ユーザー端末200と顧客対応業務システム100との間で行われた通話に関する通話履歴情報を生成する。履歴制御部252は、生成された通話履歴情報を通話履歴記憶部22に記録する。
The
音声認識制御部253は、顧客対応業務システム100とユーザー端末200との間で音声対話が行われている場合に、ユーザー端末200から送信された音声について音声認識処理を音声認識装置30に対し要求する。音声認識制御部253は、音声認識装置30から音声認識結果を受信すると、音声認識結果を意図解釈制御部254に出力する。音声認識制御部253は、ルール情報記憶部24に記憶されている条件が満たされた場合であって、且つ、その条件に対応付けられた装置IDが示す装置が音声認識装置である場合には、実行タイミングが示すタイミングで、装置IDが示す音声認識装置30(実行主体)を選択し、その装置による音声認識処理の実行結果を取得する。
The voice
例えば、顧客の名前が回答として得られる可能性が高い所定のメッセージを示すメッセージIDの出力という条件に対応付けて、名前の認識の精度が相対的に高い音声認識装置30の装置IDが対応付けられていてもよい。顧客の名前が回答として得られる可能性が高い所定のメッセージとは、例えば名前を問うメッセージ(例えば「あなたの名前をお聞かせ下さい。」というメッセージ)である。 For example, in association with the condition of outputting a message ID indicating a predetermined message for which the customer's name is likely to be obtained as an answer, the device ID of the voice recognition device 30 with relatively high name recognition accuracy is associated. It may be. The predetermined message for which the customer's name is likely to be obtained as an answer is, for example, a message asking for the customer's name (for example, a message saying "Please tell me your name.").
例えば、顧客の名前が含まれている可能性の高い回答が得られたという条件に対応付けて、名前の認識の精度が相対的に高い音声認識装置30の装置IDが対応付けられていてもよい。顧客の名前が含まれている可能性の高い回答とは、例えば“名前”という文字列が含まれていた回答である。 For example, even if the device ID of the voice recognition device 30 with relatively high name recognition accuracy is associated with the condition that an answer that is likely to include the customer's name is obtained, good. An answer that is likely to include the customer's name is, for example, an answer that includes the character string "name."
例えば、顧客の住所が回答として得られる可能性が高い所定のメッセージを示すメッセージIDの出力という条件に対応付けて、住所の認識の精度が相対的に高い音声認識装置30の装置IDが対応付けられていてもよい。顧客の住所が回答として得られる可能性が高い所定のメッセージとは、例えば住所を問うメッセージ(例えば「あなたの住所をお聞かせ下さい。」というメッセージ)である。 For example, in association with the condition of outputting a message ID indicating a predetermined message for which the customer's address is likely to be obtained as an answer, the device ID of the voice recognition device 30, which has relatively high address recognition accuracy, is associated. It may be. The predetermined message for which the customer's address is likely to be obtained as an answer is, for example, a message asking for the address (for example, a message saying "Please tell me your address.").
例えば、顧客の住所が含まれている可能性の高い回答が得られたという条件に対応付けて、住所の認識の精度が相対的に高い音声認識装置30の装置IDが対応付けられていてもよい。顧客の住所が含まれている可能性の高い回答とは、例えば“住所”という文字列か、47都道府県の県名の文字列かのいずれかが含まれていた回答である。 For example, even if the device ID of the voice recognition device 30 with relatively high address recognition accuracy is associated with the condition that an answer that is likely to include the customer's address is obtained, good. An answer that is likely to include the customer's address is, for example, an answer that includes either the character string "address" or the character string of the name of one of the 47 prefectures.
意図解釈制御部254は、顧客対応業務システム100とユーザー端末200との間で音声対話が行われている場合に、音声認識処理の結果として得られた文字列についての意図解釈処理を意図解釈装置40に対し要求する。意図解釈制御部254は、意図解釈装置40から意図解釈結果を受信すると、意図解釈結果の文字列をセッション制御部251に出力する。意図解釈制御部254は、ルール情報記憶部24に記憶されている条件が満たされた場合であって、且つ、その条件に対応付けられた装置IDが示す装置が意図解釈装置である場合には、実行タイミングが示すタイミングで、装置IDが示す意図解釈装置40(実行主体)を選択し、その装置による意図解釈処理の実行結果を取得する。
The intention
例えば、顧客から質問を示す音声が得られる可能性が高い状況という条件に対応付けて、質問の意図解釈の精度が相対的に高い意図解釈装置40の装置IDが対応付けられていてもよい。質問を示す音声が得られる可能性が高い状況とは、例えば顧客によって問い合わせの目的を示す選択肢の中から質問を示す選択肢が選択された場合である。 For example, the device ID of the intention interpretation device 40 that has relatively high accuracy in interpreting the intention of the question may be associated with a condition that there is a high possibility that a voice indicating a question will be obtained from the customer. A situation in which there is a high possibility that a voice indicating a question will be obtained is, for example, a case where the customer selects an option indicating a question from among options indicating the purpose of the inquiry.
例えば、顧客から苦情を示す音声が得られる可能性が高い状況という条件に対応付けて、苦情の意図解釈の精度が相対的に高い意図解釈装置40の装置IDが対応付けられていてもよい。苦情を示す音声が得られる可能性が高い状況とは、例えば顧客によって問い合わせの目的を示す選択肢の中から苦情を示す選択肢が選択された場合である。 For example, the device ID of the intention interpretation device 40 that has relatively high precision in interpreting the intention of a complaint may be associated with the condition that there is a high possibility that a voice indicating a complaint will be obtained from the customer. A situation in which there is a high possibility that a voice indicating a complaint will be obtained is, for example, a case where the customer selects an option indicating a complaint from among options indicating the purpose of the inquiry.
意図解釈制御部254は、意図解釈装置40から得られたデータ(応答文情報)に人の名前が含まれている場合には、予め得られている人の名前と、意図解釈結果の人の名前とを比較する。比較の結果、両者が同一であれば、意図解釈制御部254は、意図解釈結果の人の名前を用いて処理を進める。一方、比較の結果同一でなかったとしても、同一である可能性が高い所定の条件を満たしている場合には、予め得られている人の名前を正解の名前として意図解釈制御部254は処理を進める。同一である可能性が高い所定の条件とは、例えば名前の文字列の中で1つの文字列のみが異なることであってもよい。同一である可能性が高い所定の条件とは、例えば名前の文字列の中で1つの文字列のみが異なっており、且つ、異なっている文字列の母音が同一であることであってもよい。同一である可能性が高い所定の条件とは、例えば名前の文字列の中で1つの文字列のみが異なっており、且つ、異なっている文字列の母音同士が、一般的に認識誤りが生じやすい所定の関係(例えば“あ”と“え”)であることであってもよい。
When the data (response text information) obtained from the intention interpretation device 40 includes a person's name, the intention
予め得られている人の名前とは、例えば顧客によって音声やユーザー端末200の操作によって得られたユーザーIDに対応付けて予め記憶されている名前である。意図解釈制御部254の上記処理の前に、音声やユーザー端末200の操作によってユーザーIDが得られている場合には、自装置又は他の装置(例えば業務システム70)において登録されている顧客データベースにおいて対応付けられている顧客の名前が取得されてもよい。
The person's name obtained in advance is, for example, a name stored in advance in association with a user ID obtained by the customer by voice or operation of the
音声合成制御部255は、セッション制御部251から音声合成の指示を受けると、指示された文字列について音声合成処理を行うことを音声合成装置50に対し要求する。音声合成制御部255は、音声合成装置50から音声信号を受信すると、音声信号をセッション制御部251に出力する。音声合成制御部255は、ルール情報記憶部24に記憶されている条件が満たされた場合であって、且つ、その条件に対応付けられた装置IDが示す装置が音声合成装置50である場合には、実行タイミングが示すタイミングで、装置IDが示す音声合成装置50(実行主体)を選択し、その装置による音声合成処理の実行結果を取得する。
When receiving a speech synthesis instruction from the
例えば、顧客から質問を示す音声が得られる可能性が高い状況という条件に対応付けて、通常の音声合成が行われる音声合成装置50の装置IDが対応付けられていてもよい。質問を示す音声が得られる可能性が高い状況とは、例えば顧客によって問い合わせの目的を示す選択肢の中から質問を示す選択肢が選択された場合である。 For example, the device ID of the speech synthesis device 50 that performs normal speech synthesis may be associated with a condition that there is a high possibility that a voice indicating a question will be obtained from the customer. A situation in which there is a high possibility that a voice indicating a question will be obtained is, for example, a case where the customer selects an option indicating a question from among options indicating the purpose of the inquiry.
例えば、顧客から苦情を示す音声が得られる可能性が高い状況という条件に対応付けて、苦情に対して適している所定の条件を満たした音声合成装置50の装置IDが対応付けられていてもよい。苦情に対して適している所定の条件を満たした音声合成装置50とは、例えば謝罪用の音声を出力することを目的として作成された音声合成装置50であってもよいし、声の音程が相対的に低く、読み上げ速度が相対的に遅い音声を出力できる音声合成装置50であってもよい。苦情を示す音声が得られる可能性が高い状況とは、例えば顧客によって問い合わせの目的を示す選択肢の中から苦情を示す選択肢が選択された場合である。 For example, even if the device ID of the speech synthesis device 50 that satisfies a predetermined condition suitable for complaints is associated with the condition that there is a high possibility that voice indicating a complaint will be obtained from the customer. good. The speech synthesis device 50 that satisfies the predetermined conditions suitable for responding to a complaint may be, for example, a speech synthesis device 50 created for the purpose of outputting an apology speech, or a speech synthesis device 50 that is created for the purpose of outputting an apology speech, The speech synthesis device 50 may be capable of outputting a relatively low voice with a relatively slow reading speed. A situation in which there is a high possibility that a voice indicating a complaint will be obtained is, for example, a case where the customer selects an option indicating a complaint from among options indicating the purpose of the inquiry.
業務制御部256は、セッション制御部251から業務制御の指示を受けると、指示に伴うメッセージIDに基づいて、実行すべき業務内容を判定する。業務内容の判定は、例えばフロー情報記憶部23に記憶されているフロー情報レコードに基づいて行われる。業務制御部256は、実行すべき業務内容が存在する場合、業務内容を実行する。例えば、業務制御部256は、業務実行装置60に対し、業務実行装置60が処理可能なフォーマットで業務の実行を指示する。業務実行装置60が複数種類設けられる場合には、各種の業務実行装置60のフォーマットが予めフロー情報記憶部23に記憶されていてもよい。業務制御部256は、指示すべき対象となる業務実行装置60に応じたフォーマットで業務指示情報を生成する。指示すべき対象となる業務実行装置60は、例えばユーザー端末200の発信先電話番号や、その後に選択されたプッシュ番号などに基づいて判定されてもよい。
When the
図1に戻って顧客対応業務システム100の各装置の説明を続ける。音声認識装置30は、例えばパーソナルコンピューターやサーバー装置等の情報処理装置を用いて構成される。音声認識装置30は、音声認識サービスを他の装置に提供する装置である。音声認識装置30は、音声の認識処理の指示を受けると、音声認識処理を実行する。音声認識装置30は、認識結果として得られる文字列の情報を返す。
Returning to FIG. 1, the description of each device of the customer
意図解釈装置40は、例えばパーソナルコンピューターやサーバー装置等の情報処理装置を用いて構成される。意図解釈装置40は、自然言語解析や顧客との対話に関する学習結果を有しており、学習結果を用いて意図解釈処理を実行する。このような学習結果は、例えばSVM(Support Vector Machine)や深層学習などの機械学習の技術を用いることによって得ることが可能である。意図解釈装置40は、AI(Artificial Intelligence:人工知能)を用いて実装されてもよい。学習結果は、複数種類のシナリオとして保持されてもよい。例えば、注文業務に関する対話に関する学習結果、予約確認に関する対話に対する学習結果、営業に関する対話に関する学習結果、がそれぞれ異なる学習結果として保持されてもよい。いずれの学習結果を用いるかは、例えばユーザー端末200の発信先電話番号や、その後に選択されたプッシュ番号などに基づいてフロー制御装置20によって判定されてもよい。意図解釈装置40は、学習結果に基づいて、顧客の音声の認識結果を解析することで、音声対話の内容を判定する。意図解釈装置40は、音声対話の内容を判定できなかった場合には、問い直しをするための応答文を送信してもよい。意図解釈装置40は、取得する事が予め定められている情報が全てそろってはいない場合には、欠けている情報を聞き出すための追加の質問を行うための応答文を生成してもよい。意図解釈装置40は、判定された音声対話の内容に基づいて、顧客に対し提供されるべき応答文を決定する。意図解釈装置40は、決定された応答文を示す情報をフロー制御装置20に返す。
The intention interpretation device 40 is configured using, for example, an information processing device such as a personal computer or a server device. The intention interpretation device 40 has learning results regarding natural language analysis and customer interaction, and executes intention interpretation processing using the learning results. Such learning results can be obtained, for example, by using machine learning techniques such as SVM (Support Vector Machine) and deep learning. The intention interpretation device 40 may be implemented using AI (Artificial Intelligence). The learning results may be held as multiple types of scenarios. For example, learning results regarding dialogue regarding ordering, learning results regarding dialogue regarding reservation confirmation, and learning results regarding dialogue regarding sales may be held as different learning results. Which learning result to use may be determined by the
音声合成装置50は、例えばパーソナルコンピューターやサーバー装置等の情報処理装置を用いて構成される。音声合成装置50は、音声合成サービスを他の装置に提供する装置である。音声合成装置50は、音声の合成処理の指示を受けると、指示された文字列を表す音声信号を生成する。音声合成装置50は、音声合成処理の結果として得られる音声信号(応答メッセージ音声)をフロー制御装置20に返す。
The speech synthesis device 50 is configured using, for example, an information processing device such as a personal computer or a server device. The speech synthesis device 50 is a device that provides speech synthesis services to other devices. When the speech synthesis device 50 receives an instruction for speech synthesis processing, it generates an audio signal representing the instructed character string. The speech synthesis device 50 returns a speech signal (response message speech) obtained as a result of the speech synthesis processing to the
業務実行装置60は、例えばパーソナルコンピューターやサーバー装置等の情報処理装置を用いて構成される。業務実行装置60は、例えばRPA装置として実装されてもよい。業務実行装置60は、フロー制御装置20から業務指示情報を受信すると、受信された業務指示情報の内容に基づいて業務システム70に対し入力操作を実行する。業務実行装置60の処理により、既存の業務システム70において種々の処理が実行される。例えば、商品の発注処理を例に取ると、発注処理に必要な情報が業務システム70に入力され、発注実行の処理までが業務実行装置60によって実行される。発注処理に必要な情報とは、例えば発注される商品識別情報(例えば、商品名、型番、ID)、発注個数、発注元情報(顧客情報)などの情報である。
The
業務システム70は、業務を遂行するために企業などの法人又は個人において導入されるシステムである。業務システム70は、ユーザー端末200のユーザーである顧客に対してサービスを提供するために用いられるシステムである。業務システム70の具体例として、商品の発注処理を行うための発注システムや、宿や店舗の予約を行うための予約システムや、苦情を受け付けるための苦情応答システムがある。
The
オペレーター端末80は、顧客対応を行う人物であるオペレーターによって使用される端末装置である。オペレーター端末80は、文字の入出力や音声の入出力を行うユーザーインターフェースを備える。フロー制御装置20によってエスカレーションが実行されると、ユーザー端末200とオペレーター端末80との間で通信路が形成される。その後は、ユーザー端末200を使用している顧客に対し、オペレーターはオペレーター端末80を用いてコミュニケーションをとる。オペレーターは、顧客から業務依頼を受けると、オペレーター端末80を操作することによって、業務実行装置60に対し業務実行を指示する。
The
図5及び図6は、音声を用いた対話が行われる際に顧客対応業務システム100が実行する処理の具体例を示すシーケンスチャートである。まず、顧客が使用するユーザー端末200と顧客対応業務システム100との間で音声対話を行うための通信路が形成される。顧客がユーザー端末200において発話すると、ユーザー端末200は音声を電気信号に変換し応答制御装置10に送信する(ステップS100)。応答制御装置10は、音声の電気信号を受信し、受信された音声を記録する(ステップS101)。応答制御装置10は、音声の電気信号をフロー制御装置20へ送信する(ステップS102)。
5 and 6 are sequence charts showing specific examples of processing executed by the customer
フロー制御装置20のセッション制御部251は、音声の電気信号を受信すると、音声の電気信号を履歴制御部252及び音声認識制御部253に出力する。履歴制御部252は、受信された音声の内容を一時的に記録する。音声認識制御部253は、受信された音声の信号を音声認識装置30に送信する(ステップS103)。このとき、ルール情報記憶部24に登録されている条件が満たされている場合には、音声認識制御部253は、タイミングに応じて、音声の信号の送信先の音声認識装置30を選択する。音声認識装置30は、音声認識処理を実行する(ステップS104)。音声認識装置30は、音声認識処理によって得られた文字列を示す音声認識結果をフロー制御装置20に送信する(ステップS105)。
When the
フロー制御装置20の音声認識制御部253は、音声認識結果を受信すると、意図解釈制御部254に音声認識結果を出力する。意図解釈制御部254は、受信された音声認識結果を送信することによって、音声認識結果に基づいて応答文を決定することを意図解釈装置40に要求する(ステップS106)。このとき、ルール情報記憶部24に登録されている条件が満たされている場合には、意図解釈制御部254は、タイミングに応じて、応答文決定の依頼先の意図解釈装置40を選択する。意図解釈装置40は、音声認識結果を受信すると、音声認識結果を解析することによって音声対話の内容を判定し、応答文を決定する(ステップS107)。例えば、意図解釈装置40は、音声認識結果を元に意図解釈処理を行うことで、発話内容に最も近い質問文を推定する。そして、意図解釈装置40は、予めデータベースに登録されているFAQリストの中から、推定された質問文に対する応答文として適切なものを決定する。意図解釈装置40は、決定された応答文を示す情報をフロー制御装置20に送信する(ステップS108)。
Upon receiving the voice recognition result, the voice
フロー制御装置20の意図解釈制御部254は、応答文を示す情報を受信すると、音声合成装置50に対し、受信された応答文を表す音声の合成処理を要求する(ステップS109)。このとき、応答文に人の名前が含まれている場合には、同一であるか否か、同一である可能性が高い所定の条件を満たしているか、について意図解釈制御部254は判定する。また、ルール情報記憶部24に登録されている条件が満たされている場合には、音声合成制御部255は、タイミングに応じて、音声合成処理の要求先の音声合成装置50を選択する。音声合成装置50は、要求された応答文に応じて音声合成処理を行うことによって応答メッセージの音声データを生成する(ステップS110)。音声合成装置50は、生成された応答メッセージの音声データをフロー制御装置20へ送信する(ステップS111)。
When the intention
フロー制御装置20のセッション制御部251は、応答メッセージの音声データを受信すると、受信された音声データを履歴制御部252に出力する。履歴制御部252は、受信された応答メッセージの音声の内容を一時的に記録する。なお、履歴制御部252によって一時的に記録された音声の内容は、ユーザー端末200との間で通信路が切断された後に、履歴制御部252によって通話履歴情報として通話履歴記憶部22に記録される。セッション制御部251は、応答メッセージの音声を、応答制御装置10へ送信する(ステップS112)。応答制御装置10は、フロー制御装置20から音声を受信すると、受信された音声を記録する(ステップS113)。応答制御装置10は、記録された音声をユーザー端末200に送信する(ステップS114)。
When the
セッション制御部251は、所定のタイミングでエスカレーションの条件が満たされたか否か判定する(ステップS115)。例えば、ユーザー端末200から受信された音声に、顧客が気分を害している可能性があることを示す所定の文字列が含まれていることが条件であってもよい。エスカレーションの条件が満たされない場合(ステップS115-NO)、エスカレーションは実行されない。一方、エスカレーションの条件が満たされる場合(ステップS115-YES)、セッション制御部251は、応答制御装置10に対しエスカレーションの実行を指示する。この指示に応じて応答制御装置10は、ユーザー端末200の接続先をオペレーター端末80に変更することでエスカレーションを実行する(ステップS116)。この際に、セッション制御部251は、エスカレーションの対象となっている通話に関する情報をオペレーター端末80に送信してもよい。
The
フロー制御装置20の業務制御部256は、意図解釈装置40から通知された応答文情報に基づいて、実行すべき業務内容を判定する(ステップS201)。例えば、応答文情報が応答メッセージの内容や種別を示すメッセージIDを含む場合、業務制御部256は、メッセージIDに対応づけてフロー情報記憶部23に記録されている業務内容情報を参照することによって業務内容を判定してもよい。業務制御部256は、実行すべき業務がある場合、業務指示情報を生成する(ステップS202)。業務指示情報は、業務の指示先となる業務実行装置60が処理可能なフォーマットで生成される。業務制御部256は、生成された業務指示情報を業務実行装置60へ送信する(ステップS203)。業務実行装置60は、業務指示情報を受信すると、受信された業務指示情報にしたがって業務システム70に対し業務指示を行う(ステップS204)。業務システム70は、指示された内容にしたがって業務を実行する(ステップS205)。
The
なお、図5及び図6では音声対話を前提とした処理の流れを説明したが、文字対話が行われる場合にはステップS103~S105とステップS109~111の処理が省略され、ステップS101及びステップS113の処理において音声ではなく文字列として記録が行われる。 5 and 6 have explained the flow of processing assuming voice dialogue, but when text dialogue is performed, steps S103 to S105 and steps S109 to 111 are omitted, and steps S101 and S113 are omitted. In this process, the recording is performed as a character string rather than as a voice.
このように構成された顧客対応業務システム100では、ルール情報記憶部24に登録されている条件に応じて、処理を実行するに当たって最適な装置が選択され、選択された装置による処理結果がその後の処理で用いられる。そのため、顧客対応業務においてより精度の高い処理を実行することが可能となる。
In the customer
また、このように構成された顧客対応業務システム100では、予め得られている人の名前と、意図解釈結果の人の名前と、が異なったとしても、所定の条件が満たされる場合には処理が進行される。そのため、音声認識処理や意図解釈処理における誤処理に起因してその後の処理が止まってしまう(例えばエラーとして注しされてしまう)ことが防止される。
In addition, in the customer
また、顧客対応業務システム100では、顧客から発せられる音声や文字による発言に対して、機械学習によって予め得られた経験知に基づいて応答文が自動的に決定される。そして、音声対話であれば音声に変換して顧客に送信され、文字対話であれば文字として顧客に送信される。そのため、これまで人手で行われていた顧客対応の業務の一部を人手を介さずに行うことが可能となる。その結果、顧客対応業務において要する人手をさらに削減することができる。
Further, in the customer
また、いわゆる後続業務といわれる業務の業務内容が、顧客との対話に基づいて自動的に判断される。そのうえで、RPA装置等の業務実行装置に対して、各装置において解釈可能なフォーマットで業務の指示が行われる。各業務実行装置は、指示に応じて業務システムにおいて業務を実行する。そのため、顧客への応答のみならず、後続業務までも自動的に実行することが可能となる。その結果、顧客対応業務において要する人手をさらに削減することができる Further, the content of the so-called subsequent work is automatically determined based on the dialogue with the customer. Then, business instructions are given to business execution devices such as RPA devices in a format that can be interpreted by each device. Each business execution device executes a business in the business system according to instructions. Therefore, it becomes possible to automatically execute not only responses to customers but also subsequent operations. As a result, it is possible to further reduce the manpower required for customer service operations.
また、業務システムや業務実行装置は、顧客業務を必要とする企業や個人において予め有しているものをそのまま利用することが可能である。そのため、顧客対応業務システム100の導入に当たって必要となる費用や期間を削減することが可能となる。
Further, business systems and business execution devices that are already available in companies and individuals that require customer business can be used as they are. Therefore, it is possible to reduce the cost and time necessary for introducing the customer
(変形例)
顧客対応業務システム100のシステム構成は、図1に示されたものに限定される必要は無い。具体的には以下の通りである。
顧客対応業務システム100に含まれる装置のうち、一部の装置がネットワーク300とは異なるネットワークを経由して他の装置と通信可能に接続されてもよい。例えば、業務システム70は、専用線を用いたネットワークを介して他の装置と通信可能に接続されてもよい。
顧客対応業務システム100に含まれる装置のうち、一部の装置が他の装置と一体に構成されてもよい。例えば、音声認識装置30及び意図解釈装置40が一体の装置として構成されてもよい。
(Modified example)
The system configuration of the customer
Some of the devices included in the customer
Among the devices included in the customer
以上、この発明の実施形態について図面を参照して詳述してきたが、具体的な構成はこの実施形態に限られるものではなく、この発明の要旨を逸脱しない範囲の設計等も含まれる。 Although the embodiments of the present invention have been described above in detail with reference to the drawings, the specific configuration is not limited to these embodiments, and includes designs within the scope of the gist of the present invention.
100…顧客対応業務システム, 10…応答制御装置, 20…フロー制御装置, 30…音声認識装置, 40…意図解釈装置, 50…音声合成装置, 60…業務実行装置, 70…業務システム, 80…オペレーター端末, 200…ユーザー端末, 21…通信部, 22…通話履歴記憶部, 23…フロー情報記憶部, 25…制御部, 251…セッション制御部, 252…履歴制御部, 253…音声認識制御部, 254…意図解釈制御部, 255…音声合成制御部, 256…業務制御部 100...Customer service business system, 10...Response control device, 20...Flow control device, 30...Speech recognition device, 40...Intention interpretation device, 50...Speech synthesis device, 60...Business execution device, 70...Business system, 80... Operator terminal, 200... User terminal, 21... Communication unit, 22... Call history storage unit, 23... Flow information storage unit, 25... Control unit, 251... Session control unit, 252... History control unit, 253... Voice recognition control unit , 254...Intention interpretation control unit, 255...Speech synthesis control unit, 256...Business control unit
Claims (5)
前記制御部は、前記発話内容を解析する処理の実行主体となる装置を、同種の処理が可能な複数の装置の中から選択し、
前記制御部は、前記顧客から苦情を示す音声が得られる可能性が高い状況である場合に、苦情の意図解釈の精度が相対的に高い意図解釈装置を前記実行主体となる装置として選択し、苦情に対して適している所定の条件を満たした音声合成装置を選択して音声合成処理の実行結果を取得する、制御装置。 a control unit that determines a response sentence to be presented to the customer based on the content of the customer's utterance, determines the business content in response to the customer's request, and instructs a business execution device to execute the business content; Equipped with
The control unit selects a device that will be the main body for executing the process of analyzing the utterance content from among a plurality of devices capable of the same type of processing ;
The control unit selects an intention interpretation device that has relatively high accuracy in interpreting the intention of the complaint as the device that will be the execution subject when there is a high possibility that a voice indicating a complaint will be obtained from the customer; A control device that selects a speech synthesis device that satisfies predetermined conditions that are suitable for a complaint and obtains an execution result of speech synthesis processing .
前記制御部は、音声認識処理を実行する音声認識装置に対し、前記発話内容を示す音声の音声認識処理を要求し、前記音声認識装置から得られた認識結果に基づいて前記応答文を決定し、前記業務内容を判定し、
前記制御部は、所定の条件が満たされる場合には、複数の音声認識装置の中から、前記音声認識処理の実行主体となる装置を前記条件に応じた装置として選択する、請求項1に記載の制御装置。 The content of the utterance is expressed in audio,
The control unit requests a speech recognition device that performs speech recognition processing to perform speech recognition processing of the speech indicating the content of the utterance, and determines the response sentence based on the recognition result obtained from the speech recognition device. , determine the business content,
2. The control unit selects, from among a plurality of speech recognition devices, a device that will be the main subject of execution of the speech recognition process as a device that satisfies the condition, if a predetermined condition is satisfied. control device.
前記制御部は、所定の条件が満たされる場合には、複数の音声合成装置の中から、前記音声合成処理の実行主体となる装置を前記条件に応じた装置として選択する請求項2に記載の制御装置。 The control unit requests a speech synthesis device that performs speech synthesis processing to generate speech representing the response sentence, and responds to the customer using the speech obtained from the speech synthesis device.
3. The control unit selects, from a plurality of speech synthesis devices, a device that will be the main subject of execution of the speech synthesis process as a device that satisfies the condition, if a predetermined condition is satisfied. Control device.
前記顧客の要求に応じた業務内容を判定する第二ステップと、
前記業務内容の実行を業務実行装置に対して指示する第三ステップと、
前記第一ステップ、第二ステップ、第三ステップのいずれかの処理の実行主体となる装置を、同種の処理が可能な複数の装置の中から選択する第四ステップと、
前記顧客から苦情を示す音声が得られる可能性が高い状況である場合に、苦情の意図解釈の精度が相対的に高い意図解釈装置を前記実行主体となる装置として選択し、苦情に対して適している所定の条件を満たした音声合成装置を選択して音声合成処理の実行結果を取得する第五ステップと、
を有する制御方法。 a first step of determining a response sentence to be presented to the customer based on the content of the customer's utterance;
a second step of determining the business content according to the customer's request;
a third step of instructing a business execution device to execute the business content;
a fourth step of selecting a device that will be the main body for executing any of the processes in the first step, second step, and third step from among a plurality of devices capable of performing the same type of processing;
In a situation where there is a high possibility that voice indicating a complaint will be obtained from the customer, an intention interpretation device with relatively high precision in interpreting the intention of the complaint is selected as the device that will be the main executioner, and the device is suitable for responding to the complaint. a fifth step of selecting a speech synthesizer that satisfies a predetermined condition and obtaining the execution result of the speech synthesis process;
A control method having
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2019183954A JP7377668B2 (en) | 2019-10-04 | 2019-10-04 | Control device, control method and computer program |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2019183954A JP7377668B2 (en) | 2019-10-04 | 2019-10-04 | Control device, control method and computer program |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2021060490A JP2021060490A (en) | 2021-04-15 |
JP7377668B2 true JP7377668B2 (en) | 2023-11-10 |
Family
ID=75381376
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2019183954A Active JP7377668B2 (en) | 2019-10-04 | 2019-10-04 | Control device, control method and computer program |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP7377668B2 (en) |
Families Citing this family (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN113571057A (en) * | 2021-06-15 | 2021-10-29 | 北京来也网络科技有限公司 | Voice control method and device combining RPA and AI |
Citations (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2003295890A (en) | 2002-04-04 | 2003-10-15 | Nec Corp | Apparatus, system, and method for speech recognition interactive selection, and program |
JP2019144400A (en) | 2018-02-20 | 2019-08-29 | エヌ・ティ・ティ・コミュニケーションズ株式会社 | Controller, control method and computer program |
-
2019
- 2019-10-04 JP JP2019183954A patent/JP7377668B2/en active Active
Patent Citations (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2003295890A (en) | 2002-04-04 | 2003-10-15 | Nec Corp | Apparatus, system, and method for speech recognition interactive selection, and program |
JP2019144400A (en) | 2018-02-20 | 2019-08-29 | エヌ・ティ・ティ・コミュニケーションズ株式会社 | Controller, control method and computer program |
Also Published As
Publication number | Publication date |
---|---|
JP2021060490A (en) | 2021-04-15 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US10750019B1 (en) | System and method for assisting agents via artificial intelligence | |
US11055649B1 (en) | Systems and methods relating to customer experience automation | |
US10904384B2 (en) | System and method for omnichannel user engagement and response | |
US7184539B2 (en) | Automated call center transcription services | |
US20190037077A1 (en) | System and Method for Customer Experience Automation | |
US20150256677A1 (en) | Conversation assistant | |
CN111739519B (en) | Speech recognition-based dialogue management processing method, device, equipment and medium | |
CN101682673A (en) | Automated attendant grammar tuning | |
US9020139B2 (en) | Interactive voice response system and method with common interface and intelligent agent monitoring | |
US8027457B1 (en) | Process for automated deployment of natural language | |
CA3051558A1 (en) | System and method for speech-based interaction resolution | |
US20040002868A1 (en) | Method and system for the processing of voice data and the classification of calls | |
JP2019197977A (en) | Inquiry processing method, system, terminal, automatic voice interactive device, display processing method, call control method, and program | |
JP7099829B2 (en) | Controls, control methods and computer programs | |
JP7377668B2 (en) | Control device, control method and computer program | |
US20160364383A1 (en) | Multi-channel cross-modality system for providing language interpretation/translation services | |
US20230396709A1 (en) | System and method for mobile device active callback prioritization with predictive outcome scoring | |
JP2016225740A (en) | Speech communication distribution system, call control device and program | |
RU2763691C1 (en) | System and method for automating the processing of voice calls of customers to the support services of a company | |
CN111556096B (en) | Information pushing method, device, medium and electronic equipment | |
US11755652B2 (en) | Information-processing device and information-processing method | |
US7343288B2 (en) | Method and system for the processing and storing of voice information and corresponding timeline information | |
EP4312173A1 (en) | Task gathering for asynchronous task-oriented virtual assistants | |
JP7319639B1 (en) | Voice input system and its program | |
US20240311842A1 (en) | Customer service assistance device, customer service assistance method, and recording medium |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20220809 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20230428 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20230509 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20230710 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20231017 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20231030 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 7377668 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |