JPWO2017200077A1 - 対話方法、対話システム、対話装置、及びプログラム - Google Patents
対話方法、対話システム、対話装置、及びプログラム Download PDFInfo
- Publication number
- JPWO2017200077A1 JPWO2017200077A1 JP2018518376A JP2018518376A JPWO2017200077A1 JP WO2017200077 A1 JPWO2017200077 A1 JP WO2017200077A1 JP 2018518376 A JP2018518376 A JP 2018518376A JP 2018518376 A JP2018518376 A JP 2018518376A JP WO2017200077 A1 JPWO2017200077 A1 JP WO2017200077A1
- Authority
- JP
- Japan
- Prior art keywords
- utterance
- person
- action
- dialogue
- robot
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
- 238000000034 method Methods 0.000 title claims abstract description 25
- 230000009471 action Effects 0.000 claims abstract description 97
- 238000006243 chemical reaction Methods 0.000 claims abstract description 57
- 230000004044 response Effects 0.000 claims abstract description 15
- 238000004891 communication Methods 0.000 claims description 28
- 230000002452 interceptive effect Effects 0.000 claims description 17
- 230000006870 function Effects 0.000 claims description 14
- 230000001755 vocal effect Effects 0.000 claims description 8
- 230000000694 effects Effects 0.000 claims description 4
- 230000003993 interaction Effects 0.000 claims 1
- 238000012545 processing Methods 0.000 description 25
- 230000006399 behavior Effects 0.000 description 19
- 230000015572 biosynthetic process Effects 0.000 description 14
- 238000003786 synthesis reaction Methods 0.000 description 14
- 239000003795 chemical substances by application Substances 0.000 description 11
- 230000008569 process Effects 0.000 description 10
- 230000004048 modification Effects 0.000 description 9
- 238000012986 modification Methods 0.000 description 9
- 230000008859 change Effects 0.000 description 8
- 241000282320 Panthera leo Species 0.000 description 5
- 238000005516 engineering process Methods 0.000 description 5
- 238000011156 evaluation Methods 0.000 description 5
- 210000003128 head Anatomy 0.000 description 5
- 238000013473 artificial intelligence Methods 0.000 description 4
- 230000008921 facial expression Effects 0.000 description 4
- 230000010365 information processing Effects 0.000 description 3
- 239000004973 liquid crystal related substance Substances 0.000 description 3
- 241000282412 Homo Species 0.000 description 2
- 125000002066 L-histidyl group Chemical group [H]N1C([H])=NC(C([H])([H])[C@](C(=O)[*])([H])N([H])[H])=C1[H] 0.000 description 2
- 238000009825 accumulation Methods 0.000 description 2
- 238000001514 detection method Methods 0.000 description 2
- 238000010586 diagram Methods 0.000 description 2
- 206010037180 Psychiatric symptoms Diseases 0.000 description 1
- 208000003443 Unconsciousness Diseases 0.000 description 1
- 230000008901 benefit Effects 0.000 description 1
- 238000004364 calculation method Methods 0.000 description 1
- 239000000470 constituent Substances 0.000 description 1
- 230000008451 emotion Effects 0.000 description 1
- 239000000284 extract Substances 0.000 description 1
- 230000001815 facial effect Effects 0.000 description 1
- 230000035876 healing Effects 0.000 description 1
- 230000004807 localization Effects 0.000 description 1
- 230000007246 mechanism Effects 0.000 description 1
- 230000000474 nursing effect Effects 0.000 description 1
- 230000003287 optical effect Effects 0.000 description 1
- 210000001747 pupil Anatomy 0.000 description 1
- 238000012827 research and development Methods 0.000 description 1
- 239000004065 semiconductor Substances 0.000 description 1
- 230000005236 sound signal Effects 0.000 description 1
- 238000002560 therapeutic procedure Methods 0.000 description 1
- 238000012549 training Methods 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/048—Interaction techniques based on graphical user interfaces [GUI]
- G06F3/0481—Interaction techniques based on graphical user interfaces [GUI] based on specific properties of the displayed interaction object or a metaphor-based environment, e.g. interaction with desktop elements like windows or icons, or assisted by a cursor's changing behaviour or appearance
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/16—Sound input; Sound output
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L13/00—Speech synthesis; Text to speech systems
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L13/00—Speech synthesis; Text to speech systems
- G10L13/02—Methods for producing synthetic speech; Speech synthesisers
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L15/00—Speech recognition
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L15/00—Speech recognition
- G10L15/22—Procedures used during a speech recognition process, e.g. man-machine dialogue
Landscapes
- Engineering & Computer Science (AREA)
- Human Computer Interaction (AREA)
- Physics & Mathematics (AREA)
- Audiology, Speech & Language Pathology (AREA)
- Health & Medical Sciences (AREA)
- Computational Linguistics (AREA)
- Theoretical Computer Science (AREA)
- Acoustics & Sound (AREA)
- Multimedia (AREA)
- General Engineering & Computer Science (AREA)
- General Physics & Mathematics (AREA)
- General Health & Medical Sciences (AREA)
- Manipulator (AREA)
- User Interface Of Digital Computer (AREA)
Abstract
Description
(参考文献1):東中 竜一郎、船越 孝太郎、荒木 雅弘、塚原 裕史、小林 優佳、水上 雅博、「Project Next NLP 対話タスク:雑談対話データの収集と対話破綻アノテーションおよびその類型化」、言語処理学会年次大会、2015
(参考文献2):杉山 弘晃、「異なる特性を持つデータの組み合わせによる雑談対話の破綻検出」、第75回 人工知能学会 言語・音声理解と対話処理研究会(SIG-SLUD)第6回対話システムシンポジウム、2015
本実施形態では、破綻の検出に、システム発話の内容のみではなく、システム発話を聞いたユーザの表情などの変化を利用する。システム発話の内容のみからその発話前に破綻を検出するには複雑な意味構造を理解する必要があるが、ユーザの反応を破綻の検出に組み込むことで破綻をより確実に検出できる。
t(1): ユーザ→R1,R2:「最近ライオンキング(登録商標)見に行ったら、子役の子たちがすごかったです」
t(2): R1→ユーザ:「メスが狩りをするらしいですね」(「ライオン」に反応した破綻発話)
ロボットR1の発話t(2)に対するユーザの反応の認識結果が「ロボットR1の発話t(2)がユーザの発話t(1)に対応するものではない(ロボットR1が破綻させた)」というものであった場合に、ロボットR2が「ロボットR1の発話がユーザの発話に対応するものではない」旨を表出する行動を行う。
t(3): R2→R1:「何言ってるの??」
t(4): R1→ユーザ:「ライオンの話じゃないの?」
Case2:
t(3): R2→ユーザ:「何言ってんだろうねー」
Case3:
t(3): R2:ためいき
Case1では、ロボットR2が、ロボットR1に対する発話として、ロボットR1が破綻させたこと、または、ロボットR1が破綻させた可能性を、発話t(3)で明言する。
t(1): ユーザ→R1,R2:「最近ライオンキング見に行ったら、子役の子たちがすごかったです」
t(2): R1→ユーザ:「メスが狩りをするらしいですね」(「ライオン」に反応した破綻発話)
ロボットR1の発話t(2)に対するユーザの反応の認識結果が「ロボットR1の発話t(2)がユーザの発話t(1)に対応するものではない(ロボットR1が破綻させた)」というものであった場合に、ロボットR1が「ロボットR1の発話がユーザの発話に対応するものではない」旨を表出する行動を行う。
t(3): R1→R2「あれ?何か変なこと言った??」
t(4): R2→ユーザ「その話じゃないよねえ。子役の話だよね」
Case5:
t(3): R1→ユーザ「あれ?違いました?」
Case6:
t(3): R1:首を横に振る仕草
Case4では、ロボットR1が、ロボットR2に対する発話として、ロボットR1が破綻させたこと、または、ロボットR1が破綻させた可能性を、発話t(3)で明言する。Case4では、さらに、ロボットR2が、ユーザに対する発話として、発話t(2)とは異なる発話t(4)を行うことで、ユーザ発話に対する対話を継続する。
t(1): ユーザ→R1,R2:「最近ライオンキング見に行ったら、子役の子たちがすごかったです」
t(2): R1→ユーザ:「メスが狩りをするらしいですね」(「ライオン」に反応した破綻発話)
ロボットR1の発話t(2)に対するユーザの反応の認識結果が「ロボットR1の発話t(2)がユーザの発話t(1)に対応するものではない(ロボットR1が破綻させた)」というものであった場合に、ロボットR1、ロボットR2はともに破綻を明言せずに対話を継続する。
t(3): R2→R1「あ、そういえばこないだサファリパークに行ったら、ライオンが眠ってたよ」
t(3): R2→ユーザ「子役はかわいいですよね」
Case7では、ロボットR2が、話題転換語を伴って、ロボットR1の破綻発話t(2)ではなくユーザの発話t(1)に関する発話t(3)を行う。「そういえば」などの話題転換語を伴うことで、ユーザの話題からずれていることを表出しつつ、話題を遷移させて対話を継続することができ、ロボットR2が対話の内容を理解して対話している印象をユーザに与えることができる。
<第一実施形態>
図2は第一実施形態に係る対話システム100の機能ブロック図を、図3は第一実施形態に係る対話システム100の処理フローを示す。
ロボットR1とR2は、ユーザと対話するためのものであり、ユーザの近くに配置され、対話装置190が生成した発話を行う。
入力部102−1、102−2は、ユーザが発話した発話音声を収音して、収音された音声データを音声認識部140に出力する。入力部はユーザが発話した発話音声を収音可能とすればよいので、入力部102−1、102−2の何れか一方を備えないでもよい。また、ユーザの近傍などのロボットR1,R2とは異なる場所に設置されたマイクロホンを入力部とし、入力部102−1、102−2の双方を備えない構成としてもよい。
音声認識部140は、入力部102−1、102−2が得た音声データ(ユーザの発話t(1)、すなわち、人の発話t(1))の入力を受け付け(S1)、この音声データに対して音声認識を行い(S2)、認識結果のテキストを発話決定部120に出力する。
発話決定部120は、音声認識部140からユーザの発話t(1)に対する音声認識結果のテキストが入力されると、当該ユーザの発話t(1)、すなわち、人の発話t(1)に対する音声認識結果のテキストに少なくとも基づき、当該ユーザの発話t(1)の次に対話システム100が提示する発話t(2)のテキストを決定し(S3)、音声合成部110に出力する。なお、当該発話を行うロボットも決定してもよく、この場合には、発話するロボットを表す情報も音声合成部110に出力する。
(参考文献3)杉山弘晃,目黒豊美,東中竜一郎,南泰浩,“任意の話題を持つユーザ発話に対する係り受けと用例を利用した応答文の生成”,人工知能学会論文誌,vol. 30(1),pp. 183-194,2015年
(参考文献4)有本庸浩,吉川雄一郎,石黒浩,“複数体のロボットによる音声認識なし対話の印象評価”,日本ロボット学会学術講演会,2016年
音声合成部110は、発話決定部120から入力されたテキスト(発話t(2)のテキスト)に対する音声合成を行って(S4)合成音声データを得て、得られた合成音声データをロボットR1の提示部101−1またはロボットR2の提示部101−2に出力する。テキストと共に発話決定部120からテキストと当該テキストを発話するロボットを表す情報が入力された場合には、音声合成部110は当該情報に対応するロボットの提示部に対して合成音声データを出力する。
提示部101−1、101−2は、音声合成部110から入力された合成音声データ(発話t(2)の合成音声データ)に対応する音声を再生する(S5)。これにより、ユーザはロボットR1またはR2の発話を受聴することになり、ユーザと対話システム100との対話が実現される。
反応取得部160は、2番目の発話t(2)に対する人の反応を取得し(S6)、行動生成部170に出力する。
(参考文献5)水上雅博, et al. "快適度推定に基づく用例ベース対話システム", 人工知能学会論文誌, Vol. 31, No. 1, 2016.
以下、具体例に沿って、処理内容を説明する。
行動生成部170は、人の反応が、発話t(2)がユーザの発話t(1)、すなわち、人の発話t(1)に対応するものではないことを示す反応である場合に、発話t(2)がユーザの発話t(1)、すなわち、人の発話t(1)に対応するものではない旨を表出する行動の内容である行動内容を生成し、すなわち、決定し(S8)、行動部180に出力する。
行動生成部170は、人の反応が、発話t(2)がユーザの発話t(1)、すなわち、人の発話t(1)に対応するものではないことを示す反応である場合に、発話t(2)とは異なる発話t(3)を生成し、すなわち、決定し(S8)、行動部180に出力する。
このような構成により、ユーザにシステムが対話の内容を理解して対話している印象を与えることができる。
第一実施形態では2台のロボットを含む対話システムについて説明した。しかし、上述したように発話決定部120が発話するロボットを決定しない形態などもある。そのため、対話システム100に必ずしも2台のロボットを必要としない形態がある。この形態とする場合には、対話システム100に含むロボットを1台としてもよい。また、上述したように発話決定部120が2台のロボットを発話するロボットとして決定する形態がある。この形態を対話システム100に3台以上のロボットを含む構成で動作させてもよい。
対話システム100が複数台のロボットを含む構成において、どのロボットが発話しているのかをユーザが判別可能とされていれば、提示部の個数はロボットの個数と同一でなくてもよい。また、提示部はロボットに設置されていなくてもよい。どのロボットが発話しているのかをユーザが判別可能とする方法としては、合成する音声の声質をロボットごとに異ならせる、複数のスピーカを用いてロボットごとに定位を異ならせる、などの周知の技術を用いればよい。
上述した実施形態では、エージェントとしてロボットを用いて音声による対話を行う例を説明したが、上述した実施形態のロボットは身体等を有する人型ロボットであっても、身体等を有さないロボットであってもよい。また、この発明の対話技術はこれらに限定されず、人型ロボットのように身体等の実体がなく、発声機構を備えないエージェントを用いて対話を行う形態とすることも可能である。そのような形態としては、例えば、コンピュータの画面上に表示されたエージェントを用いて対話を行う形態が挙げられる。より具体的には、「LINE」や「2ちゃんねる(登録商標)」のような、複数アカウントがテキストメッセージにより対話を行うグループチャットにおいて、ユーザのアカウントと対話装置のアカウントとが対話を行う形態に本対話システムを適用することも可能である。この形態では、エージェントを表示する画面を有するコンピュータは人の近傍にある必要があるが、当該コンピュータと対話装置とはインターネットなどのネットワークを介して接続されていてもよい。つまり、本対話システムは、人とロボットなどの話者同士が実際に向かい合って話す対話だけではなく、話者同士がネットワークを介してコミュニケーションを行う会話にも適用可能である。
本発明は上記の実施形態及び変形例に限定されるものではない。例えば、提示部が提示する発話順以外の上述の各種の処理は、記載に従って時系列に実行されるのみならず、処理を実行する装置の処理能力あるいは必要に応じて並列的にあるいは個別に実行されてもよい。その他、本発明の趣旨を逸脱しない範囲で適宜変更が可能である。
また、上記の実施形態及び変形例1、2で説明した各装置における各種の処理機能をコンピュータによって実現してもよい。その場合、各装置が有すべき機能の処理内容はプログラムによって記述される。また、上記変形例3で説明した対話システムにおける各種の処理機能をコンピュータによって実現してもよい。その場合、対話システムが有すべき機能の処理内容はプログラムによって記述される。そして、このプログラムをコンピュータで実行することにより、上記各装置における各種の処理機能がコンピュータ上で実現される。
Claims (9)
- 対話システムが行う対話方法であって、
前記対話システムが、人の発話の入力を受け付ける発話受付ステップと、
前記対話システムが、前記人の発話に対する発話である第1発話を決定する第1発話決定ステップと、
前記対話システムが、前記第1発話を提示する第1発話提示ステップと、
前記対話システムが、前記第1発話に対する前記人の反応を取得する反応取得ステップと、
前記対話システムが、前記人の反応が、前記第1発話が前記人の発話に対応するものではないことを示す反応である場合に、前記第1発話が前記人の発話に対応するものではない旨を表出する行動の内容である行動内容を決定する行動決定ステップと、
前記対話システムが、前記行動内容の行動を行う行動ステップと、を含む、
対話方法。 - 請求項1の対話方法であって、
前記対話システムは第1エージェントと第2エージェントとを含み、
前記第1発話提示ステップにおいて、前記第1エージェントが前記第1発話を提示し、
前記行動内容は、前記第1発話が前記人の発話に対応するものではない旨の発話である第2発話の内容を示し、
前記行動内容の行動は、前記第2エージェントが前記第2発話を提示することである、
対話方法。 - 請求項1の対話方法であって、
前記対話システムは第1エージェントを含み、
前記第1発話提示ステップにおいて、前記第1エージェントが前記第1発話を提示し、
前記行動内容は、前記第1発話が前記人の発話に対応するものではない旨の発話である第2発話の内容を示し、
前記行動内容の行動は、前記第1エージェントが前記第2発話を提示することである、
対話方法。 - 請求項1の対話方法であって、
前記対話システムは第1エージェントと第2エージェントとを含み、
前記第1発話提示ステップにおいて、前記第1エージェントが前記第1発話を提示し、
前記行動内容は、前記第1発話が前記人の発話に対応するものではない旨を、前記第1発話を行った者以外が表す非言語コミュニケーションである第2非言語コミュニケーションの内容を示し、
前記行動内容の行動は、前記第2エージェントが前記第2非言語コミュニケーションを行うことである、
対話方法。 - 請求項1の対話方法であって、
前記対話システムは第1エージェントを含み、
前記第1発話提示ステップにおいて、前記第1エージェントが前記第1発話を提示し、
前記行動内容は、前記第1発話が前記人の発話に対応するものではない旨を、前記第1発話を行った者自身が表す非言語コミュニケーションである第2非言語コミュニケーションの内容を示し、
前記行動内容の行動は、前記第1エージェントが前記第2非言語コミュニケーションを行うことである、
対話方法。 - 人の発話の入力を受け付ける発話受付部と、
前記人の発話に対する発話である第1発話を決定する第1発話決定部と、
前記第1発話を提示する第1発話提示部と、
前記第1発話に対する前記人の反応を取得する反応取得部と、
前記人の反応が、前記第1発話が前記人の発話に対応するものではないことを示す反応である場合に、前記第1発話が前記人の発話に対応するものではない旨を表出する行動の内容である行動内容を決定する行動決定部と、
前記行動内容の行動を行う行動部と、を含む、
対話システム。 - 入力された人の発話に対する発話であり、前記人に対して提示するための発話である第1発話を決定する第1発話決定部と、
前記第1発話に対する前記人の反応を取得する反応取得部と、
前記第1発話に対する前記人の反応が、前記第1発話が前記人の発話に対応するものではないことを示す反応である場合に、前記第1発話が前記人の発話に対応するものではない旨を前記人に対して表出する行動の内容である行動内容を決定する行動決定部と、を含む、
対話装置。 - 請求項6の対話システムとしてコンピュータを機能させるためのプログラム。
- 請求項7の対話装置としてコンピュータを機能させるためのプログラム。
Applications Claiming Priority (3)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2016101223 | 2016-05-20 | ||
JP2016101223 | 2016-05-20 | ||
PCT/JP2017/018792 WO2017200077A1 (ja) | 2016-05-20 | 2017-05-19 | 対話方法、対話システム、対話装置、及びプログラム |
Publications (2)
Publication Number | Publication Date |
---|---|
JPWO2017200077A1 true JPWO2017200077A1 (ja) | 2018-12-13 |
JP6647636B2 JP6647636B2 (ja) | 2020-02-14 |
Family
ID=60325435
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2018518376A Active JP6647636B2 (ja) | 2016-05-20 | 2017-05-19 | 対話方法、対話システム、対話装置、及びプログラム |
Country Status (2)
Country | Link |
---|---|
JP (1) | JP6647636B2 (ja) |
WO (1) | WO2017200077A1 (ja) |
Families Citing this family (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2019175432A (ja) * | 2018-03-26 | 2019-10-10 | カシオ計算機株式会社 | 対話制御装置、対話システム、対話制御方法及びプログラム |
JP2020132195A (ja) * | 2019-02-18 | 2020-08-31 | ホシザキ株式会社 | 飲料供給装置 |
Citations (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPH0588691A (ja) * | 1991-09-30 | 1993-04-09 | Toshiba Corp | 音声対話装置 |
JP2003044088A (ja) * | 2001-07-27 | 2003-02-14 | Sony Corp | プログラム、記録媒体、並びに音声対話装置および方法 |
JP2003108566A (ja) * | 2001-10-02 | 2003-04-11 | Matsushita Electric Ind Co Ltd | エージェントを用いた情報検索方法および情報検索装置 |
JP2015152947A (ja) * | 2014-02-10 | 2015-08-24 | 日本電信電話株式会社 | ライフログ連携対話システム、ライフログ連携対話方法及びプログラム |
WO2015174172A1 (ja) * | 2014-05-13 | 2015-11-19 | シャープ株式会社 | 制御装置およびメッセージ出力制御システム |
JP2017079004A (ja) * | 2015-10-21 | 2017-04-27 | 国立大学法人大阪大学 | エージェント対話システム |
-
2017
- 2017-05-19 JP JP2018518376A patent/JP6647636B2/ja active Active
- 2017-05-19 WO PCT/JP2017/018792 patent/WO2017200077A1/ja active Application Filing
Patent Citations (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPH0588691A (ja) * | 1991-09-30 | 1993-04-09 | Toshiba Corp | 音声対話装置 |
JP2003044088A (ja) * | 2001-07-27 | 2003-02-14 | Sony Corp | プログラム、記録媒体、並びに音声対話装置および方法 |
JP2003108566A (ja) * | 2001-10-02 | 2003-04-11 | Matsushita Electric Ind Co Ltd | エージェントを用いた情報検索方法および情報検索装置 |
JP2015152947A (ja) * | 2014-02-10 | 2015-08-24 | 日本電信電話株式会社 | ライフログ連携対話システム、ライフログ連携対話方法及びプログラム |
WO2015174172A1 (ja) * | 2014-05-13 | 2015-11-19 | シャープ株式会社 | 制御装置およびメッセージ出力制御システム |
JP2017079004A (ja) * | 2015-10-21 | 2017-04-27 | 国立大学法人大阪大学 | エージェント対話システム |
Non-Patent Citations (1)
Title |
---|
有本 庸浩: "複数体のロボットによる音声認識なし対話の印象評価", 第33回日本ロボット学会学術講演会予稿集DVD−ROM 2015年 THE 33RD ANNUAL , JPN6019028215, 3 September 2015 (2015-09-03), JP, pages 1543 - 1546, ISSN: 0004180859 * |
Also Published As
Publication number | Publication date |
---|---|
JP6647636B2 (ja) | 2020-02-14 |
WO2017200077A1 (ja) | 2017-11-23 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
WO2017200074A1 (ja) | 対話方法、対話システム、対話装置、及びプログラム | |
US11151997B2 (en) | Dialog system, dialog method, dialog apparatus and program | |
US20200279553A1 (en) | Linguistic style matching agent | |
JP6719741B2 (ja) | 対話方法、対話装置、及びプログラム | |
JP6970413B2 (ja) | 対話方法、対話システム、対話装置、およびプログラム | |
WO2017200072A1 (ja) | 対話方法、対話システム、対話装置、およびプログラム | |
WO2018163647A1 (ja) | 対話方法、対話システム、対話装置、およびプログラム | |
Aneja et al. | Understanding conversational and expressive style in a multimodal embodied conversational agent | |
WO2017200078A1 (ja) | 対話方法、対話システム、対話装置、およびプログラム | |
US11354517B2 (en) | Dialogue method, dialogue system, dialogue apparatus and program | |
JP6682104B2 (ja) | 対話方法、対話システム、対話装置、およびプログラム | |
JP6551793B2 (ja) | 対話方法、対話システム、対話装置、およびプログラム | |
WO2017200077A1 (ja) | 対話方法、対話システム、対話装置、及びプログラム | |
JP6601625B2 (ja) | 対話方法、対話システム、対話装置、およびプログラム | |
JP6610965B2 (ja) | 対話方法、対話システム、対話装置、およびプログラム | |
WO2017200075A1 (ja) | 対話方法、対話システム、対話シナリオ生成方法、対話シナリオ生成装置、及びプログラム | |
Campbell et al. | Expressivity in interactive speech synthesis; some paralinguistic and nonlinguistic issues of speech prosody for conversational dialogue systems | |
Brodeur et al. | Integration framework for speech processing with live visualization interfaces |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20180724 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A821 Effective date: 20180724 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20190730 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20190829 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20191224 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20191226 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 6647636 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |