JP2004034273A - Robot and system for generating action program during utterance of robot - Google Patents
Robot and system for generating action program during utterance of robot Download PDFInfo
- Publication number
- JP2004034273A JP2004034273A JP2002198256A JP2002198256A JP2004034273A JP 2004034273 A JP2004034273 A JP 2004034273A JP 2002198256 A JP2002198256 A JP 2002198256A JP 2002198256 A JP2002198256 A JP 2002198256A JP 2004034273 A JP2004034273 A JP 2004034273A
- Authority
- JP
- Japan
- Prior art keywords
- utterance
- robot
- user
- data
- database
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
Images
Landscapes
- Toys (AREA)
- Manipulator (AREA)
Abstract
Description
【0001】
【発明の属する技術分野】
本発明はロボットが発話している間、ロボットを適度に動作させるとともに、ユーザに発話の開始及び終了のタイミングを伝えるための技術に関する。
【0002】
【従来の技術】
従来の技術では、ロボットの発話中は、(1) 決まった動作を再生したり、(2) 発話中の波形データ(特に、音の強弱)に応じてロボットを動作させていた。
【0003】
しかし、(1) の決まった動作の再生では、発話時間は一定でないことから、発話の開始と終了とに動作の開始と終了とが多くの場合ぴったり一致しないため、ユーザがロボットと対話するときの発言タイミングをつかみにくいという欠点がある。(2) 波形データに応じたロボット動作では、動作パターンが音声データに対して瞬間的な動作の組合せとなるため、発話の意味に合致した動作とならないという欠点がある。
【0004】
【発明が解決しようとする課題】
本発明の課題は、上述した従来の技術が持つ欠点を解消し、ロボットが発話している間、ロボットを適度に動作させるとともに、ユーザに発話の開始及び終了のタイミングを伝えることができる技術を提供することである。
【0005】
【課題を解決するための手段】
第1発明は、上記課題を解決するロボット発話中の動作プログラム生成装置であり、動作時間が互いに異なる値に決まっている複数の動作パターンのデータを有するデータベースと、ロボットが発話を開始する前に生成される音声の波形データから発話時間の長さを発話開始前に測定する発話時間測定手段と、前記発話時間測定手段で測定した発話時間に対して発話の開始と終了とに動作の開始と終了とが一致するように、前記データベースの内容から2つ以上の動作パターンの組合せ、再生順序及び再生タイミングを生成する動作パターン組合せ生成手段とを備えることを特徴とする。
【0006】
第2発明は、第1発明において、前記動作パターン組合せ生成手段は、発話開始と発話終了とに動作の開始と終了とが一致しない場合、前後に隣接する動作パターンの間に無動作時間を挿入することを特徴とするロボット発話中の動作プログラム生成装置である、
第3発明は、第1発明において、発声すべき文字データから動作種別を判断する動作種別判断手段を備えることを特徴とするロボット発話中の動作プログラム生成装置である。
【0007】
第4発明は、第1発明から第3発明いずれかのロボット発話中の動作プログラム生成装置を有することを特徴とするロボットである。
【0008】
【発明の実施の形態】
以下、本発明の実施の形態を、図面を参照しながら説明する。
【0009】
本発明の説明に先立ち、本発明を適用するロボットの一例を図3を参照して説明する。図3に示すロボット1は、ロボット本体11が頭部12と胸部13と胴部(台車部)14と左右の腕部15とを有する人間を模したものであり、頭部12と腕部15は図示しない駆動機構により回動可能であるとともに、胴部14に装備された左右の走行用車輪16は図示しない駆動機構により操舵及び走行可能であって、作業空間をバッテリ駆動により自律的に移動するように構成されている。このロボット1は、一般家庭等の屋内を作業空間として人間と共存し、例えば、一般家庭内でユーザの生活を補助・支援・介護するために用いられる。そのため、ロボット1は、内蔵のCPU(コンピュータ)及び各種のセンサにより、ユーザと会話したり、ユーザの行動を見守ったり、ユーザの行動を補助したり、ユーザと一緒に行動したりする機能を備えている。ロボット1の形状としては、愛玩用に動物を模したものなど、種々考えられる。
【0010】
詳細には、図3に示すロボット1はCPUを用いた制御部を持ち、頭部12に2つのカメラ17と2つのマイクロホン18が装着され、胸部13の中央部に音量・音源方向センサと焦電型赤外線センサからなる人検知センサ19、左右にスピーカ20aが装着されている。また、胸部13の中央部に画像ディスプレイ20bが装着され、胴部4に超音波式障害物センサ21やレーザ式障害物センサ22が装着されている。キーボード及びタッチセンサ等が装着されることもある。
【0011】
カメラ17はユーザや屋内を撮影してその画像を制御部に出力し、マイクロホン18はユーザの音声や電話のベル、呼び鈴、テレビの音などの生活音を取り込んで制御部に出力し、人検知センサ19はユーザの有無を検出して制御部に出力する。スピーカ20aはマイクロホン18とともにユーザとの会話に用いられ、画像ディスプレイ20bはユーザに対する情報提供に用いられる。キーボードやタッチセンサはユーザ用のデータ入力機器であり、ユーザの生活パターンデータを入力したり、ユーザの意思を入力するために用いられる。スピーカ20aはユーザに対する情報提供にも用いられる。制御部には、所定期間にわたるカレンダ及び現在の年月日及び時刻を計時するカレンダクロックが備えられている。
【0012】
制御部には、キーボード等のデータ入力機器と、カメラ17、マイクロホン18、人検知センサ19及び障害物センサ21、22等のユーザの生活パターンを常時モニタする外界センサと、カレンダクロックといった内界センサとにより、ロボット1の自己位置に関する情報と、ユーザの位置に関する情報と、ユーザの行動に関する情報とが入力される。
【0013】
制御部は、自己位置認識機能と、ユーザ認識機能と、データベース(データ蓄積部)と、生活パターンデータ処理機能と、駆動制御機能とを有している。
【0014】
自己位置認識機能は、カメラ17が撮影した画像情報に基づいてロボット1自身の位置及び方位(向き、姿勢)を認識する。ユーザ認識機能は、マイクロホン18で取り込んだ音声からユーザの発言内容の認識(音声認識)を行うとともに、カメラ17で撮影した画像情報とマイクロホン18で取り込んだ音声とからユーザ個人の認識を行い、また、カメラ17と人検知センサ19の検出結果からユーザの位置、向き、姿勢、活動量を認識する。
【0015】
データベースは、ユーザとの会話用やユーザへの話し掛け用の音声データ、ユーザとの会話時やユーザへの話し掛け時の身振り動作のデータ、ユーザの生活情報(ユーザの居住に関する部屋の間取りや家具の配置、ユーザ個人の日常の生活パターン、ユーザの趣味、健康状態など)を記憶している。ユーザの生活情報には、必要に応じて文字列や映像、音声などのキーワードが付される。生活パターンのデータとしては、起床、就寝、食事、薬服用、散歩、自由時間、入浴などの行動に関するイベントが上げられ、これらのイベントが時間データとともにタイムスケジュールとして記憶される。
【0016】
生活パターンデータ処理機能は、ユーザがデータ入力機器から直接入力した生活情報をキーワードを付してデータベースに蓄積したり、カメラ17やマイクロホン18、人検知センサ19で取得した音声認識結果などユーザの各種情報を処理することで一つ一つの生活情報にキーワードやその日時を付してデータベースに蓄積する。更に、生活パターンデータ処理機能は、ユーザからの指示や話し掛けに応じて、あるいは、時刻などに応じて、これに対応するデータをデータベースから選択し、選択したデータに応じた指令を動作制御部に与えて制御する。
【0017】
駆動制御機能は、生活パターンデータ処理機能からの指令に応じて、走行用車輪16を駆動してロボット1の走行及び操舵を実行するとともに、頭部12や腕部13を駆動してそれの回動を実行する。また、スピーカ20aや画像ディスプレイ20bを駆動してユーザとの会話を実行する。
【0018】
次に、図1、図2を参照して、本発明の実施例に係るロボット発話中の動作プログラム生成装置(以下、単に動作プログラム生成装置と呼ぶ)を説明する。
【0019】
上述したロボット1は、図1に例示する動作プログラム生成装置を有しており、この動作プログラム生成装置は、データベース31と、発話時間測定部32と、動作パターン組合せ生成部33とを備えたものである。
【0020】
図1中、34はロボットに備えられた音声合成装置であり、音声波形生成部35と波形再生部36からなる。音声波形生成部35は発声すべき文字データを入力して、これに対応する音声の波形データ35aを発話開始前に生成し、波形再生部36は波形データ35aを実時間の音声波形に再生する。再生された音声波形は増幅器37で増幅されてスピーカ20aに与えられ、これによりロボットが発話する。
【0021】
ここで、ロボットが突然しゃべり始めるとユーザが聞き取りにくいので、文字データの先頭に「あ−」とか「うーん」とか意味がない文字データを挿入している。これにより、ロボットが「あ−」とか「うーん」とか意味がない言葉を発してから本来の発話を行うので、ユーザの注意を引き、聞き取りやすくなる。
【0022】
データベース31には、動作時間が互いに異なる値に決まっている複数の動作パターンのデータが格納されている。動作パターンは頭部12や腕部15、胴部14のジェスチャ等の動作をパターン化したものであり、その例を上げると、ロボットがユーザに話し掛ける動きの種類として、1秒間分の動作パターン、2秒間分の動作パターン、4秒間分の動作パターン、8秒間分の動作パターンが格納されている。また、ロボットがユーザに問い掛ける動きの種類として、1秒間分の動作パターン、2秒間分の動作パターンが格納されている。更に、ロボットが確認する動きの種類として、1秒間分の動作パターン、2秒間分の動作パターンが格納されている。
【0023】
発話時間測定部32は、音声波形生成部35等によってロボットの発話開始前に生成される波形データ35aから、発話時間の長さを発話開始前に測定する。波形データ35a自体は実時間の音声波形に再生される前のデータであるから、波形データ35aのデータ長さ(バイト数)を調べることなどにより、瞬時に発話時間を測定することができる。
【0024】
動作パターン組合せ生成部33は、発話時間測定部32で測定した発話時間に対して、ロボットの発話の開始と終了とにロボットの動作の開始と終了とが一致するように、データベース31の内容から2つ以上の動作パターンの組合せを選択し、それの再生順序及び再生タイミングを生成する。
【0025】
また、動作パターン組合せ生成部33は、発話開始と発話終了とに動作の開始と終了とがぴったり一致しない場合は、前後に隣接する動作パターンの間に無動作時間を挿入するようにしている。
【0026】
動作パターン組合せ生成部33が選択する複数の動作パターンは発話内容になるべく適していることが好ましく、そのために、動作種別選択信号38aを利用している。
【0027】
本例では、動作種別判断部38にて発声すべき文字データを解析することで、質問や話し掛け、確認等の動作種別を判断し、動作種別選択信号38aを得るようにしている。
【0028】
動作制御装置39は、動作パターン組合せ生成部33が選択した複数の動作パターンを、動作パターン組合せ生成部33が指定する再生順序と再生タイミングで再生し、頭部12や腕部15、胴部14のアクチュエータ(駆動機構)40を実際に動作させる。
【0029】
図2に動作パターンの組合せ手順の例を示す。
【0030】
図2においては、波形データ35aの長さから、発話時間は14.5秒であり、動作種別はロボットからユーザに対する質問であるとしている。
【0031】
そこで、動作パターン組合せ生成部33は、まず、動作種別=質問より、最後に行う動作として2秒所要する質問用の動作パターン(2秒分の問い掛ける動き)を決定する。次に、始めに行う動作として、8秒分の話し掛ける動きの動作パターンと4秒分の話し掛ける動きの動作パターンとを組み合わせ、全体で14秒を埋める。残った0.5秒については、4秒分の話し掛ける動きの動作パターンと2秒分の問い掛ける動きの動作パターンとの間に、0.5秒の無動作時間を挿入する。
【0032】
これにより、発話の開始と終了とに動作の開始と終了とがぴったり一致し、ロボット1が発話している間、ロボット1が適度に動作するとともに、ユーザに発話の開始及び終了のタイミングを伝えることができる。
【0033】
【発明の効果】
第1発明は、動作時間が互いに異なる値に決まっている複数の動作パターンのデータを有するデータベースと、ロボットが発話を開始する前に生成される音声の波形データから発話時間の長さを発話開始前に測定する発話時間測定手段と、前記発話時間測定手段で測定した発話時間に対して発話の開始と終了とに動作の開始と終了とが一致するように、前記データベースの内容から2つ以上の動作パターンの組合せ、再生順序及び再生タイミングを生成する動作パターン組合せ生成手段とを備えるので、発話に合わせて適度にロボットを動作させるとともに、ユーザに発話の開始及び終了のタイミングを伝えることができる。
【0034】
第2発明は、発話開始と発話終了とに動作の開始と終了とが一致しない場合、動作パターン組合せ生成手段が前後に隣接する動作パターンの間に無動作時間を挿入するので、発話の開始と終了とに動作の開始と終了とがぴったり一致する。
【0035】
第3発明は、発声すべき文字データから動作種別を判断する動作種別判断手段を備えるので、発話内容に適した動作をロボットに行わせることができる。
【0036】
第4発明は、ロボットが第1発明から第3発明いずれかのロボット発話中の動作プログラム生成装置を有するので、ロボットが発話に合わせて適度に動作するとともに、ユーザに発話の開始及び終了のタイミングを伝えることができる。
【図面の簡単な説明】
【図1】本発明の実施例に係るロボット発話中の動作プログラム生成装置の構成を示す図。
【図2】動作パターンの組合せ手順の例を示す図。
【図3】ロボットの一例を示す図。
【符号の説明】
1 ロボット
12 頭部
13 胸部
14 胴部(台車部)
20a スピーカ
31 データベース
32 発話時間測定部
33 動作パターン組合せ生成部
34 音声合成装置
35 音声波形生成部
35a 音声の波形データ
36 波形再生部
37 増幅器
38 動作種別判断部
38a 動作種別選択信号
39 動作制御部
40 アクチュエータ[0001]
TECHNICAL FIELD OF THE INVENTION
The present invention relates to a technique for appropriately operating a robot while the robot is speaking, and for transmitting the start and end timings of speech to a user.
[0002]
[Prior art]
In the related art, during the utterance of the robot, (1) a predetermined motion is reproduced, and (2) the robot is operated according to waveform data (particularly, sound intensity) during the utterance.
[0003]
However, in the reproduction of the fixed motion of (1), since the utterance time is not constant, the start and end of the motion often do not exactly coincide with the start and end of the utterance. Has a disadvantage that it is difficult to grasp the remark timing. (2) In the robot operation according to the waveform data, since the operation pattern is a combination of the instantaneous operation with respect to the voice data, there is a disadvantage that the operation does not match the meaning of the utterance.
[0004]
[Problems to be solved by the invention]
An object of the present invention is to solve the above-mentioned drawbacks of the conventional technology, and to provide a technique capable of operating the robot appropriately while the robot speaks and transmitting the start and end timings of the speech to the user. To provide.
[0005]
[Means for Solving the Problems]
A first aspect of the present invention is an apparatus for generating an operation program during a robot utterance that solves the above-mentioned problem, comprising: a database having data of a plurality of operation patterns whose operation times are determined to be different from each other; Utterance time measuring means for measuring the length of utterance time before the start of utterance from waveform data of the generated speech, and starting and ending operations of utterance for the utterance time measured by the utterance time measuring means. An operation pattern combination generating means for generating a combination of two or more operation patterns, a reproduction order and a reproduction timing from the contents of the database so that the end coincides with the operation pattern.
[0006]
In a second aspect based on the first aspect, the operation pattern combination generating means inserts a non-operation time between adjacent operation patterns when the start and end of the operation do not coincide with the start and end of the utterance. An operation program generation device during robot utterance characterized by performing
According to a third invention, in the first invention, there is provided an operation program generation apparatus for uttering a robot, further comprising an operation type determination unit for determining an operation type from character data to be uttered.
[0007]
According to a fourth aspect, there is provided a robot having the motion program generation device for uttering a robot according to any one of the first to third aspects.
[0008]
BEST MODE FOR CARRYING OUT THE INVENTION
Hereinafter, embodiments of the present invention will be described with reference to the drawings.
[0009]
Prior to the description of the present invention, an example of a robot to which the present invention is applied will be described with reference to FIG. The robot 1 shown in FIG. 3 simulates a human having a robot body 11 having a
[0010]
Specifically, the robot 1 shown in FIG. 3 has a control unit using a CPU, two
[0011]
The
[0012]
The control unit includes a data input device such as a keyboard, an external sensor that constantly monitors a user's life pattern such as a
[0013]
The control unit has a self-position recognition function, a user recognition function, a database (data storage unit), a life pattern data processing function, and a drive control function.
[0014]
The self-position recognition function recognizes the position and azimuth (direction, posture) of the robot 1 itself based on image information captured by the
[0015]
The database includes voice data for conversation with the user and talking to the user, data of a gesture motion at the time of talking to the user and talking to the user, user's living information (room layout and furniture related to the user's residence, etc.). Location, personal daily life pattern of the user, user's hobby, health condition, etc.). A keyword such as a character string, video, or audio is added to the user's life information as needed. As the life pattern data, events related to activities such as getting up, going to bed, eating, taking medicine, taking a walk, free time, and taking a bath are listed, and these events are stored as time schedules together with time data.
[0016]
The life pattern data processing function stores life information directly input by a user from a data input device in a database with a keyword attached thereto, and various types of user recognition such as voice recognition results obtained by a
[0017]
The drive control function drives the running
[0018]
Next, with reference to FIG. 1 and FIG. 2, an operation program generation device during robot utterance (hereinafter, simply referred to as an operation program generation device) according to an embodiment of the present invention will be described.
[0019]
The above-described robot 1 has an operation program generation device illustrated in FIG. 1, and the operation program generation device includes a
[0020]
In FIG. 1,
[0021]
Here, if the robot suddenly starts talking, it is difficult for the user to hear. Therefore, character data such as "A-" or "Hmm" is inserted at the beginning of the character data. Thereby, the robot utters the meaningless words such as "A-" or "Well" and then utters the original utterance, thereby attracting the user's attention and making it easier to hear.
[0022]
The
[0023]
The utterance
[0024]
The motion pattern
[0025]
When the start and end of the operation do not exactly match the start and end of the utterance, the operation pattern
[0026]
It is preferable that the plurality of operation patterns selected by the operation pattern
[0027]
In this example, the action
[0028]
The
[0029]
FIG. 2 shows an example of a procedure for combining operation patterns.
[0030]
In FIG. 2, it is assumed that the utterance time is 14.5 seconds and the motion type is a question from the robot to the user based on the length of the waveform data 35a.
[0031]
Therefore, the motion pattern
[0032]
Thereby, the start and end of the operation coincide exactly with the start and end of the utterance, and while the robot 1 is uttering, the robot 1 operates appropriately and informs the user of the start and end timing of the utterance. be able to.
[0033]
【The invention's effect】
The first invention is based on a database having data of a plurality of operation patterns whose operation times are determined to be different from each other, and determines the length of the utterance time from the waveform data of the voice generated before the robot starts uttering. The utterance time measuring means to measure before and the utterance time measured by the utterance time measuring means, two or more from the contents of the database so that the start and end of the operation coincide with the start and end of the utterance. And a motion pattern combination generating means for generating the combination of the motion patterns, the reproduction order and the reproduction timing, so that the robot can be appropriately operated in accordance with the utterance and the start and end timings of the utterance can be transmitted to the user. .
[0034]
According to the second invention, when the start and end of the operation do not coincide with the start and end of the utterance, the operation pattern combination generation unit inserts a non-operation time between adjacent front and rear operation patterns. The start and end of the operation exactly match the end.
[0035]
Since the third invention includes the operation type determining means for determining the operation type from the character data to be uttered, the robot can perform an operation suitable for the content of the utterance.
[0036]
In the fourth invention, since the robot has the operation program generating device during the robot utterance according to any one of the first invention to the third invention, the robot operates appropriately in accordance with the utterance and gives the user a start and end timing of the utterance. Can be conveyed.
[Brief description of the drawings]
FIG. 1 is a diagram showing a configuration of an operation program generation device during robot utterance according to an embodiment of the present invention.
FIG. 2 is a diagram showing an example of a procedure for combining operation patterns.
FIG. 3 is a diagram illustrating an example of a robot.
[Explanation of symbols]
1
Claims (4)
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2002198256A JP3930389B2 (en) | 2002-07-08 | 2002-07-08 | Motion program generation device and robot during robot utterance |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2002198256A JP3930389B2 (en) | 2002-07-08 | 2002-07-08 | Motion program generation device and robot during robot utterance |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2004034273A true JP2004034273A (en) | 2004-02-05 |
JP3930389B2 JP3930389B2 (en) | 2007-06-13 |
Family
ID=31705760
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2002198256A Expired - Lifetime JP3930389B2 (en) | 2002-07-08 | 2002-07-08 | Motion program generation device and robot during robot utterance |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP3930389B2 (en) |
Cited By (14)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2008026485A (en) * | 2006-07-19 | 2008-02-07 | Advanced Telecommunication Research Institute International | Speech production control system of remote control android |
JP2011141305A (en) * | 2010-01-05 | 2011-07-21 | Nec Corp | Speech synthesis device, robot device, speech synthesis method, and program |
JP2011245618A (en) * | 2010-05-28 | 2011-12-08 | Compal Communications Inc | Automatic machine and method for controlling the same |
JP2013119155A (en) * | 2011-12-09 | 2013-06-17 | Advanced Telecommunication Research Institute International | Device and method for creating scenario |
JP2013237124A (en) * | 2012-05-15 | 2013-11-28 | Fujitsu Ltd | Terminal device, method for providing information, and program |
JP6067905B1 (en) * | 2016-03-18 | 2017-01-25 | M−Solutions株式会社 | Robot control program generation system |
WO2017199585A1 (en) * | 2016-05-19 | 2017-11-23 | シャープ株式会社 | Robot, robot operation method, and program |
WO2017199565A1 (en) * | 2016-05-20 | 2017-11-23 | シャープ株式会社 | Robot, robot operation method and program |
JP2017213612A (en) * | 2016-05-30 | 2017-12-07 | トヨタ自動車株式会社 | Robot and method for controlling robot |
JP2018001403A (en) * | 2016-07-07 | 2018-01-11 | 深▲せん▼狗尾草智能科技有限公司Shenzhen Gowild Robotics Co.,Ltd. | Method, system and robot body for synchronizing voice and virtual operation |
JP2018001404A (en) * | 2016-07-07 | 2018-01-11 | 深▲せん▼狗尾草智能科技有限公司Shenzhen Gowild Robotics Co.,Ltd. | Method, system and robot body for synchronizing voice and virtual operation |
JP2018144118A (en) * | 2017-03-01 | 2018-09-20 | 株式会社国際電気通信基礎技術研究所 | Guide robot |
JP2019049733A (en) * | 2018-10-15 | 2019-03-28 | 日本電信電話株式会社 | Conversation support system, conversation support device and conversation support program |
EP4331781A4 (en) * | 2021-08-25 | 2024-09-04 | Samsung Electronics Co Ltd | Robot and control method therefor |
Families Citing this family (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN105856261B (en) * | 2016-05-26 | 2018-05-18 | 弘丰塑胶制品(深圳)有限公司 | The voice control moving system of robot |
-
2002
- 2002-07-08 JP JP2002198256A patent/JP3930389B2/en not_active Expired - Lifetime
Cited By (17)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2008026485A (en) * | 2006-07-19 | 2008-02-07 | Advanced Telecommunication Research Institute International | Speech production control system of remote control android |
JP2011141305A (en) * | 2010-01-05 | 2011-07-21 | Nec Corp | Speech synthesis device, robot device, speech synthesis method, and program |
JP2011245618A (en) * | 2010-05-28 | 2011-12-08 | Compal Communications Inc | Automatic machine and method for controlling the same |
TWI416289B (en) * | 2010-05-28 | 2013-11-21 | Compal Communications Inc | Automatic machine and method for controlling the same |
US8666549B2 (en) | 2010-05-28 | 2014-03-04 | Compal Communications, Inc. | Automatic machine and method for controlling the same |
JP2013119155A (en) * | 2011-12-09 | 2013-06-17 | Advanced Telecommunication Research Institute International | Device and method for creating scenario |
JP2013237124A (en) * | 2012-05-15 | 2013-11-28 | Fujitsu Ltd | Terminal device, method for providing information, and program |
JP6067905B1 (en) * | 2016-03-18 | 2017-01-25 | M−Solutions株式会社 | Robot control program generation system |
WO2017199585A1 (en) * | 2016-05-19 | 2017-11-23 | シャープ株式会社 | Robot, robot operation method, and program |
WO2017199565A1 (en) * | 2016-05-20 | 2017-11-23 | シャープ株式会社 | Robot, robot operation method and program |
JPWO2017199565A1 (en) * | 2016-05-20 | 2019-01-10 | シャープ株式会社 | Robot, robot operation method, and program |
JP2017213612A (en) * | 2016-05-30 | 2017-12-07 | トヨタ自動車株式会社 | Robot and method for controlling robot |
JP2018001403A (en) * | 2016-07-07 | 2018-01-11 | 深▲せん▼狗尾草智能科技有限公司Shenzhen Gowild Robotics Co.,Ltd. | Method, system and robot body for synchronizing voice and virtual operation |
JP2018001404A (en) * | 2016-07-07 | 2018-01-11 | 深▲せん▼狗尾草智能科技有限公司Shenzhen Gowild Robotics Co.,Ltd. | Method, system and robot body for synchronizing voice and virtual operation |
JP2018144118A (en) * | 2017-03-01 | 2018-09-20 | 株式会社国際電気通信基礎技術研究所 | Guide robot |
JP2019049733A (en) * | 2018-10-15 | 2019-03-28 | 日本電信電話株式会社 | Conversation support system, conversation support device and conversation support program |
EP4331781A4 (en) * | 2021-08-25 | 2024-09-04 | Samsung Electronics Co Ltd | Robot and control method therefor |
Also Published As
Publication number | Publication date |
---|---|
JP3930389B2 (en) | 2007-06-13 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP3930389B2 (en) | Motion program generation device and robot during robot utterance | |
JP7400923B2 (en) | Information processing device and information processing method | |
KR100906136B1 (en) | Information processing robot | |
JP6751536B2 (en) | Equipment, robots, methods, and programs | |
US7750223B2 (en) | Musical interaction assisting apparatus | |
EP1256931A1 (en) | Method and apparatus for voice synthesis and robot apparatus | |
WO2002045916A1 (en) | Robot device, method for controlling motion of robot device, and system for controlling motion of robot device | |
JP4622384B2 (en) | ROBOT, ROBOT CONTROL DEVICE, ROBOT CONTROL METHOD, AND ROBOT CONTROL PROGRAM | |
JP7350356B2 (en) | personal assistant control system | |
WO2019087478A1 (en) | Information processing device, information processing method, and program | |
WO2000053281A1 (en) | Virtual pet device and medium on which its control program is recorded | |
JP2024530886A (en) | Silent Speech Detection | |
JP2004034274A (en) | Conversation robot and its operation method | |
Yonezawa et al. | Context-aware sensor-doll as a music expression device | |
JP2007155986A (en) | Voice recognition device and robot equipped with the same | |
JP6267634B2 (en) | Speech therapy robot | |
JP6360435B2 (en) | Speech therapy robot | |
JP7156300B2 (en) | Information processing device, information processing method, and program | |
JP2013235134A (en) | Language therapy robot and language therapy system | |
JP2003340760A (en) | Robot device and robot control method, recording medium and program | |
JP2004283927A (en) | Robot control device, and method, recording medium and program | |
JP2004046400A (en) | Speaking method of robot | |
JP2004017185A (en) | Robot control device | |
JP2004045591A (en) | Method for recognizing voice and method for providing specific speaker's voice dictionary | |
JP2018007723A (en) | Swallowing information presentation device |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20050419 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20061010 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20070220 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20070308 |
|
R151 | Written notification of patent or utility model registration |
Ref document number: 3930389 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R151 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20110316 Year of fee payment: 4 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20110316 Year of fee payment: 4 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20120316 Year of fee payment: 5 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20130316 Year of fee payment: 6 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20140316 Year of fee payment: 7 |
|
EXPY | Cancellation because of completion of term |