JP2002113680A - Robot device and teaching method for its operation - Google Patents
Robot device and teaching method for its operationInfo
- Publication number
- JP2002113680A JP2002113680A JP2000308297A JP2000308297A JP2002113680A JP 2002113680 A JP2002113680 A JP 2002113680A JP 2000308297 A JP2000308297 A JP 2000308297A JP 2000308297 A JP2000308297 A JP 2000308297A JP 2002113680 A JP2002113680 A JP 2002113680A
- Authority
- JP
- Japan
- Prior art keywords
- teaching
- data
- robot
- motion
- robot apparatus
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
Landscapes
- Manipulator (AREA)
Abstract
Description
【0001】[0001]
【発明の属する技術分野】本発明は、種々の動作を表出
するロボット装置及びそのようなロボット装置の動作教
示方法に関する。BACKGROUND OF THE INVENTION 1. Field of the Invention The present invention relates to a robot device that displays various operations and a method of teaching the operation of such a robot device.
【0002】[0002]
【従来の技術】近年、外観形状が犬等の動物に模して形
成されたロボット装置が提供されている。ロボット装置
は、動き、音響や目の表情等を表出する表出手段を備え
ており、そのような表出手段を外部からの情報や内部の
状態(例えば、感情状態)等に応じて動作させること
で、動物のような仕草を表出させている。2. Description of the Related Art In recent years, there has been provided a robot device whose external shape is formed by imitating an animal such as a dog. The robot apparatus includes an expression unit that expresses a movement, a sound, a facial expression, and the like, and operates such an expression unit in accordance with external information, an internal state (e.g., an emotional state), and the like. By doing so, the gestures like animals are exposed.
【0003】ここで、動きの表出手段として脚部が挙げ
られ、また、音声の表出手段としてマイクが挙げられ、
そして、目の表情の表出手段としてLED(Light Emit
tingDiode)が挙げられる。このような表出手段は、再
生データ(制御データ)に基づいて動作するようになさ
れている。[0003] Here, a leg is cited as a means for expressing motion, and a microphone is cited as a means for expressing voice.
As a means for expressing the facial expression of the eyes, an LED (Light Emit
tingDiode). Such an expression means operates based on reproduction data (control data).
【0004】[0004]
【発明が解決しようとする課題】ところで、従来のロボ
ット装置において、動き、音響、発光等の表現手段(脚
部、マイク、LED等)に用いられる再生データ(例え
ば、動きデータ、音響データ、発光データ等)は、ロボ
ット装置の設計者が予め用意したものである。例えば、
ロボット装置は、制御式等で計算された目標値、若しく
は作り込まれた再生データが予め用意されており、ロボ
ット装置の内部の記憶領域に設計時において予め格納さ
れたそのような再生データに基づいて、動作を表出して
いた。このような一定の再生データに基づいて動作した
のでは、ロボット装置は、決められた一定のパターンの
動作を繰り返すことしかできなく、エンタテインメント
性に欠けてしまう。By the way, in the conventional robot apparatus, reproduction data (eg, motion data, acoustic data, light emission) used for expressing means (legs, microphones, LEDs, etc.) of motion, sound, light emission, etc. Are prepared in advance by the designer of the robot apparatus. For example,
The robot device is provided with a target value calculated by a control formula or the like, or created reproduction data in advance, and based on such reproduction data stored in advance in a storage area inside the robot device at the time of design. Was expressing the action. If the robot device operates on the basis of such constant reproduction data, the robot device can only repeat the operation of a predetermined constant pattern, and lacks entertainment.
【0005】この手法とは別に、例えばパソコン等の編
集器機を用いてエディタ上で編集した動きデータ、音響
データ或いは発光データを通信手段、記憶媒体手段等を
利用してロボット装置に転送することで再生パターン
(或いは動作パターン)をカスタマイズできる手法も提
案されている。しかし、この手法ではロボット装置以外
にデータを編集する機器(例えば、パーソナルコンピュ
ータ等)が必要であるため、金額的コストがかかり、さ
らに、ユーザーにとってはデータ編集技術を習得する手
間等がかかる。さらに、ユーザーとロボット装置との間
に編集器機という媒体が介在することは、ユーザーとロ
ボット装置との間の親近感を失わせるという短所にな
る。[0005] Apart from this method, for example, motion data, sound data or light emission data edited on an editor using an editing device such as a personal computer is transferred to a robot device using communication means, storage medium means and the like. A technique that can customize a reproduction pattern (or operation pattern) has also been proposed. However, this method requires a device for editing data (for example, a personal computer) in addition to the robot device, so that it costs money and furthermore, it takes time and effort for the user to learn the data editing technology. Further, the presence of a medium called an editing device between the user and the robot device has a disadvantage that the affinity between the user and the robot device is lost.
【0006】そこで、本発明は、上述の実情に鑑みてな
されたものであり、編集器機等を使用せずに、任意の動
作が教示されることが可能なロボット装置及びロボット
装置の動作教示方法の提供を目的としている。Accordingly, the present invention has been made in view of the above-mentioned circumstances, and a robot apparatus and an operation teaching method of a robot apparatus capable of teaching an arbitrary operation without using an editing device or the like. The purpose is to provide.
【0007】[0007]
【課題を解決するための手段】本発明に係るロボット装
置は、上述の課題を解決するために、表出手段を備え、
外部情報及び/又は内部状態に基づいて表出手段の駆動
状態を変化させるロボット装置である。このロボット装
置は、教示タイミングにて外部から入力された教示デー
タを計測する計測手段と、計測手段にて取得した教示デ
ータが記憶される記憶手段と、表出手段の駆動を制御す
る制御手段とを備えている。そして、制御手段は、記憶
手段に記憶された教示データに基づいて、表出手段の駆
動を制御する。According to the present invention, there is provided a robot apparatus provided with an expression unit for solving the above-mentioned problems.
This is a robot device that changes the driving state of the expression unit based on external information and / or the internal state. The robot device includes a measuring unit that measures teaching data input from outside at a teaching timing, a storage unit that stores the teaching data acquired by the measuring unit, and a control unit that controls driving of the expression unit. It has. Then, the control means controls the driving of the expression means based on the teaching data stored in the storage means.
【0008】このような構成を備えたロボット装置は、
外部入力された教示データに基づいて制御手段が表出手
段の駆動を制御する。[0008] The robot device having such a configuration is as follows.
The control means controls the drive of the expression means based on the teaching data input externally.
【0009】また、本発明に係るロボット装置の動作教
示方法は、上述の課題を解決するために、表出手段を備
え、外部情報及び/又は内部状態に基づいて表出手段の
駆動状態を変化させるロボット装置に対する表出手段の
駆動を教示するロボット装置の動作教示方法である。こ
のロボット装置の動作教示方法は、教示タイミングにて
外部から入力された教示データをロボット装置が計測
し、計測して教示データを記憶手段に記憶し、記憶手段
に記憶された教示データに基づいて、ロボット装置が表
出手段の駆動を制御する。According to another aspect of the present invention, there is provided a method for teaching operation of a robot apparatus, comprising: a display unit for changing a driving state of the display unit based on external information and / or an internal state. This is an operation teaching method of the robot apparatus for teaching the driving of the expression means to the robot apparatus to be operated. In the method of teaching operation of the robot device, the robot device measures teaching data input from the outside at the teaching timing, measures and stores the teaching data in the storage unit, and based on the teaching data stored in the storage unit. The robot device controls the driving of the expression means.
【0010】このようなロボット装置の動作教示方法に
より、ロボット装置は、外部入力された教示データに基
づいて表出手段の駆動を制御する。[0010] According to the operation teaching method of the robot device, the robot device controls the driving of the expression means based on the teaching data input from the outside.
【0011】[0011]
【発明の実施の形態】以下、本発明の実施の形態につい
て図面を用いて詳細に説明する。この実施の形態は、周
囲の環境(外的要因)や内部の状態(内的要因)に応じ
て自律的に行動をする自律型のロボット装置である。Embodiments of the present invention will be described below in detail with reference to the drawings. This embodiment is an autonomous robot apparatus that autonomously acts according to a surrounding environment (external factors) and an internal state (internal factors).
【0012】実施の形態では、先ず、ロボット装置の構
成について説明して、その後、ロボット装置における本
発明の適用部分について詳細に説明する。In the embodiment, first, the configuration of the robot apparatus will be described, and thereafter, a portion to which the present invention is applied in the robot apparatus will be described in detail.
【0013】(1)本実施の形態によるロボット装置の
構成 図1に示すように、「犬」を模した形状のいわゆるペッ
トロボットとされ、胴体部ユニット2の前後左右にそれ
ぞれ脚部ユニット3A,3B,3C,3Dが連結される
と共に、胴体部ユニット2の前端部及び後端部にそれぞ
れ頭部ユニット4及び尻尾部ユニット5が連結されて構
成されている。(1) Configuration of Robot Apparatus According to the Present Embodiment As shown in FIG. 1, a so-called pet robot having a shape imitating a "dog" is provided, and leg units 3A, 3A, 3B, 3C, and 3D are connected, and a head unit 4 and a tail unit 5 are connected to the front end and the rear end of the body unit 2, respectively.
【0014】胴体部ユニット2には、図2に示すよう
に、CPU(Central Processing Unit)10、DRA
M(Dynamic Random Access Memory)11、フラッシュ
ROM(Read 0nly Memory)12、PC(Personal Co
mputer)カードインターフェース回路13及び信号処理
回路14が内部バス15を介して相互に接続されること
により形成されたコントロール部16と、このロボット
装置1の動力源としてのバッテリ17とが収納されてい
る。また、胴体部ユニット2には、ロボット装置1の向
きや動きの加速度を検出するための角速度センサ18及
び加速度センサ19なども収納されている。As shown in FIG. 2, a CPU (Central Processing Unit) 10 and a DRA
M (Dynamic Random Access Memory) 11, Flash ROM (Read 0nly Memory) 12, PC (Personal Co.)
A controller 16 formed by interconnecting a card interface circuit 13 and a signal processing circuit 14 via an internal bus 15 and a battery 17 as a power source of the robot apparatus 1 are housed therein. . The body unit 2 also houses an angular velocity sensor 18 and an acceleration sensor 19 for detecting the acceleration of the direction and movement of the robot device 1.
【0015】また、頭部ユニット4には、外部の状況を
撮像するためのCCD(Charge Coupled Device)カメ
ラ20と、使用者からの「撫でる」や「叩く」といった
物理的な働きかけにより受けた圧力を検出するためのタ
ッチセンサ21と、前方に位置する物体までの距離を測
定するための距離センサ22と、外部音を集音するため
のマイク23と、鳴き声等の音声を出力するためのスピ
ーカ24と、ロボット装置1の「目」に相当するLED
(Light Emitting Diode)(図示せず)となどがそれぞ
れ所定位置に配置されている。The head unit 4 includes a CCD (Charge Coupled Device) camera 20 for capturing an image of an external situation, and a pressure applied by a physical action such as “stroke” or “hit” from the user. , A distance sensor 22 for measuring a distance to an object located ahead, a microphone 23 for collecting external sounds, and a speaker for outputting a sound such as a cry 24 and an LED corresponding to the “eye” of the robot device 1
(Light Emitting Diode) (not shown) are arranged at predetermined positions.
【0016】さらに、各脚部ユニット3A〜3Dの関節
部分や各脚部ユニット3A〜3D及び胴体部ユニット2
の各連結部分、頭部ユニット4及び胴体部ユニット2の
連結部分、並びに尻尾部ユニット5の尻尾5Aの連結部
分などにはそれぞれ自由度数分のアクチュエータ251
〜25n及びポテンショメータ261〜26nが配設され
ている。例えば、アクチュエータ251〜25nはサーボ
モータを構成として有している。サーボモータの駆動に
より、脚部ユニット3A〜3Dが制御されて、目標の姿
勢或いは動作に遷移する。Further, the joints of the leg units 3A to 3D, the leg units 3A to 3D, and the trunk unit 2
Each coupling portion of the head unit 4 and body unit connecting portion 2, and the tail unit actuator 25 1, respectively, etc. The consolidated portion of the tail 5A of freedom minutes 5
To 25 n and potentiometers 26 1 to 26 n are provided. For example, each of the actuators 25 1 to 25 n has a servomotor. By driving the servo motor, the leg units 3A to 3D are controlled, and transition to a target posture or operation is made.
【0017】そして、これら角速度センサ18、加速度
センサ19、タッチセンサ21、距離センサ22、マイ
ク23、スピーカ24及び各ポテンショメータ261〜
26nなどの各種センサ並びにLED及び各アクチュエ
ータ251 〜25nは、それぞれ対応するハブ271〜2
7nを介してコントロール部16の信号処理回路14と
接続され、CCDカメラ20及びバッテリ17は、それ
ぞれ信号処理回路14と直接接続されている。The angular velocity sensor 18, the acceleration sensor 19, the touch sensor 21, the distance sensor 22, the microphone 23, the speaker 24, and each of the potentiometers 26 1 to 26 1 .
Various sensors such as 26 n and the LEDs and the actuators 25 1 to 25 n are respectively connected to the corresponding hubs 27 1 to 27 2.
The CCD camera 20 and the battery 17 are directly connected to the signal processing circuit 14 via the signal processing circuit 14 of the control unit 16 via 7 n .
【0018】信号処理回路l4は、上述の各センサから
供給されるセンサデータや画像データ及び音声データを
順次取り込み、これらをそれぞれ内部バス15を介して
DRAM11内の所定位置に順次格納する。また信号処
理回路14は、これと共にバッテリ17から供給される
バッテリ残量を表すバッテリ残量データを順次取り込
み、これをDRAM11内の所定位置に格納する。The signal processing circuit 14 sequentially takes in the sensor data, image data, and audio data supplied from each of the above-mentioned sensors, and sequentially stores them at predetermined positions in the DRAM 11 via the internal bus 15. In addition, the signal processing circuit 14 sequentially takes in remaining battery power data indicating the remaining battery power supplied from the battery 17 and stores the data at a predetermined position in the DRAM 11.
【0019】このようにしてDRAM11に格納された
各センサデータ、画像データ、音声データ及びバッテリ
残量データは、この後CPU10がこのロボット装置1
の動作制御を行う際に利用される。The sensor data, image data, voice data, and remaining battery data stored in the DRAM 11 in this manner are thereafter transmitted to the robot apparatus 1 by the CPU 10.
It is used when controlling the operation of.
【0020】実際上CPU10は、ロボット装置1の電
源が投入された初期時、胴体部ユニット2の図示しない
PCカードスロットに装填されたメモリカード28又は
フラッシュROM12に格納された制御プログラムをP
Cカードインターフェース回路13を介して又は直接読
み出し、これをDRAM11に格納する。In practice, when the power of the robot apparatus 1 is turned on, the CPU 10 executes the control program stored in the memory card 28 or the flash ROM 12 inserted in the PC card slot (not shown) of the body unit 2 into a P program.
The data is read out via the C card interface circuit 13 or directly and stored in the DRAM 11.
【0021】また、CPU10は、この後上述のように
信号処理回路14よりDRAM11に順次格納される各
センサデータ、画像データ、音声データ及びバッテリ残
量データに基づいて自己の状況(内部状態)及び周囲の
状況(外部情報)や、使用者からの指示及び働きかけ
(外部情報)の有無などを判断する。The CPU 10 then determines its own status (internal status) based on the sensor data, image data, audio data and remaining battery data sequentially stored in the DRAM 11 from the signal processing circuit 14 as described above. It determines the surrounding situation (external information) and the presence / absence of instructions and actions from the user (external information).
【0022】さらに、CPU10は、この判断結果及び
DRAM11に格納しだ制御プログラムに基づいて続く
行動を決定すると共に、当該決定結果に基づいて必要な
アクチュエータ251〜25nを駆動させることにより、
頭部ユニット4を上下左右に振らせたり、尻尾部ユニッ
ト5の尻尾5Aを動かせたり、各脚部ユニット3A〜3
Dを駆動させて歩行させるなどの行動を行わせる。Further, the CPU 10 determines a subsequent action based on the determination result and the control program stored in the DRAM 11, and drives the necessary actuators 25 1 to 25 n based on the determination result.
The head unit 4 can be swung up and down, left and right, the tail 5A of the tail unit 5 can be moved, and each of the leg units 3A to 3A.
D is driven to perform an action such as walking.
【0023】また、この際CPU10は、必要に応じて
音声データを生成し、これを信号処理回路14を介して
音声信号としてスピーカ24に与えることにより当該音
声信号に基づく音声を外部に出力させたり、上述のLE
Dを点灯、消灯又は点滅させる。At this time, the CPU 10 generates audio data as necessary, and supplies the generated audio data to the speaker 24 as an audio signal via the signal processing circuit 14, thereby outputting an audio based on the audio signal to the outside. LE above
D is turned on, off or blinked.
【0024】このようにしてこのロボット装置1におい
ては、自己及び周囲の状況や、使用者からの指示及び働
きかけに応じて自律的に行動し得るようになされてい
る。In this way, the robot device 1 can autonomously behave in accordance with the situation of itself and the surroundings, and instructions and actions from the user.
【0025】(2)制御プログラムのソフトウェア構成 ここで、ロボット装置1における上述の制御プログラム
のソフトウェア構成は、図3に示すようになる。この図
3において、デバイス・ドライバ・レイヤ30は、この
制御プログラムの最下位層に位置し、複数のデバイス・
ドライバからなるデバイス・ドライバ・セット31から
構成されている。この場合、各デバイス・ドライバは、
CCDカメラ20(図2)やタイマ等の通常のコンピュ
ータで用いられるハードウェアに直接アクセスするごと
を許されたオブジェクトであり、対応するハードウェア
からの割り込みを受けて処理を行う。(2) Software Configuration of Control Program Here, the software configuration of the above-described control program in the robot apparatus 1 is as shown in FIG. In FIG. 3, a device driver layer 30 is located at the lowest layer of the control program, and includes a plurality of device drivers.
It comprises a device driver set 31 composed of drivers. In this case, each device driver
An object that is permitted to directly access hardware used in a normal computer, such as a CCD camera 20 (FIG. 2) and a timer, and performs processing in response to an interrupt from the corresponding hardware.
【0026】また、ロボティック・サーバ・オブジェク
ト32は、デバイス・ドライバ・レイヤ30の最下位層
に位置し、例えば上述の各種センサやアクチュエータ2
51〜25n等のハードウェアにアクセスするためのイン
ターフェースを提供するソフトウェア群でなるバーチャ
ル・ロボット33と、電源の切換えなどを管理するソフ
トウェア群でなるバワーマネージャ34と、他の種々の
デバイス・ドライバを管理するソフトウェア群でなるデ
バイス・ドライバ・マネージャ35と、ロボット装置1
の機構を管理するソフトウェア群でなるデザインド・ロ
ボット36とから構成されている。The robotic server object 32 is located at the lowermost layer of the device driver layer 30 and includes, for example, the various sensors and actuators 2 described above.
A virtual robot 33 comprising a software group that provides a 5 to 253 interface for accessing hardware such as n, a bus word manager 34 made of a software suite for managing the power supply switching, the other various device A device driver manager 35, which is a software group for managing drivers, and a robot device 1
And a designed robot 36 which is a software group for managing the mechanism.
【0027】マネージャ・オブジェクト37は、オブジ
ェクト・マネージャ38及びサービス・マネージャ39
から構成されている。オブジェクト・マネージャ38
は、ロボティック・サーバ・オブジェクト32、ミドル
・ウェア・レイヤ40、及びアプリケーション・レイヤ
41に含まれる各ソフトウェア群の起動や終了を管理す
るソフトウェア群であり、サービス・マネージャ39
は、メモリカード28(図2)に格納されたコネクショ
ンファイルに記述されている各オブジェクト間の接続情
報に基づいて各オブジェクトの接続を管理するソフトウ
ェア群である。The manager object 37 includes an object manager 38 and a service manager 39.
It is composed of Object Manager 38
Is a software group that manages activation and termination of each software group included in the robotic server object 32, the middleware layer 40, and the application layer 41, and includes a service manager 39.
Are a group of software for managing the connection of each object based on the connection information between the objects described in the connection file stored in the memory card 28 (FIG. 2).
【0028】ミドル・ウェア・レイヤ40は、ロボティ
ック・サーバ・オブジェクト32の上位層に位置し、画
像処理や音声処理などのこのロボット装置1の基本的な
機能を提供するソフトウェア群から構成されている。ま
た、アプリケーション・レイヤ41は、ミドル・ウェア
・レイヤ40の上位層に位置し、当該ミドル・ウェア・
レイヤ40を構成する各ソフトウェア群によって処理さ
れた処理結果に基づいてロボット装置1の行動を決定す
るためのソフトウェア群から構成されている。The middleware layer 40 is located on the upper layer of the robotic server object 32, and is composed of a group of software for providing basic functions of the robot apparatus 1 such as image processing and sound processing. I have. Further, the application layer 41 is located above the middleware layer 40, and
It is composed of a software group for determining an action of the robot apparatus 1 based on a processing result processed by each software group constituting the layer 40.
【0029】なお、ミドル・ウェア・レイヤ40及びア
プリケーション・レイヤ41の具体なソフトウェア構成
をそれぞれ図4に示す。FIG. 4 shows a specific software configuration of the middleware layer 40 and the application layer 41, respectively.
【0030】ミドル・ウェア・レイヤ40は、図4に示
すように、騒音検出用、温度検出用、明るさ検出用、音
階認識用、距離検出用、姿勢検出用、タッチセンサ用、
動き検出用及び色認識用の各信号処理モジュール50〜
58並びに入力セマンティクスコンバータモジュール5
9などを有する認識系60と、出力セマンティクスコン
バータモジュール68並びに姿勢管理用、トラッキング
用、モーション再生用、歩行用、転倒復帰用、LED点
灯用及び音再生用の各信号処理モジュール61〜67な
どを有する認識系69とから構成されている。As shown in FIG. 4, the middle wear layer 40 includes noise detection, temperature detection, brightness detection, scale recognition, distance detection, attitude detection, touch sensor,
Each signal processing module 50 for motion detection and color recognition
58 and input semantics converter module 5
9 and an output semantics converter module 68 and signal processing modules 61 to 67 for attitude management, tracking, motion reproduction, walking, fallback recovery, LED lighting and sound reproduction. And a recognition system 69.
【0031】認識系60の各信号処理モジュール50〜
58は、ロボティック・サーバ・オブジェクト32のバ
ーチャル・ロボット33によりDRAM11(図2)か
ら読み出される各センサデータや画像データ及び音声デ
ータのうちの対応するデータを取り込み、当該データに
基づいて所定の処理を施して、処理結果を入力セマンテ
ィクスコンバータモジュール59に与える。ここで、例
えば、バーチャル・ロボット33は、所定の通信規約に
よって、信号の授受或いは変換をする部分として構成さ
れている。Each of the signal processing modules 50 to 50 of the recognition system 60
Numeral 58 fetches corresponding data among the sensor data, image data, and audio data read from the DRAM 11 (FIG. 2) by the virtual robot 33 of the robotic server object 32, and performs predetermined processing based on the data. Is given to the input semantics converter module 59. Here, for example, the virtual robot 33 is configured as a part that exchanges or converts signals according to a predetermined communication protocol.
【0032】入力セマンティクスコンバータモジュール
59は、これら各信号処理モジュール50〜58から与
えられる処理結果に基づいて、「うるさい」、「暑
い」、「明るい」、「ボールを検出した」、「転倒を検
出した」、「撫でられた」、「叩かれた」、「ドミソの
音階が聞こえた」、「動く物体を検出した」又は「障害
物を検出した」などの自己及び周囲の状況や、使用者か
らの指令及び働きかけを認識し、認識結果をアプリケー
ション・レイヤ41(図2)に出力する。The input semantics converter module 59 detects "noisy", "hot", "bright", "ball detected", and "fallover" based on the processing results given from each of the signal processing modules 50 to 58. Self and surrounding conditions such as `` has been stroked '', `` stroked '', `` hitted '', `` he heard the domes '', `` detected a moving object '' or `` detected an obstacle '', and the user , And outputs the recognition result to the application layer 41 (FIG. 2).
【0033】アプリケーション・レイヤ4lは、図5に
示すように、行動モデルライブラリ70、行動切換えモ
ジュール71、学習モジュール72、感情モデル73及
び本能モデル74の5つのモジュールから構成されてい
る。As shown in FIG. 5, the application layer 41 includes five modules: a behavior model library 70, a behavior switching module 71, a learning module 72, an emotion model 73, and an instinct model 74.
【0034】行動モデルライブラリ70には、図6に示
すように、「バッテリ残量が少なくなった場合」、「転
倒復帰する」、「障害物を回避する場合」、「感情を表
現する場合」、「ボールを検出した場合」などの予め選
択されたいくつかの条件項目にそれぞれ対応させて、そ
れぞれ独立した行動モデル701〜70nが設けられてい
る。As shown in FIG. 6, the behavior model library 70 includes "when the remaining battery power is low", "returns from the fall", "when avoiding obstacles", and "when expressing emotions". , And independent action models 70 1 to 70 n are respectively provided corresponding to several preselected condition items such as “when a ball is detected”.
【0035】そして、これら行動モデル701〜70
nは、それぞれ入力セマンティクスコンバータモジュー
ル59から認識結果が与えられたときや、最後の認識結
果が与えられてから一定時間が経過したときなどに、必
要に応じて後述のように感情モデル73に保持されてい
る対応する情動のバラメータ値や、本能モデル74に保
持されている対応する欲求のパラメータ値を参照しなが
ら続く行動をそれぞれ決定し、決定結果を行動切換えモ
ジュール71に出力する。The behavior models 70 1 to 70 1
n is stored in the emotion model 73 as described later as necessary when the recognition result is given from the input semantics converter module 59 or when a certain time has elapsed since the last recognition result was given. The subsequent actions are determined with reference to the parameter values of the corresponding emotions and the corresponding parameter values of the desire held in the instinct model 74, and the determination result is output to the action switching module 71.
【0036】なお、この実施の形態の場合、各行動モデ
ル701〜70nは、次の行動を決定する手法として、図
7に示すような1つのノード(状態)NODE0〜NO
DEnから他のどのノードNODE0〜NODEnに遷移
するかを各ノードNODE0〜NODEnに間を接続する
アークARC1〜ARCn1に対してそれぞれ設定された
遷移確率P1〜Pnに基づいて確率的に決定する有限確率
オートマトンと呼ばれるアルゴリズムを用いる。In this embodiment, each of the behavior models 70 1 to 70 n uses one node (state) NODE 0 to NO as shown in FIG. 7 as a method for determining the next behavior.
Or transitions from DE n to any other node NODE 0 ~NODE n the transition probability P 1 to P n which is set respectively arc ARC 1 ~ARC n1 that connects to each node NODE 0 ~NODE n An algorithm called a finite stochastic automaton that determines stochastically on the basis is used.
【0037】具体的に、各行動モデル701〜70nは、
それぞれ自己の行動モデル701〜70nを形成するノー
ドNODE0〜NODEnにそれぞれ対応させて、これら
ノードNODE0〜NODEnごとに図8に示すような状
態遷移表80を有している。More specifically, each of the behavior models 70 1 to 70 n is
Each respectively in correspondence to the node NODE 0 ~NODE n to form a self-behavior model 70 1 to 70 n, and a state transition table 80 as shown in FIG. 8 for each of these nodes NODE 0 ~NODE n.
【0038】この状態遷移表80では、そのノードNO
DE0〜NODEnにおいて遷移条件とする入力イベント
(認識結果)が「入力イベント名」の行に優先順に列記
され、その遷移条件についてのさらなる条件が「データ
名」及び「データ範囲」の行における対応する列に記述
されている。In the state transition table 80, the node NO
Input events (recognition results) as transition conditions in DE 0 to NODE n are listed in order of priority in the row of “input event name”, and further conditions for the transition conditions are described in the rows of “data name” and “data range”. It is described in the corresponding column.
【0039】したがって、図8の状態遷移表80で表さ
れるノードNODE100では、「ボールを検出(BAL
L)」という認識結果が与えられた場合に、当該認識結
果と共に与えられるそのボールの「大きさ(SIZ
E)」が「0から1000」の範囲であることや、「障害物
を検出(OBSTACLE)」という認識結果が与えら
れた場合に、当該認識結果と共に与えられるその障害物
までの「距離(DISTANCE)」が「0から100」の
範囲であることが他のノードに遷移するための条件とな
っている。Therefore, in the node NODE 100 represented by the state transition table 80 in FIG.
L) "is given, the" size (SIZ) "of the ball given together with the recognition result is given.
E) is in the range of “0 to 1000”, or when a recognition result of “obstacle detected (OBSTACLE)” is given, the “distance (DISTANCE)” to the obstacle given together with the recognition result is given. )) Is in the range of “0 to 100”, which is a condition for transitioning to another node.
【0040】また、このノードNODE100では、認識
結果の入力がない場合においても、行動モデル701〜
70nが周期的に参照する感情モデル73及び本能モデ
ル74にそれぞれ保持された各情動及び各欲求のパラメ
ータ値のうち、感情モデル73に保持された「喜び(J
OY)」、「驚き(SURPRISE)」若しくは「悲
しみ(SUDNESS)」のいずれかのパラメータ値が
「50から100」の範囲であるときには他のノードに遷移
することができるようになっている。In the node NODE 100 , even when no recognition result is input, the behavior models 70 1 to 70 1
70 n of the parameter values of each emotion and each desire held in the emotion model 73 and the instinct model 74 that are periodically referred to, respectively.
If any of the parameter values of “OY”, “SURPRISE”, or “Sadness” is in the range of “50 to 100”, it is possible to transition to another node.
【0041】また、状態遷移表80では、「他のノード
ヘの遷移確率」の欄における「遷移先ノード」の列にそ
のノードNODE0〜 NODEnから遷移できるノード
名が列記されていると共に、「入力イベント名」、「デ
ータ値」及び「データの範囲」の行に記述された全ての
条件が揃ったときに遷移できる他の各ノードNODE 0
〜NODEnへの遷移確率が「他のノードヘの遷移確
率」の欄内の対応する箇所にそれぞれ記述され、そのノ
ードNODE0〜NODEnに遷移する際に出力すべき行
動が「他のノードヘの遷移確率」の欄における「出力行
動」の行に記述されている。なお、「他のノードヘの遷
移確率」の欄における各行の確率の和は100[%]と
なっている。In the state transition table 80, "other nodes"
In the column of "Transition destination node" in the column of
Node NODE of0~ NODEnNode that can transition from
Names are listed, as well as the “input event name”,
Data value and data range.
Other nodes NODE that can transition when the conditions are met 0
~ NODEnThe transition probability to
Rate is described in the corresponding section of the column,
NODE0~ NODEnLine to be output when transitioning to
Movement is "output line" in the column of "transition probability to other nodes".
Line ". In addition, "Transition to other nodes
The sum of the probabilities of each row in the “Transfer probability” column is 100 [%].
Has become.
【0042】したがって、図8の状態遷移表80で表さ
れるノードNODE100では、例えば「ボールを検出
(BALL)」し、そのボールの「SIZE(大き
さ)」が「0から1000」の範囲であるという認識結果が
与えられた場合には、「30[%]」の確率で「ノードN
ODE120(node 120)」に遷移でき、そのとき「AC
TION1」の行動が出力されることとなる。Therefore, in the node NODE 100 represented by the state transition table 80 in FIG. 8, for example, “ball is detected (BALL)”, and the “SIZE” of the ball is in the range of “0 to 1000”. Is given, the probability of “30 [%]” and “node N
ODE 120 (node 120) "
The action of “TION1” is output.
【0043】各行動モデル701〜70nは、それぞれこ
のような状態遷移表80として記述されたノードNOD
E0〜 NODEnがいくつも繋がるようにして構成され
ており、入力セマンティクスコンバータモジュール59
から認識結果が与えられたときなどに、対応するノード
NODE0〜NODEnの状態遷移表を利用して確率的に
次の行動を決定し、決定結果を行動切換えモジュール7
1に出力するようになされている。Each of the behavior models 70 1 to 70 n corresponds to a node NOD described as such a state transition table 80.
E 0 to NODE n are connected to each other, and the input semantics converter module 59
For example, when a recognition result is given from the user, the next action is determined stochastically by using the state transition table of the corresponding nodes NODE 0 to NODE n , and the determined result is changed to the action switching module 7.
1 is output.
【0044】図5に示す行動切換えモジュール71は、
行動モデルライブラリ70の各行動モデル701〜70n
からそれぞれ出力される行動のうち、予め定められた優
先順位の高い行動モデル701〜70nから出力された行
動を選択し、当該行動を実行すべき旨のコマンド(以
下、これを行動コマンドという。)をミドル・ウェア・
レイヤ40の出力セマンティクスコンバータモジュール
68に送出する。なお、この実施の形態においては、図
6において下側に表記された行動モデル701〜70nほ
ど優先順位が高く設定されている。The action switching module 71 shown in FIG.
Each behavior model 70 1 to 70 n of the behavior model library 70
Among the actions which are output from, select an action that is output from a predetermined higher priority behavior model 70 1 to 70 n, the command to the effect that execute the action (hereinafter, referred to as an action command )) Middleware
The output is sent to the output semantics converter module 68 of the layer 40. Incidentally, in this embodiment, is denoted behavioral models 70 1 more to 70 n priority lower is set higher in FIG.
【0045】また、行動切換えモジュール71は、行動
完了後に出力セマンティクスコンバータモジュール68
から与えられる行動完了情報に基づいて、その行動が完
了したことを学習モジュール72、感情モデル73及び
本能モデル74に通知する。The action switching module 71 outputs the output semantics converter module 68 after the action is completed.
The completion of the action is notified to the learning module 72, the emotion model 73, and the instinct model 74 based on the action completion information given by the user.
【0046】一方、学習モジュール72は、入力セマン
ティクスコンバータモジュール59から与えられる認識
結果のうち、「叩かれた」や「撫でられた」など、使用
者からの働きかけとして受けた教示の認識結果を入力す
る。On the other hand, the learning module 72 inputs, from among the recognition results given from the input semantics converter module 59, the recognition results of the teachings received from the user, such as "hit" and "stroke". I do.
【0047】そして、学習モジュール72は、この認識
結果及び行動切換えモジュール71からの通知に基づい
て、「叩かれた(叱られた)」ときにはその行動の発現
確率を低下させ、「撫でられた(誉められた)」ときに
はその行動の発現確率を上昇させるように、行動モデル
ライブラリ70における対応する行動モデル701〜7
0nの対応する遷移確率を変更する。Then, based on the recognition result and the notification from the action switching module 71, the learning module 72 lowers the probability of occurrence of the action when "beaten (scolded)" and "strokes ( praised obtained) "sometimes to increase the expression probability of that action, behavior model 70 1-7 corresponding in behavioral model library 70
Change the corresponding transition probability of 0 n .
【0048】他方、感情モデル73は、「喜び(jo
y)」、「悲しみ(sadness)」、「怒り(anger)」、
「驚き(surprise)」、「嫌悪(disgust)」及び「恐
れ(fear)」の合計6つの情動について、各情動ごとに
その情動の強さを表すパラメータを保持している。そし
て、感情モデル73は、これら各情動のパラメータ値
を、それぞれ入力セマンティクスコンバータモジュール
59から与えられる「叩かれた」及び「撫でられた」な
どの特定の認識結果と、経過時間及び行動切換えモジュ
ール71からの通知となどに基づいて周期的に更新す
る。On the other hand, the emotion model 73 indicates “joy (jo
y) "," sadness "," anger ",
For a total of six emotions, “surprise”, “disgust”, and “fear”, a parameter indicating the strength of the emotion is stored for each emotion. Then, the emotion model 73 converts the parameter values of each of these emotions into a specific recognition result such as “hit” and “stroke” given from the input semantics converter module 59 and the elapsed time and action switching module 71. Updates periodically based on the notification from.
【0049】具体的には、感情モデル73は、入力セマ
ンティクスコンバータモジュール59から与えられる認
識結果と、そのときのロボット装置1の行動と、前回更
新してからの経過時間となどに基づいて所定の演算式に
より算出されるそのときのその情動の変動量を△E
[t]、現在のその情動のパラメータ値をE[t]、そ
の情動の感度を表す係数をkeとして、(1)式によっ
て次の周期におけるその情動のパラメータ値E[t+
1]を算出し、これを現在のその情動のパラメータ値E
[t]と置き換えるようにしてその情動のパラメータ値
を更新する。また、感情モデル73は、これと同様にし
て全ての情動のパラメータ値を更新する。Specifically, the emotion model 73 is determined based on the recognition result given from the input semantics converter module 59, the behavior of the robot device 1 at that time, the elapsed time since the last update, and the like. The amount of change of the emotion at that time calculated by the arithmetic expression is expressed by △ E
[T], E [t] of the current parameter value of the emotion, the coefficient representing the sensitivity of the emotion as k e, (1) the parameter value of the emotion in a next period by equation E [t +
1] is calculated, and the current parameter value E of the emotion is calculated.
The parameter value of the emotion is updated by replacing it with [t]. The emotion model 73 updates the parameter values of all emotions in the same manner.
【0050】[0050]
【数1】 (Equation 1)
【0051】なお、各認識結果や出力セマンティクスコ
ンバータモジュール68からの通知が各情動のパラメー
タ値の変動量△E[t]にどの程度の影響を与えるかは
予め決められており、例えば「叩かれた」といった認識
結果は「怒り」の情動のパラメータ値の変動量△E
[t]に大きな影響を与え、「撫でられた」といった認
識結果は「喜び」の情動のパラメータ値の変動量△E
[t]に大きな影響を与えるようになっている。The degree to which each recognition result and the notification from the output semantics converter module 68 affect the variation ΔE [t] of the parameter value of each emotion is determined in advance. Is the amount of change in the parameter value of the emotion of “anger” △ E
[T] is greatly affected, and the recognition result such as “stroke” is the variation amount of the parameter value of the emotion of “joy” 喜 び E
[T] is greatly affected.
【0052】ここで、出力セマンティクスコンバータモ
ジュール68からの通知とは、いわゆる行動のフィード
バック情報(行動完了情報)であり、行動の出現結果の
情報であり、感情モデル73は、このような情報によっ
ても感情を変化させる。これは、例えば、「吠える」と
いった行動により怒りの感情レベルが下がるといったよ
うなことである。なお、出力セマンティクスコンバータ
モジュール68からの通知は、上述した学習モジュール
72にも入力されており、学習モジュール72は、その
通知に基づいて行動モデル701〜70nの対応する遷移
確率を変更する。Here, the notification from the output semantics converter module 68 is so-called action feedback information (action completion information), information on the appearance result of the action, and the emotion model 73 also uses such information. Change emotions. This is, for example, a behavior such as "barking" that lowers the emotional level of anger. Note that the notification from the output semantics converter module 68 is also input to the above-described learning module 72, and the learning module 72 changes the corresponding transition probabilities of the behavior models 70 1 to 70 n based on the notification.
【0053】なお、行動結果のフィードバックは、行動
切換えモジュレータ71の出力(感情が付加された行
動)によりなされるものであってもよい。The feedback of the action result may be made by the output of the action switching modulator 71 (the action to which the emotion is added).
【0054】一方、本能モデル74は、「運動欲(exer
cise)」、「愛情欲(affection)」、「食欲(appetit
e)」及び「好奇心(curiosity)」の互いに独立した4
つの欲求について、これら欲求ごとにその欲求の強さを
表すパラメータを保持している。そして、本能モデル7
4は、これらの欲求のパラメータ値を、それぞれ入力セ
マンティクスコンバータモジュール59から与えられる
認識結果や、経過時間及び行動切換えモジュール71か
らの通知などに基づいて周期的に更新する。On the other hand, the instinct model 74 is “exercise greed (exer
cise) "," affection "," appetite "
e) ”and“ curiosity ”4
For each of the desires, a parameter indicating the strength of the desire is stored for each of the desires. And instinct model 7
4 periodically updates these desire parameter values based on the recognition result given from the input semantics converter module 59, the elapsed time, the notification from the action switching module 71, and the like.
【0055】具体的には、本能モデル74は、「運動
欲」、「愛情欲」及び「好奇心」については、認識結
果、経過時間及び出力セマンティクスコンバータモジュ
ール68からの通知などに基づいて所定の演算式により
算出されるそのときのその欲求の変動量をΔI[k]、
現在のその欲求のパラメータ値をI[k]、その欲求の
感度を表す係数kiとして、所定周期で(2)式を用い
て次の周期におけるその欲求のパラメータ値I[k+
1]を算出し、この演算結果を現在のその欲求のパラメ
ータ値I[k]と置き換えるようにしてその欲求のパラ
メータ値を更新する。また、本能モデル74は、これと
同様にして「食欲」を除く各欲求のパラメータ値を更新
する。More specifically, the instinct model 74 determines, based on the recognition result, the elapsed time, the notification from the output semantics converter module 68, and the like, for “exercise desire”, “affection desire”, and “curiosity”. The change amount of the desire at that time calculated by the arithmetic expression is ΔI [k],
I [k] the current parameter value of the desire, as the coefficient k i which represents the sensitivity of the desire, the parameter value of the desire in a next period with a predetermined period (2) I [k +
1] is calculated, and the calculation result is replaced with the current parameter value I [k] of the desire to update the parameter value of the desire. Similarly, the instinct model 74 updates the parameter values of each desire except “appetite”.
【0056】[0056]
【数2】 (Equation 2)
【0057】なお、認識結果及び出力セマンティクスコ
ンバータモジュール68からの通知などが各欲求のパラ
メータ値の変動量△I[k]にどの程度の影響を与える
かは予め決められており、例えば出力セマンティクスコ
ンバータモジュール68からの通知は、「疲れ」のパラ
メータ値の変動量△I[k]に大きな影響を与えるよう
になっている。The degree to which the recognition result and the notification from the output semantics converter module 68 affect the variation ΔI [k] of the parameter value of each desire is determined in advance. For example, the output semantics converter 68 The notification from the module 68 has a large effect on the variation ΔI [k] of the parameter value of “fatigue”.
【0058】なお、本実施の形態においては、各情動及
び各欲求(本能)のパラメータ値がそれぞれ0から100ま
での範囲で変動するように規制されており、また係数k
e、kiの値も各情動及び各欲求ごとに個別に設定されて
いる。In the present embodiment, the parameter values of each emotion and each desire (instinct) are regulated so as to fluctuate in the range of 0 to 100, and the coefficient k
The values of e and k i are also individually set for each emotion and each desire.
【0059】一方、ミドル・ウェア・レイヤ40の出力
セマンティクスコンバータモジュール68は、図4に示
すように、上述のようにしてアプリケーション・レイヤ
41の行動切換えモジュール71から与えられる「前
進」、「喜ぶ」、「鳴く」又は「トラッキング(ボール
を追いかける)」といった抽象的な行動コマンドを出力
系69の対応する信号処理モジュール61〜67に与え
る。On the other hand, as shown in FIG. 4, the output semantics converter module 68 of the middleware layer 40 provides “forward” and “pleasure” provided from the action switching module 71 of the application layer 41 as described above. , "Sound" or "tracking (follow the ball)" is given to the corresponding signal processing modules 61 to 67 of the output system 69.
【0060】そしてこれら信号処理モジュール61〜6
7は、行動コマンドが与えられると当該行動コマンドに
基づいて、その行動を行うために対応するアクチュエー
タ251〜25n(図2)に与えるべきサーボ指令値や、
スピーカ24(図2)から出力する音の音声データ及び
又は「目」のLEDに与える駆動データを生成し、これ
らのデータをロボティック・サーバ・オブジェクト32
のバーチャル・ロボット33及び信号処理回路14(図
2)を順次介して対応するアクチュエータ25 1〜25n
又はスピーカ24又はLEDに順次送出する。The signal processing modules 61 to 6
7, when an action command is given, the action command
Actuator to perform the action based on
TA251~ 25n(Fig. 2)
Audio data of sound output from the speaker 24 (FIG. 2);
Alternatively, drive data to be given to the “eye” LED is generated, and
These data into the robotic server object 32
Virtual robot 33 and signal processing circuit 14 (FIG.
2) corresponding actuators 25 in sequence 1~ 25n
Alternatively, the data is sequentially transmitted to the speaker 24 or the LED.
【0061】このようにしてロボット装置1において
は、制御プログラムに基づいて、自己(内部)及び周囲
(外部)の状況や、使用者からの指示及び働きかけに応
じた自律的な行動を行うことができるようになされてい
る。In this way, the robot apparatus 1 can perform autonomous actions according to its own (internal) and surrounding (external) conditions and instructions and actions from the user based on the control program. It has been made possible.
【0062】(3)ロボット装置への動作の教示(本発
明が適用された形態) ロボット装置は、本発明が適用されることで、ユーザー
による動き、音響、発光等のデータが教示という形態で
直接的に入力され、それらを計測し、記録し、しかるべ
きタイミングで変換及び再生することができるように構
成されている。これにより、ユーザーはあたかもペット
に芸を教えるような感覚でロボット装置に接することが
可能となり、エンタテインメント性の高いロボットシス
テムが実現される。(3) Teaching an Operation to a Robot Apparatus (Form to which the Present Invention is Applied) By applying the present invention, a robot apparatus teaches data such as movement, sound, and light emission by a user. It is configured so that they can be directly input, measured, recorded, converted and reproduced at the appropriate timing. As a result, the user can come into contact with the robot device as if teaching a trick to a pet, and a robot system with high entertainment properties is realized.
【0063】このような動作(動き、音響、発光等)の
教示を実現するロボット装置1は、脚部ユニット3A〜
3D(具体的には、アクチュエータ)、スピーカ24や
図示しないLED等とされる表出手段を備え、外部情報
(例えば、周囲の状況等)及び/又は内部状態(例え
ば、内部の状況等)に基づいて上述の表出手段の駆動状
態を変化させる構成となっている。そして、ロボット装
置1は、教示タイミングにて外部から入力された教示デ
ータ(例えば、動きデータ、音響データ、発光データ
等)を計測する計測手段と、計測手段にて取得した教示
データが記憶される記憶手段(例えば、内部メモリ等)
と、上述の表出手段の駆動を制御する制御手段であるC
PU10とを備えており、CPU10は、上述の記憶手
段に記憶された上述の教示データに基づいて、上述の表
出手段の駆動を制御している。ここで、例えば、上述の
計測手段は、上述の図4に示したミドル・ウェア・レイ
ヤ40のモジュール(オブジェクト)によって実現され
る。The robot apparatus 1 for realizing such an operation (movement, sound, light emission, etc.) includes the leg units 3A to 3A.
A 3D (specifically, an actuator), a speaker 24, and a not-shown LED or other expression means are provided to provide external information (for example, surrounding conditions) and / or internal conditions (for example, internal conditions). The driving state of the above-mentioned expression means is changed based on this. The robot apparatus 1 stores a measuring unit that measures teaching data (for example, motion data, acoustic data, light emission data, and the like) input from outside at the teaching timing, and stores the teaching data acquired by the measuring unit. Storage means (for example, internal memory, etc.)
And C as control means for controlling the driving of the above-described expression means.
A PU 10 is provided, and the CPU 10 controls the driving of the above-mentioned expression means based on the above-mentioned teaching data stored in the above-mentioned storage means. Here, for example, the above-described measuring unit is realized by the module (object) of the middleware layer 40 shown in FIG.
【0064】図9には、具体的な教示形態(教示データ
の計測、図9中(A))と、教示された動作の表出形態
(教示データの再生、図9中(B))とを示している。
ロボット装置1は、上述したように表出手段として、音
響出力手段であるスピーカ24、発光手段である図示し
ないLED、及びアクチュエータ251〜25n等を備え
ており、これらの表出手段への教示について説明する。FIG. 9 shows a specific teaching form (measurement of teaching data, (A) in FIG. 9) and a representation form of a taught operation (reproduction of teaching data, (B) in FIG. 9). Is shown.
Robot device 1 includes, as expression unit as described above, the speaker 24 is a sound output means, LED (not shown) is a light emitting device, and comprises an actuator 25 1 to 25 n and the like, to these expression means The teaching will be described.
【0065】教示の際には、図9中(A)に示すよう
に、ユーザー200は、それぞれの前脚3A,3Bに動
きを与えながら、「Wow,Wow−!!」等の犬の鳴
き真似をして、教示行動をとる。ロボット装置1側で
は、このユーザーの教示行動に対応して各表出手段に対
応される部分によるデータの計測を行う。例えば、ロボ
ット装置1は、動きの教示としてポテンショメータ26
1〜26nにおいて動きデータを計測して、音響の教示と
して音響入力手段であるマイク23において音響データ
を計測する。また、ロボット装置1は、ユーザーによっ
てそのように教示されている間の周囲の明るさ(例え
ば、照明の明るさ等)を、画像入力手段であるCCDカ
メラ20において発光データとして計測する。例えば、
ロボット装置1は、このようにして教示において取得し
た教示データとされる計測データを内部メモリ等の記憶
手段に記憶する。At the time of teaching, as shown in FIG. 9A, the user 200 imitates the sound of a dog such as "Wow, Wow- !!" while giving motion to each of the front legs 3A and 3B. And take the teaching action. On the robot device 1 side, data is measured by a portion corresponding to each expression means in accordance with the teaching action of the user. For example, the robot apparatus 1 uses the potentiometer 26 as the movement teaching.
The motion data is measured in 1 to 26 n , and the sound data is measured by the microphone 23 as sound input means as a sound teaching. Further, the robot apparatus 1 measures the brightness of the surroundings (for example, the brightness of the illumination) while the user is teaching as such as the light emission data in the CCD camera 20 as the image input means. For example,
The robot apparatus 1 stores the measurement data, which is the teaching data acquired in the teaching as described above, in a storage unit such as an internal memory.
【0066】例えば、このような各部分における計測
は、上述したようにミドル・ウェア・レイヤ40のモジ
ュール(オブジェクト)によって実現される。また、動
きの教示においては、教示タイミングにて可動部とされ
る脚部ユニット3A〜3D(具体的には、アクチュエー
タ)が外力付与によって変位された変位データが教示デ
ータとして計測手段により計測される。すなわち、上述
した脚部の変位状態を計測するポテンショメータのデー
タが計測される。For example, such measurement in each part is realized by the module (object) of the middleware layer 40 as described above. In teaching movement, displacement data obtained by displacing the leg units 3A to 3D (specifically, actuators), which are movable parts at the teaching timing, by applying external force is measured as teaching data by the measuring unit. . That is, the data of the potentiometer for measuring the displacement state of the leg is measured.
【0067】そして、ロボット装置1は、教示後におい
て、計測されたデータに基づいて教示された動作を表出
させる。例えば、図9中(A)に示したように、動き、
音響、発光が同時に教示された場合、すなわち動きデー
タ、音響データ及び発光データが同時に計測された場合
には、教示後において、同期して表出手段の各部を駆動
する。すなわち、ロボット装置1は、教示後において
は、図9中(B)に示すように、記憶手段に記憶された
動きデータに基づいてアクチュエータを駆動して前脚3
A,3Bを動かすとともに、記憶手段に記憶された音響
データに基づいてスピーカ24から「Wow,Wow−
!!」」と発話し、さらに記憶手段に記憶された発光デ
ータに基づいて図示しないLED等を発光させる。After the teaching, the robot apparatus 1 displays the action taught based on the measured data. For example, as shown in FIG.
When sound and light emission are taught at the same time, that is, when motion data, sound data, and light emission data are measured at the same time, each part of the expression means is driven synchronously after teaching. That is, after teaching, the robot apparatus 1 drives the actuator based on the motion data stored in the storage means to drive the front leg 3 as shown in FIG.
A and 3B are moved, and “Wow, Wow-
! ! "", And further causes an LED (not shown) to emit light based on the emission data stored in the storage means.
【0068】ロボット装置1は、このようにして表出手
段に対しての教示がなされ、教示された内容等を表出手
段を駆動することによって再生することができる。この
ロボット装置1は、表出手段を動作させるためのデータ
(動きデータ、音響データ及び発光データ等)を計測し
て、この教示データとしての計測データに基づいて各種
表出手段を制御して教示された動作等を表出しており、
例えば、図10には、メモリ等の記憶手段に時系列デー
タとして記憶されるそのような計測データのフォーマッ
トを示している。The robot apparatus 1 is thus taught to the expression means, and can reproduce the taught contents and the like by driving the expression means. The robot apparatus 1 measures data (movement data, sound data, light emission data, etc.) for operating the expression means, and controls various expression means based on the measurement data as the teaching data to teach. The operation that was performed is expressed,
For example, FIG. 10 shows a format of such measurement data stored as time-series data in a storage unit such as a memory.
【0069】図10に示す例では、4本の脚の全関節に
ついてL箇所(L次)の測定点(例えば、L個のポテン
ショメータによる測定点)、入力された音響についてM
箇所(M次)の測定点(例えば、M個のマイクによる測
定点)、及び入力された画像についてN箇所(N次)の
測定点(例えば、N個のカメラによる測定点)が用意さ
れている場合において、教示開始時刻から教示終了時刻
までの間に教示されたときの教示データのフォーマット
を示している。この図10に示す例では、L次元動きデ
ータ(関節1測定値〜関節L測定値)と、M次元動きデ
ータ(音響1測定値〜音響M測定値)と、N次元発光デ
ータ(発光1測定値〜発光N測定値)とが、教示開始時
刻から教示終了時刻までの間の計測されて、Tの時系列
長として記憶されている場合を示している。In the example shown in FIG. 10, L points (L-order) of measurement points (for example, measurement points by L potentiometers) for all the joints of the four legs, and M for the input sound.
Measurement points (M-order) (for example, measurement points by M microphones) and N (N-th) measurement points (for example, measurement points by N cameras) are prepared for the input image. Shows the format of the teaching data when teaching is performed between the teaching start time and the teaching end time. In the example shown in FIG. 10, L-dimensional motion data (joint 1 measurement value to joint L measurement value), M-dimensional motion data (sound 1 measurement value to sound M measurement value), and N-dimensional light emission data (light emission 1 measurement value) (Value to measured light emission N) is measured from the teaching start time to the teaching end time and stored as the time series length of T.
【0070】例えば、このような時系列長さTの(L+
M+N)次元のデータ形態は、時刻1においてユーザー
がロボット装置1の接触センサを刺激することにより、
ロボット装置1がデータの計測を開始し、時刻Tにおい
てユーザーが終了の刺激を与えるまでに得られたもので
ある。For example, (L +
The (M + N) -dimensional data form is obtained by stimulating the contact sensor of the robot apparatus 1 at time 1 by the user.
The data is obtained by the time when the robot apparatus 1 starts measuring data and before the user gives the stimulus for ending at the time T.
【0071】ロボット装置1においてはこのような形態
として計測データが記憶され、ロボット装置1は、この
ように記憶された計測データに基づいて各種表出手段を
動作させている。このようにして、ロボット装置1は、
ユーザーの教示された任意の動作を再生することができ
る。これにより、エンタテインメント性の高いロボット
システムが実現される。The robot apparatus 1 stores measurement data in such a form, and the robot apparatus 1 operates various expression means based on the measurement data thus stored. Thus, the robot device 1
Any operation taught by the user can be reproduced. As a result, a robot system with high entertainment properties is realized.
【0072】図11乃至図13を用いて、動作の教示の
手順を具体的に説明する。図11乃至図13に示す動作
の教示手順は、よろこびの際の動作を教示する教示手順
であり、図11乃至図13に示す手順は、それぞれが異
なる手順によってよろこびの際の動作を教示する手順を
示している。先ず、図11に示す教示手順を説明する。The procedure for teaching the operation will be described in detail with reference to FIGS. The teaching procedure of the operation shown in FIGS. 11 to 13 is a teaching procedure for teaching the operation at the time of joy, and the procedure shown in FIGS. 11 to 13 is a procedure for teaching the operation at the time of joy by different procedures. Is shown. First, the teaching procedure shown in FIG. 11 will be described.
【0073】図11に示すように、ロボット装置1は、
ステップS1に示すように、通常は、自律モードにおい
て行動等をしている。すなわち、ロボット装置1は、外
部からの情報の入力や内部状態に応じて、感情モデル等
の各種モデルのレベルを変化させて、そのレベルに応じ
て動作している。As shown in FIG. 11, the robot device 1
As shown in step S1, usually, the user is acting in the autonomous mode. That is, the robot apparatus 1 changes the level of various models such as an emotion model according to the input of information from the outside and the internal state, and operates according to the level.
【0074】そして、所定のタイミングで、動作の教示
が開始される。例えば、「よろこびモーション」といっ
た音声入力があったことや、ロボット装置1が「喜び」
の感情状態が所定の状態になったことをトリガーとして
動作の教示が開始される。また、例えば、ロボット装置
1は、「喜び」の感情レベルが所定レベルに達したとき
に所定の動作をする。これにより、ユーザーは、教示が
可能となったことを知ることができる。Then, the teaching of the operation is started at a predetermined timing. For example, there is a voice input such as "joy motion",
The teaching of the operation is started with the fact that the emotional state has become a predetermined state as a trigger. For example, the robot device 1 performs a predetermined operation when the emotion level of “joy” reaches a predetermined level. This allows the user to know that teaching is possible.
【0075】ロボット装置1は、ステップS2におい
て、よろこびのモーション(動き)が登録済み(教示済
み)か否かを判断する。ロボット装置1は、よろこびの
モーションが未登録の場合には、ステップS3に進み、
登録済みの場合には、ステップS4に進む。例えば、登
録済みであるか否かは、「よろこびモーション」が登録
されるデータ記憶領域のフラグの状態を判別することに
より行う。In step S2, the robot device 1 determines whether the joy motion has been registered (taught). If the joy motion has not been registered, the robot device 1 proceeds to step S3.
If registered, the process proceeds to step S4. For example, whether or not registration has been performed is determined by determining the state of a flag of a data storage area in which “joy motion” is registered.
【0076】ロボット装置1は、ステップS3では、い
わゆる教示モードに切り替わり、教示が可能になったこ
とを示すアクションを再生する。すなわち、ロボット装
置1は、予め用意されている、いわゆる「動き教えて
よ」アクション(以下、教示許可アクションという。)
を再生する。例えば、ロボット装置1は、教示許可アク
ションとして、座り姿勢において、両前脚のサーボを外
して、両前脚を脱力する。ロボット装置1が教示許可ア
クションを再生することにより、ユーザーは、教示モー
ド(教示が可能になっていること)を知ることができる
ようになる。In step S3, the robot apparatus 1 switches to a so-called teaching mode and reproduces an action indicating that teaching is enabled. That is, the robot apparatus 1 prepares in advance a so-called “teach movement” action (hereinafter referred to as a teaching permission action).
To play. For example, as a teaching permission action, the robot apparatus 1 removes servos of both front legs in a sitting posture and weakens both front legs. When the robot apparatus 1 reproduces the teaching permission action, the user can know the teaching mode (that the teaching is enabled).
【0077】なお、この例では、教示許可アクション
は、座り姿勢において両前脚が脱力された姿勢になると
しているが、教示許可アクションがこのようになされる
ことに限定されるものではない。すなわち例えば、ロボ
ット装置1は、感情状態(感情レベルの状態)や音声入
力の内容によって教示される際のロボット装置の姿勢や
教示できるセンサが異なるようになされており、その感
情状態や教示できるセンサに応じた姿勢になるようにす
る。すなわち、ロボット装置1は、感情状態や所望のセ
ンサによる教示が可能な姿勢になる。In this example, the teaching permission action is such that both front legs are weakened in the sitting posture, but the teaching permission action is not limited to this. That is, for example, the robot apparatus 1 is configured such that the posture of the robot apparatus and the sensors that can be taught when the robot apparatus 1 is taught according to the emotional state (state of the emotion level) and the content of the voice input are different. So that the posture is appropriate for That is, the robot apparatus 1 assumes an attitude in which an emotional state or a desired sensor can be used for teaching.
【0078】一方、ロボット装置1は、よろこびモーシ
ョンが登録済みの場合のステップS4では、記憶手段の
記憶領域に記憶されているデータに基づいてその登録済
みであるよろこびモーションを再生する。On the other hand, in step S4 when the joy motion has been registered, the robot device 1 reproduces the registered joy motion based on the data stored in the storage area of the storage means.
【0079】そして、ロボット装置1は、ユーザーから
のモーションの再登録のためのリアクションがあれば、
ステップS3に進み、教示許可アクションを再生する。
例えば、再登録のためのリアクションとしては、ロボッ
ト装置1の頭が叩くことが挙げられ、ロボット装置1
は、頭が叩かれたことを検出することにより、ステップ
S3において、教示許可アクションを再生する。また、
ロボット装置1は、ユーザーからのそのような再登録の
ためのリアクションがない場合には、教示モードに移行
せずに、ステップS1の自律モードに復帰する。Then, if there is a reaction from the user for re-registering the motion, the robot apparatus 1
Proceeding to step S3, the teaching permission action is reproduced.
For example, the reaction for re-registration is that the head of the robot device 1 is hit,
Detects that the head has been hit, and reproduces the teaching permission action in step S3. Also,
If there is no such reaction for re-registration from the user, the robot apparatus 1 returns to the autonomous mode in step S1 without shifting to the teaching mode.
【0080】教示許可アクションを再生している最中或
いは再生後の所定時間内にユーザーによる教示が開始さ
れる。例えば、脚の接触センサが接触を検出した場合、
ロボット装置1においてモーションの教示が開始され
る。例えば、ロボット装置1は、脚の接触センサとし
て、足の裏にあるいわゆる肉球を押圧されたことを検出
するセンサ(以下、肉球センサという。)を備えてお
り、この肉球センサが肉球が押されたことを検出した場
合に、データの計測を開始する。During the playback of the teaching permission action or within a predetermined time after the playback, the teaching by the user is started. For example, if the contact sensor on the leg detects contact,
The robot device 1 starts teaching motion. For example, the robot apparatus 1 includes, as a leg contact sensor, a sensor that detects that a so-called meat ball on the sole of the foot is pressed (hereinafter, referred to as a meat ball sensor). When it is detected that the ball has been pressed, data measurement is started.
【0081】これにより、ロボット装置1は、ステップ
S5において、肉球が押されている期間内のモーション
が教示される。すなわち、このとき、ロボット装置1に
おいては、図9中(A)を用いて説明したように、動き
データの計測がなされる。計測された動きデータは、図
10に示すようなフォーマットとされて、時系列データ
として、よろこびモーションの記憶領域に記憶される。
ロボット装置1は、肉球が押された時点を教示開始時刻
とし、肉球が離された時点を教示終了時刻として、肉球
が押されている期間内に得られる計測データを記憶領域
に記録する。そして、例えば、このとき、登録されてい
るか否かの情報を示すフラグが立てられる。Thus, in step S5, the robot apparatus 1 teaches the motion during the period in which the meat ball is being pressed. That is, at this time, the motion data is measured in the robot device 1 as described with reference to FIG. The measured motion data has a format as shown in FIG. 10 and is stored as time-series data in the storage area for joy and motion.
The robot apparatus 1 records, in a storage area, measurement data obtained during a period in which the meat ball is pressed, with the time when the meat ball is pressed as the teaching start time and the time when the meat ball is released as the teaching end time. I do. Then, for example, at this time, a flag indicating information on whether or not the information is registered is set.
【0082】一方、ロボット装置1は、ステップS3に
おいて、教示許可アクションを再生して所定時間内にユ
ーザーからの教示がなかった場合、すなわち、肉球が押
されたことを肉球センサによって検出できなかった場
合、ステップS1の自律モードに復帰する。On the other hand, in step S3, the robot apparatus 1 reproduces the teaching permission action, and when there is no teaching from the user within a predetermined time, that is, the meat ball sensor can detect that the meat ball has been pressed. If not, the process returns to the autonomous mode in step S1.
【0083】ロボット装置1は、ステップS5における
モーションの教示が終了した場合、ステップS6におい
て、ステップS5にて登録されたモーションを再生す
る。すなわち、記憶手段におけるよろこびモーションの
記憶領域に記憶されている動きデータに基づいて表出手
段としての所望の脚部(具体的には、アクチュエータ)
を駆動させる。このような登録されたモーションの再生
により、ユーザーは、自分が教示したモーション(以
下、教示モーションという。)を確認することができる
ようになる。なお、例えば、ロボット装置1は、モーシ
ョンの教示の終了を、所定時間内に肉球が押されなくな
ったことや肉球が押されて所定時間経過したことを検出
して、ステップS7に進む。When the teaching of the motion in step S5 is completed, the robot device 1 reproduces the motion registered in step S5 in step S6. That is, a desired leg (specifically, an actuator) as an expression means based on the motion data stored in the storage area of the joy motion in the storage means
Drive. By playing back such registered motion, the user can confirm the motion taught by the user (hereinafter referred to as “taught motion”). Note that, for example, the robot apparatus 1 detects the end of the motion teaching when the meat ball is no longer pressed within a predetermined time or when the meat ball is pressed and a predetermined time has elapsed, and proceeds to step S7.
【0084】ロボット装置1は、ステップS7において
教示モーションの再生が終了したら、教示モーションを
自律モード上で再生するためのトリガーとしての音声命
令を登録するための処理を行う。例えば、ロボット装置
1は、モーション名の入力を催促(許可)するアクショ
ンを再生する。例えば、ロボット装置1は、予め用意さ
れている、いわゆる「言葉教えてよ?」アクション(以
下、モーション名入力許可アクションという。)を再生
する。例えば、モーション名入力許可アクションとして
は、ロボット装置1が前脚を耳にあてる動き等が挙げら
れる。When the reproduction of the teaching motion is completed in step S7, the robot apparatus 1 performs a process for registering a voice command as a trigger for reproducing the teaching motion in the autonomous mode. For example, the robot apparatus 1 reproduces an action for prompting (permitting) input of a motion name. For example, the robot apparatus 1 reproduces a so-called “Tell me a word?” Action (hereinafter referred to as a motion name input permission action) prepared in advance. For example, the motion name input permission action includes a motion in which the robot apparatus 1 puts the front leg on the ear.
【0085】このような、ロボット装置1は、モーショ
ン名入力許可アクションを再生して、その後、ステップ
S8において、ユーザーが何か言うのを待つ。このと
き、ロボット装置1は、このようなユーザーからの発話
の待ち受けの際に所定のアクションを再生する。例え
ば、ロボット装置1は、予め用意されている、いわゆる
「待ち受け」アクションを再生する。例えば、「待ち受
け」アクションとしては、ロボット装置1が目(LE
D)を点滅させることや「ピロリ」等といった音声出力
をすること等が挙げられる。The robot apparatus 1 reproduces the motion name input permission action, and then waits for the user to say something in step S8. At this time, the robot device 1 plays a predetermined action when waiting for an utterance from the user. For example, the robot device 1 reproduces a so-called “standby” action prepared in advance. For example, as the “standby” action, the robot apparatus 1 uses the eye (LE)
Blinking D) or outputting a sound such as "Pirori".
【0086】そして、ロボット装置1は、ユーザーが話
したその言葉を、モーションのトリガーとしてのモーシ
ョン名として記憶し、ステップS1の自律モードに戻
る。具体的には、ステップS9では、ロボット装置1に
おいて、モーション名が登録されたモーションと対応付
けされて登録される。例えば、音声発話から終話までが
モーション名として登録される。また、モーション名を
制限することも可能であり、例えば、登録時間を制限す
ることもできる。例えば、最大登録時間を2秒間として
モーション名が登録される。そして、ロボット装置1
は、ステップS10において、登録されたモーション名
を再生して、ステップS1の自律モードに復帰する。Then, the robot device 1 stores the word spoken by the user as a motion name as a motion trigger, and returns to the autonomous mode in step S1. Specifically, in step S9, the motion name is registered in the robot apparatus 1 in association with the registered motion. For example, from speech utterance to end of speech is registered as a motion name. It is also possible to limit the motion name, for example, to limit the registration time. For example, a motion name is registered with a maximum registration time of 2 seconds. And the robot device 1
Plays the registered motion name in step S10, and returns to the autonomous mode in step S1.
【0087】一方、所定時間内にユーザーからの音声入
力がない場合(例えば、10秒間ない場合)、ステップ
S8からステップS11に進み、モーション名の登録の
終了を示すアクションを再生する。例えば、ロボット装
置1は、予め用意されている、いわゆる「終了」アクシ
ョンを再生する。そして、ロボット装置1は、ステップ
S1の自律モードに復帰する。On the other hand, if there is no voice input from the user within the predetermined time (for example, if there is no voice input for 10 seconds), the process proceeds from step S8 to step S11, and an action indicating the end of the motion name registration is reproduced. For example, the robot apparatus 1 reproduces a so-called “end” action prepared in advance. Then, the robot device 1 returns to the autonomous mode in step S1.
【0088】以上のようにしてモーション及びトリガー
モーションが登録された場合、ロボット装置1は、自律
モードにおいて、登録されたモーション名(登録した名
前)を認識したときや感情状態が所定の状態に変化した
ときに、モーションが登録済みであれば、ステップS4
において、そのモーションを再生する。そして、ロボッ
ト装置1は、モーション再生中に、ユーザーからの刺激
を受けた場合、登録されているモーションデータを記憶
領域から消去し、新しいモーションの登録を行う。When the motion and the trigger motion are registered as described above, the robot apparatus 1 recognizes the registered motion name (registered name) or changes the emotional state to a predetermined state in the autonomous mode. If the motion is already registered at step S4,
In, the motion is reproduced. Then, when receiving a stimulus from the user during the motion reproduction, the robot device 1 deletes the registered motion data from the storage area and registers a new motion.
【0089】次に、図12に示す動作の教示手順につい
て説明する。上述の図11に示した動作の教示手順で
は、モーション名の登録をモーションを登録した後に行
っていた。この図12に示す動作の教示では、モーショ
ンとモーション名とを同時に登録している。図12を用
いてこれを説明する。Next, a procedure for teaching the operation shown in FIG. 12 will be described. In the teaching procedure of the operation shown in FIG. 11, the motion name is registered after the motion is registered. In the operation teaching shown in FIG. 12, the motion and the motion name are registered at the same time. This will be described with reference to FIG.
【0090】ロボット装置1は、上述の図11に示した
場合と同様に、ステップS1において、自律モードにお
いて行動等をしている。そして、ロボット装置1は、
「よろこびモーション」といった音声入力があったこと
や、喜びの感情状態が所定状態になったことをトリガー
として動作の教示が開始される。The robot apparatus 1 is acting in the autonomous mode in step S1, as in the case shown in FIG. And the robot apparatus 1
The instruction of the operation is started when there is a voice input such as “joyful motion” or when the emotional state of joy has reached a predetermined state.
【0091】そして、ロボット装置1は、上述の図11
に示した場合と同様に、ステップS3において、教示モ
ードに切り替わり、教示が可能になったことを示すアク
ションを再生する。すなわち、ロボット装置1は、予め
用意されている、いわゆる「動き教えてよ」アクション
(教示許可アクション)を再生する。Then, the robot apparatus 1 operates as shown in FIG.
As in the case shown in (1), in step S3, the mode is switched to the teaching mode, and an action indicating that teaching is enabled is reproduced. That is, the robot apparatus 1 reproduces a so-called “teach movement” action (teaching permission action) prepared in advance.
【0092】これにより、教示許可アクションを再生し
ている最中或いは再生後の所定時間内にユーザーによる
教示が開始される。例えば、ロボット装置1は、肉球が
押されたタイミングでデータの計測を開始する。Thus, the teaching by the user is started during the playback of the teaching permission action or within a predetermined time after the playback. For example, the robot device 1 starts measuring data at the timing when the meat ball is pressed.
【0093】ロボット装置1は、図11に示した場合と
同様に、ステップS51において、肉球が押されている
期間内のモーションが教示される。そして、このモーシ
ョンの教示の際に、モーション名の入力もなされる。こ
のとき、ロボット装置1においては、このモーション名
が教示モーションに対応付けされて記憶手段に記憶され
る。なお、モーション名の入力のタイミングについて
は、モーションと同時になされたものでもよく、モーシ
ョンの登録から所定時間内になされたものでもよい。The robot apparatus 1 teaches a motion during the period in which the meat ball is being pressed in step S51, as in the case shown in FIG. Then, at the time of teaching the motion, a motion name is also input. At this time, in the robot device 1, this motion name is stored in the storage unit in association with the teaching motion. Note that the motion name may be input at the same time as the motion, or may be input within a predetermined time after the motion is registered.
【0094】一方、ロボット装置1は、図11に示した
場合と同様に、ステップS3において、教示許可アクシ
ョンを再生して所定時間内にユーザーからの教示がなか
った場合、すなわち、所定時間内に肉球が押されなかっ
た場合、ステップS1の自律モードに復帰する。On the other hand, as in the case shown in FIG. 11, the robot apparatus 1 reproduces the teaching permission action in step S3, and if there is no teaching from the user within the predetermined time, that is, within the predetermined time, If the paws have not been pressed, the process returns to the autonomous mode in step S1.
【0095】ロボット装置1は、ステップS51におけ
るモーションの教示とモーション名の入力が終了した
後、図11に示した場合と同様に、ステップS6におい
て、ステップS5にて登録されたモーション及びモーシ
ョン名を同時に再生する。ロボット装置1は、登録され
たモーション及びモーション名の再生を終了した後、ス
テップS1の自律モードに復帰する。After the teaching of the motion and the input of the motion name in step S51 are completed, the robot apparatus 1 determines the motion and the motion name registered in step S5 in step S6, as in the case shown in FIG. Play at the same time. After ending the reproduction of the registered motion and motion name, the robot device 1 returns to the autonomous mode in step S1.
【0096】以上のようにしてモーション及びモーショ
ン名が登録された場合、ロボット装置1は、自律モード
において、感情状態が所定の状態に変化したときに、モ
ーションが登録済みであれば、ステップS41におい
て、そのモーション及びモーション名を再生するように
なる。 そして、ロボット装置1は、再生中に、ユーザ
ーからの刺激を受けた場合(例えば、頭のタッチセンサ
の出力が変化した場合)、登録してあるモーションデー
タを記憶領域から消去し、新しい教示モーションの登録
を行う。When the motion and the motion name are registered as described above, the robot apparatus 1 determines whether or not the motion has been registered when the emotional state changes to a predetermined state in the autonomous mode. , The motion and the motion name are reproduced. When the robot apparatus 1 receives a stimulus from the user during reproduction (for example, when the output of the touch sensor of the head changes), the robot apparatus 1 deletes the registered motion data from the storage area, and outputs a new teaching motion. Register.
【0097】なお、本例では、モーション名がモーショ
ンのトリガーとされていないが、モーション名をトリガ
ーにロボット装置1がモーション及びモーション名を再
生することもできる。In this example, although the motion name is not used as a trigger of the motion, the robot 1 can reproduce the motion and the motion name using the motion name as a trigger.
【0098】次に、図13に示す動作の教示手順につい
て説明する。上述の図11及び図12に示した動作の教
示では、モーションとモーション名とが同一シーケンス
にて登録している。この図13に示す動作の教示では、
別シーケンスでモーション名の登録が行われる場合を示
している。図13を用いてこれを説明する。Next, the teaching procedure of the operation shown in FIG. 13 will be described. In the teaching of the operation shown in FIGS. 11 and 12, the motion and the motion name are registered in the same sequence. In the teaching of the operation shown in FIG.
This shows a case where a motion name is registered in another sequence. This will be described with reference to FIG.
【0099】ロボット装置1は、上述の図11に示した
場合と同様に、ステップS1において、自律モードにお
いて行動等をしている。そして、ロボット装置1は、
「よろこびモーション」といった音声入力があったこと
や、喜びの感情状態が所定状態になったことをトリガー
として動作の教示が開始される。The robot apparatus 1 is acting in the autonomous mode in step S1, as in the case shown in FIG. And the robot apparatus 1
The instruction of the operation is started when there is a voice input such as “joyful motion” or when the emotional state of joy has reached a predetermined state.
【0100】そして、ロボット装置1は、上述の図11
に示した場合と同様に、ステップS2において、よろこ
びのモーションが登録済み(教示済み)か否かを判断す
る。ロボット装置1は、よろこびのモーションが未登録
の場合には、ステップS3に進み、登録済みの場合に
は、ステップS41に進む。Then, the robot apparatus 1 uses the above-described FIG.
As in the case shown in (1), in step S2, it is determined whether the joy motion has been registered (taught). If the joy motion is not registered, the robot device 1 proceeds to step S3, and if registered, proceeds to step S41.
【0101】そして、ロボット装置1は、上述の図11
に示した場合と同様に、ステップS3において、教示モ
ードに切り替わり、教示が可能になったことを示すアク
ションを再生する。すなわち、ロボット装置1は、予め
用意されている、いわゆる「動き教えてよ」アクション
(教示許可アクション)を再生する。Then, the robot apparatus 1 operates as shown in FIG.
As in the case shown in (1), in step S3, the mode is switched to the teaching mode, and an action indicating that teaching is enabled is reproduced. That is, the robot apparatus 1 reproduces a so-called “teach movement” action (teaching permission action) prepared in advance.
【0102】一方、ロボット装置1は、よろこびモーシ
ョンが登録済みの場合のステップS41では、記憶手段
の記憶領域に記憶されているデータに基づいてその登録
済みであるよろこびモーション及びモーション名を再生
する。On the other hand, in step S41 when the joy motion has been registered, the robot device 1 reproduces the registered joy motion and motion name based on the data stored in the storage area of the storage means.
【0103】そして、ロボット装置1は、ユーザーから
のモーションの再登録のためのリアクション(例えば、
頭を叩く)があれば、ステップS3に進み、教示許可ア
クションを再生する。The robot apparatus 1 performs a reaction for re-registering the motion from the user (for example,
If yes, the process proceeds to step S3, where the teaching permission action is reproduced.
【0104】これにより、教示許可アクションを再生し
ている最中或いは再生後の所定時間内にユーザーによる
教示が開始される。ロボット装置1は、図11に示した
場合と同様に、ステップS5において、肉球が押されて
いる期間内のモーションが教示される。Thus, the teaching by the user is started during the playback of the teaching permission action or within a predetermined time after the playback. As in the case shown in FIG. 11, the robot device 1 teaches the motion during the period in which the meat ball is pressed in step S5.
【0105】一方、ロボット装置1は、図11に示した
場合と同様に、ステップS3において、教示許可アクシ
ョンを再生して所定時間内にユーザーからの教示がなか
った場合、すなわち、肉球センサが押されたことを検出
できなかった場合、ステップS1の自律モードに復帰す
る。On the other hand, as in the case shown in FIG. 11, the robot apparatus 1 reproduces the teaching permission action in step S3, and if there is no teaching from the user within a predetermined time, that is, the meat ball sensor If it cannot be detected that the button has been pressed, the process returns to the autonomous mode in step S1.
【0106】ロボット装置1は、ステップS5における
モーションの教示が終了した場合、図11に示した場合
と同様に、ステップS6において、ステップS5にて登
録されたモーションを再生する。ロボット装置1は、登
録されたモーションの再生を終了した場合、ステップS
1の自律モードに復帰する。When the teaching of the motion in step S5 is completed, the robot apparatus 1 reproduces the motion registered in step S5 in step S6, as in the case shown in FIG. When the reproduction of the registered motion is completed, the robot device 1 proceeds to step S
1 to return to the autonomous mode.
【0107】以上のようにしてモーションが登録された
場合、ロボット装置1は、自律モードにおいて、別シー
ケンスにて登録されたモーション名を認識したときや感
情状態が所定の状態に変化したときに、該当されるモー
ションが登録済みであれば、ステップS41において、
そのモーション及びモーション名を再生する。そして、
ロボット装置1は、再生中に、ユーザーからの刺激を受
けた場合、登録してあるモーションデータを記憶領域か
ら消去し、新しい教示モーションの登録を行う。When the motion is registered as described above, the robot apparatus 1 recognizes the motion name registered in another sequence in the autonomous mode or changes the emotional state to a predetermined state in the autonomous mode. If the corresponding motion has been registered, in step S41,
Play the motion and the motion name. And
When receiving a stimulus from the user during the reproduction, the robot apparatus 1 deletes the registered motion data from the storage area and registers a new teaching motion.
【0108】以上、図11乃至図13を用いて、種々の
動作の教示手順について説明した。図14及び図15に
は、その教示手順のフローの概略を示している。図14
に示す教示手順のフローは、モーションとモーション名
とを異なるタイミングで登録する場合のものであり、図
15に示す教示手順のフローは、モーションとモーショ
ン名とを同時に登録する場合のものである。先ず、図1
4を用いて、モーションとモーション名とを異なるタイ
ミングで教示する手順を説明する。The teaching procedure of various operations has been described above with reference to FIGS. 14 and 15 show the outline of the flow of the teaching procedure. FIG.
The flow of the teaching procedure shown in FIG. 15 is for registering a motion and a motion name at different timings, and the flow of the teaching procedure shown in FIG. 15 is for registering a motion and a motion name at the same time. First, FIG.
4, a procedure for teaching a motion and a motion name at different timings will be described.
【0109】図14に示すように、ロボット装置1は、
ステップS21において、ユーザーに動きの教示をして
も良いことを知らせる。この場合、例えば、ロボット装
置1は、「動き教えてよ」アクションを再生する。この
動きの教示をしても良いことを知らせるタイミング(ト
リガー)は、上述したように、例えば、「よろこびモー
ション」といった音声入力があったことや、ロボット装
置1が喜びの感情状態が所定状態になった場合としてい
る。そして、ロボット装置1は、首及び両前脚のゲイン
をカットする。これにより、ロボット装置1の教示許可
アクションとしての両前脚を脱力した姿勢が再生され
て、ステップS22においてモーション教示待ち状態に
入る。As shown in FIG. 14, the robot device 1
In step S21, the user is notified that movement may be taught. In this case, for example, the robot apparatus 1 reproduces the “tell me the movement” action. As described above, the timing (trigger) for notifying that the movement may be taught may be, for example, that there is a voice input such as “joy motion” or that the emotional state of joy of the robot apparatus 1 becomes a predetermined state. It is assumed that it has become. Then, the robot device 1 cuts the gain of the neck and both front legs. As a result, the posture in which both front legs are weakened as the teaching permission action of the robot apparatus 1 is reproduced, and a motion teaching waiting state is entered in step S22.
【0110】そして、ロボット装置1は、肉球が押され
ることにより、ステップS23においてモーション(具
体的には、動きデータ)の記録を開始して、肉球をユー
ザーが離したとき、モーション(具体的には、動きデー
タ)の記録を終了する。それから、ロボット装置1は、
ステップS24において、登録されたモーションを再生
する。ロボット装置1は、登録されたモーションの再生
を終了した後、ステップS25において、ロボット装置
1がユーザーにこれで良いか否かを聞く。例えば、ロボ
ット装置1は、登録されたモーションがこれで良いか否
かを聞くために予め用意されているアクションを再生す
る。ロボット装置1は、ユーザーがこれで良いとした場
合、ステップS26に進み、ユーザーがこれではだめだ
とした場合、ステップS21に戻り、モーションの登録
のための処理を再び開始する。Then, the robot apparatus 1 starts recording a motion (specifically, motion data) in step S23 by pressing the paws, and when the user releases the paws, the motion (concrete) is performed. Specifically, the recording of the motion data) ends. Then, the robot device 1
In step S24, the registered motion is reproduced. After ending the reproduction of the registered motion, the robot device 1 asks the user whether or not the robot device 1 is sufficient in step S25. For example, the robot apparatus 1 reproduces an action prepared in advance to ask whether the registered motion is satisfactory. The robot apparatus 1 proceeds to step S26 when the user decides that this is all right, and returns to step S21 when the user decides that this is not possible, and starts the processing for registering the motion again.
【0111】ロボット装置1は、ステップS26におい
て、ユーザーにモーション名を聞く。例えば、ロボット
装置1は、モーション名入力許可アクションとして前脚
を耳にあてる動作を再生する。そして、ロボット装置1
は、持ち受けアクションとして、目(LED)を点滅さ
せたり、「ピロリ」等といった音声出力をする。In step S26, the robot device 1 asks the user for the motion name. For example, the robot apparatus 1 reproduces the action of putting the front leg on the ear as the motion name input permission action. And the robot device 1
Outputs a sound such as blinking the eyes (LED) or “pirori” as a holding action.
【0112】ロボット装置1においては、この待ち受け
アクションの際に、音声入力があったとき、ステップS
27において、その入力された音声が録音(記録)され
る。そして、録音(記録)時間が所定時間経過したと
き、ロボット装置1は、ステップS28において、録音
した音声を再生して、これでモーション名がこれで良い
か否かを聞く。ロボット装置1は、モーション名がこれ
で良いとされた場合、ステップS29に進み、モーショ
ン名がこれで良いとされた場合には、ステップS26に
戻り再びモーション名の入力を促す処理を開始する。In the robot apparatus 1, when there is a voice input during this standby action, the process proceeds to step S.
At 27, the input voice is recorded. Then, when the recording (recording) time has elapsed for a predetermined time, in step S28, the robot apparatus 1 reproduces the recorded voice, and asks whether or not the motion name is satisfactory. If the motion name is determined to be good, the robot device 1 proceeds to step S29. If the motion name is determined to be good, the robot device 1 returns to step S26 and starts the process of prompting the input of the motion name again.
【0113】ロボット装置1は、ステップS29におい
て、終了アクションを再生して、自律モードに復帰す
る。以上のような教示手順により、モーションとモーシ
ョン名とが異なるタイミングで教示され、それらを再生
することができるようになる。In step S29, the robot device 1 reproduces the end action and returns to the autonomous mode. According to the teaching procedure as described above, the motion and the motion name are taught at different timings, and they can be reproduced.
【0114】次に、図15を用いて、モーションとモー
ション名とを同時に教示する手順を説明する。Next, a procedure for simultaneously teaching a motion and a motion name will be described with reference to FIG.
【0115】図15に示すように、ロボット装置1は、
ステップS31において、ユーザーに動きの教示をして
も良いことを知らせる。この場合、例えば、ロボット装
置1は、「動き教えてよ」アクションを再生する。この
動きの教示をしても良いことを知らせるタイミング(ト
リガー)は、上述したように、例えば、「よろこびモー
ション」といった音声入力があったことや、ロボット装
置1が喜びの感情状態が所定状態になった場合としてい
る。そして、ロボット装置1は、首及び両前脚のゲイン
をカットする。これにより、ロボット装置1の教示許可
アクションとしての両前脚を脱力した姿勢が再生され
て、ステップS32においてモーション及びモーション
名の教示待ち状態に入る。As shown in FIG. 15, the robot device 1
In step S31, the user is notified that movement may be taught. In this case, for example, the robot apparatus 1 reproduces the “tell me the movement” action. As described above, the timing (trigger) for notifying that the movement may be taught may be, for example, that there is a voice input such as “joy motion” or that the emotional state of joy of the robot apparatus 1 becomes a predetermined state. It is assumed that it has become. Then, the robot device 1 cuts the gain of the neck and both front legs. As a result, the posture in which both front legs are weakened as the teaching permission action of the robot apparatus 1 is reproduced, and in step S32, a state of waiting for the teaching of the motion and the motion name is entered.
【0116】そして、ロボット装置1は、肉球が押され
ることにより、ステップS33においてモーション及び
モーション名(具体的には、動きデータ及び音響デー
タ)の記録を開始して、肉球をユーザーが離したとき、
モーション及びモーション名(具体的には、動きデータ
及び音響データ)の記録を終了する。それから、ロボッ
ト装置1は、ステップS34において、登録されたモー
ション及びモーション名を再生する。ロボット装置1
は、登録されたモーションの再生を終了した後、ステッ
プS35において、ロボット装置1がユーザーにこれで
良いか否かを聞く。例えば、ロボット装置1は、登録さ
れたモーションがこれで良いか否かを聞くために予め用
意されているアクションを再生する。ロボット装置1
は、ユーザーがこれで良いとした場合、ステップS36
に進み、終了のアクションを再生して、ユーザーがこれ
ではだめだとした場合、ステップS31に戻り、モーシ
ョンの登録のための処理を再び開始する。Then, the robot apparatus 1 starts recording the motion and the motion name (specifically, the motion data and the sound data) in step S33 when the paws are pressed, and the user releases the paws. When
The recording of the motion and the motion name (specifically, the motion data and the sound data) ends. Then, in step S34, the robot device 1 reproduces the registered motion and motion name. Robot device 1
After ending the reproduction of the registered motion, in step S35, the robot apparatus 1 asks the user whether or not this is all right. For example, the robot apparatus 1 reproduces an action prepared in advance to ask whether the registered motion is satisfactory. Robot device 1
If the user decides that this is the case, step S36
Then, the action of the end is reproduced, and if the user cannot do so, the process returns to step S31, and the processing for registering the motion is started again.
【0117】以上のような教示手順により、モーション
及びモーション名が同時に教示されるようになる。According to the above-described teaching procedure, the motion and the motion name are taught simultaneously.
【0118】以上のようにロボット装置1を構成するこ
とにより、ロボット装置1は、ポテンショメータ、マイ
ク23やCCDカメラ20から入力されたデータを計測
して、それを記憶手段に記憶して、その計測データに基
づいて、脚部ユニット(具体的には、アクチュエー
タ)、スピーカ24及び図示しないLED等の表出手段
を制御することにより、取得した計測データに応じて表
出手段を駆動しているので、編集器機等を使用せずに、
任意の動作が教示されることが可能になる。これによ
り、ユーザーはあたかもペットに芸を教えるような感覚
でロボット装置1に接することが可能となり、エンタテ
インメント性の高いロボットシステムが実現される。By configuring the robot apparatus 1 as described above, the robot apparatus 1 measures data input from the potentiometer, the microphone 23 and the CCD camera 20, stores the data in the storage means, and measures the data. By controlling the leg unit (specifically, the actuator), the speaker 24, and the not-shown LED or other expression means based on the data, the expression means is driven in accordance with the acquired measurement data. , Without using editing equipment, etc.
Any action can be taught. This allows the user to contact the robot device 1 as if teaching a trick to a pet, and a robot system with high entertainment properties is realized.
【0119】なお、上述の実施の形態では、教示する対
象をモーション(動き)として説明しているが、これに
限定されるものではない。すなわち例えば、教示する対
象は、音響や画像等であってもよい。また、上述の実施
の形態では、音響をトリガーとし、登録されている所定
の動作(上述の例では動き)を再生する場合について説
明しているが、これに限定されるものではない。例え
ば、ロボット装置1は、所定の画像や所定の動きをトリ
ガーとして、登録されている動作を再生することもでき
る。例えば、これにより、ロボット装置1は、音響と画
像とを対応させて登録させることもできる。この場合、
ロボット装置1は、所定の発光レベルが入力されたと
き、教示されている音響を出力するようになる。In the above embodiment, the object to be taught is described as a motion, but the present invention is not limited to this. That is, for example, the object to be taught may be a sound, an image, or the like. Further, in the above-described embodiment, a case has been described in which a registered predetermined operation (movement in the above example) is reproduced using sound as a trigger, but the present invention is not limited to this. For example, the robot apparatus 1 can also reproduce a registered motion by using a predetermined image or a predetermined motion as a trigger. For example, thereby, the robot apparatus 1 can register the sound and the image in association with each other. in this case,
When a predetermined light emission level is input, the robot apparatus 1 outputs a taught sound.
【0120】また、画像の教示については、例えば、ロ
ボット装置1は、CCDカメラ20から撮像された画像
を、パターンマッチングに基づいて所定のパターンとし
て認識できた場合に対応される発光データを登録するよ
うにする。或いは、図16に示すように、撮像された画
像のR,G,Bの特徴からなる画像特徴空間と発光デー
タの特徴からなる発光データ特徴空間とに基づいて、画
像特徴空間における撮像された画像から写像される発光
データ特徴空間上で発光データを得ることもできる。こ
れにより、ロボット装置1は、再生の際には、入力され
た画像に対応される発光データに基づいて目(LED)
を駆動するようになる。For teaching an image, for example, the robot apparatus 1 registers light emission data corresponding to a case where an image captured by the CCD camera 20 can be recognized as a predetermined pattern based on pattern matching. To do. Alternatively, as shown in FIG. 16, the captured image in the image feature space is based on the image feature space including the R, G, and B features of the captured image and the luminescence data feature space including the features of the luminescence data. The emission data can also be obtained on the emission data feature space mapped from. Thereby, the robot apparatus 1 performs an eye (LED) based on the emission data corresponding to the input image at the time of reproduction.
Will be driven.
【0121】また、上述の実施の形態では、ある対象が
教示された場合、その対象を再生することについて説明
した。例えば、ロボット装置1は、音声が教示された場
合、これを再び音声として出力していた。しかし、これ
に限定されるものではなく、例えば、ロボット装置1
は、音声による教示がなされても、これを動き動作に変
換してその音声入力に対応される動き動作を再生するこ
ともできる。これを図17を用いて説明する。Further, in the above-described embodiment, when an object is taught, that object is reproduced. For example, when a voice is taught, the robot device 1 outputs the voice again as a voice. However, the present invention is not limited to this.
Can be converted into a motion action even if a voice instruction is given, and the motion action corresponding to the voice input can be reproduced. This will be described with reference to FIG.
【0122】図17に示すように、時系列データとして
音響データが入力された場合において、この音響データ
(図17中(A))を、動きデータ(図17中(B))
に変換する。この例では、時系列長TのM次元音響デー
タを時系列長Tの1次元動きデータに変換する場合を示
している。例えば、このような変換は、(3)式に示す
ような変換式J(t)によって実現される。As shown in FIG. 17, when audio data is input as time-series data, this audio data ((A) in FIG. 17) is replaced with motion data ((B) in FIG. 17).
Convert to This example shows a case where M-dimensional acoustic data having a time sequence length T is converted to one-dimensional motion data having a time sequence length T. For example, such a conversion is realized by a conversion formula J (t) as shown in the formula (3).
【0123】[0123]
【数3】 (Equation 3)
【0124】ここで、S_min及びS_maxは時刻tにおけ
る音響測定値S(t)の計測可能範囲であり、J_min及
びJ_maxは時刻tにおける再生する関節目標値J(t)
の動作可能範囲の動きデータの採りうる最小値及び最大
値である。Here, S_min and S_max are the measurable ranges of the acoustic measurement value S (t) at time t, and J_min and J_max are the joint target values J (t) to be reproduced at time t.
Are the minimum and maximum possible values of the motion data in the operable range.
【0125】このようなデータの変換により、ロボット
装置1は、教示されものとは異なる行動を表出すること
ができるようになる。By such data conversion, the robot apparatus 1 can express an action different from that taught.
【0126】また、同様に、ロボット装置1は、動きに
よる教示がなされた場合に、これを発光動作に変換する
こともできる。これを図18を用いて説明する。Similarly, when the robot apparatus 1 is taught by movement, the robot apparatus 1 can convert the instruction into a light-emitting operation. This will be described with reference to FIG.
【0127】動きデータから発光データの変換には、例
えば、図18中(A)に示すような関節角度の絶対値空
間と、図18中(B)に示すような発光データの特徴空
間を使用する。For converting the motion data to the light emission data, for example, an absolute value space of the joint angle as shown in FIG. 18A and a feature space of the light emission data as shown in FIG. 18B are used. I do.
【0128】図18中(A)に示す関節角度の絶対値空
間は、例えば、第1の関節の角度の絶対値を示す|J1
|と、第2の関節の角度の絶対値を示す|J2|とから
なる。例えば、第1の関節は右前脚の第1関節であり、
第2の関節は左前脚の第1の関節であり、角度の絶対値
は、第1及び第2の関節の角度を検出ポテンショメータ
により検出される値の絶対値である。また、このデータ
空間において、|j1|maxは第1の関節が採りうる角度
の最大値を示す、|j2|maxは第2の関節が採りうる角
度の最大値を示す。The absolute value space of the joint angle shown in FIG. 18A indicates, for example, the absolute value of the angle of the first joint | J 1
And | J 2 | indicating the absolute value of the angle of the second joint. For example, the first joint is the first joint of the right front leg,
The second joint is the first joint of the left front leg, and the absolute value of the angle is the absolute value of the value detected by the potentiometer that detects the angles of the first and second joints. Also, in this data space, | j 1 | max indicates the maximum value of the angle that the first joint can take, and | j 2 | max indicates the maximum value of the angle that the second joint can take.
【0129】また、図18中(B)に示す発光データの
特徴空間は、例えば、LEDの発光データによって構成
される空間であって、第1の色の発光データを示すLE
D1と、第2の色の発光データを示すLED2とからな
る。このデータ空間において、led1_maxは第1の色の発
光データの最大値を示し、led2_maxは第2の色の発光デ
ータの最大値を示す。例えば、各発光データはPWM信
号である。以上のようなデータ空間を使用して次のよう
に変換をすることができる。また、例えば、第1の色は
赤色であり、第2の色は青色である。The characteristic space of the light emission data shown in FIG. 18B is, for example, a space constituted by the light emission data of the LEDs, and is an LE indicating the light emission data of the first color.
And D 1, consisting of LED 2 Metropolitan showing the light emission data for the second color. In this data space, of led 1 _max indicates the maximum value of the light emission data for the first color, of led 2 _max indicates the maximum value of the light emission data for the second color. For example, each light emission data is a PWM signal. Using the above data space, conversion can be performed as follows. Further, for example, the first color is red and the second color is blue.
【0130】例えば、動きが教示されて、図18中
(A)に示すように、第1及び第2の関節の角度の絶対
値として|j1|及び|j2|が入力された場合、図18
中(B)に示すように、LEDの赤色の発光データ及び
LEDの青色の発光データとしてのled1及びled2に変換
する。For example, when movement is taught and | j 1 | and | j 2 | are input as absolute values of the angles of the first and second joints as shown in FIG. FIG.
As shown in the middle (B), the data is converted into LED 1 and LED 2 as red light emission data of the LED and blue light emission data of the LED.
【0131】例えば、led1及びled2の変換式は、(4)
式及び(5)式に示すようになる。For example, the conversion formula of led 1 and led 2 is (4)
It becomes as shown in Formula and Formula (5).
【0132】[0132]
【数4】 (Equation 4)
【0133】[0133]
【数5】 (Equation 5)
【0134】以上のようなデータの変換により、ロボッ
ト装置1は、ある動きを、LEDによる紫色の発光動作
に変換することができるようになる。By the above data conversion, the robot apparatus 1 can convert a certain movement into a purple light emission operation by the LED.
【0135】なお、この例では、計測データ(教示デー
タ)とされる音響データが動きデータに変換された場合
について説明しているが、これに限定されるものではな
い。この組み合わせとは異なる変換をすることもでき
る。すなわち例えば、ロボット装置1は、発光データが
教示された場合において、これを音響データに変換して
音声を発光データに対応される音声を出力するといった
ようにである。[0135] In this example, the case where acoustic data used as measurement data (teaching data) is converted into motion data is described, but the present invention is not limited to this. Conversions different from this combination can also be made. That is, for example, when the light emission data is taught, the robot apparatus 1 converts the light emission data into acoustic data and outputs a sound corresponding to the light emission data.
【0136】なお、図19乃至図21には、教示データ
の取り込みのタイミングをとるために使用される上述の
いわゆる肉球センサの具体的な構成と示している。肉球
センサ7は、脚部ユニット3A〜3Dそれぞれに設けら
れている。左前脚の脚部ユニット3Aを例に挙げて肉球
センサ7を説明する。FIGS. 19 to 21 show a specific configuration of the above-mentioned so-called meat ball sensor used for setting the timing of taking in the teaching data. The meat ball sensor 7 is provided in each of the leg units 3A to 3D. The meat ball sensor 7 will be described using the leg unit 3A of the left front leg as an example.
【0137】脚部ユニット3Aは、図19及び図20に
示すように、一端が胴体部ユニット2の側面に取り付け
られている股部3AAと、股部3AAの他端に取り付け
られている脛部3ABとを備えている。ここで、股部3
AAが胴体部ユニット2に対してアクチュエータによっ
て駆動されるように取り付けられており、脛部3ABが
股部3AAに対してアクチュエータによって駆動される
ように取り付けられている。As shown in FIGS. 19 and 20, the leg unit 3A has a crotch portion 3AA having one end attached to a side surface of the body unit 2 and a shin portion attached to the other end of the crotch portion 3AA. 3AB. Here, crotch 3
AA is attached to the torso unit 2 so as to be driven by an actuator, and the shin part 3AB is attached to the crotch part 3AA so as to be driven by the actuator.
【0138】脛部3ABの他端には、甲部3ACが備え
られている。甲部3ACには、足裏面とされる位置に、
半球状の接地検出用のタッチセンサとされる肉球センサ
7が配置されており、つま先部位には、例えば3本の爪
部3ADが備えられてる。At the other end of the shin part 3AB, an upper part 3AC is provided. In the upper part 3AC,
A hemispherical meat ball sensor 7 serving as a touch sensor for detecting a ground contact is disposed, and the toe portion is provided with, for example, three claws 3AD.
【0139】甲部3ACの足裏面に配置せれている肉球
センサ7は、図19の矢印P−P断面を拡大して示す図
21に示すように、NBR等のゴム材等からなる半円殻
状の接地部7Aの内側面に設けられる複数の突起部7A
A〜7ACのうちの中心部の突起部7ABに一端がフラ
ンジ形状でなる円筒状の第1の押上げ部材(以下、フラ
ンジ部材という。)7Bの当該一端が固着されている。The meat ball sensor 7 disposed on the sole surface of the instep 3AC has a semicircle made of rubber material such as NBR as shown in FIG. A plurality of protrusions 7A provided on the inner surface of the shell-shaped grounding portion 7A
One end of a cylindrical first push-up member (hereinafter, referred to as a flange member) 7B having one end in a flange shape is fixed to the central projection 7AB of A to 7AC.
【0140】これと共にこの肉球センサ7は、接地部7
Aの内側面に各突起部7AA〜7ACを介して中心部に
孔が穿設された当該接地部7Aよりも小さな半円殻状の
第2の押上げ部材(以下、半円殻部材という。)7C
が、その孔にフランジ部材7Bを貫通させるように接続
され、かつこのフランジ部材7Bは、その他端を円筒状
のスライダ7Dの一端側の中心部に穿設された溝7DA
に沿ってスライド自在に接続されるように形成されてい
る。At the same time, the meat ball sensor 7 is
A second push-up member (hereinafter, referred to as a semi-circular shell member) having a semi-circular shell shape smaller than the ground contact portion 7A in which a hole is formed in the center of the inner surface of A through each of the protrusions 7AA to 7AC. ) 7C
Is connected to the hole so as to penetrate the flange member 7B, and the flange member 7B has another end formed in a groove 7DA formed in the center of one end of the cylindrical slider 7D.
Are formed so as to be slidably connected along.
【0141】そして、この肉球センサ7は、接地部7A
が路面等に中心部から垂直に接触した場合、この接地部
7Aの突起部7ABがフランジ部材7B及び半円殻部材
7Cの中心部によってスライダ7Dを押し上げ、当該ス
ライダ7Dの他端側がスイッチ7Eと接触することによ
り、この肉球センサ7の接地が検出されるようになされ
ている。The pawl sensor 7 is provided with a grounding portion 7A.
Is perpendicular to the road surface from the center, the protrusion 7AB of the grounding portion 7A pushes up the slider 7D by the center of the flange member 7B and the semicircular shell member 7C, and the other end of the slider 7D is connected to the switch 7E. By contact, the grounding of the meat ball sensor 7 is detected.
【0142】また、この肉球センサ7は、この接地部7
Aが路面等に斜めから接触した場合、この接地部7Aの
突起部7AA又は7ACが半円殻部材7Cを押し上げる
ことにより、この半円殻部材7Cがフランジ部材7Bの
側面を沿ってスライダ7Dを押し上げ、上述のように接
地部7Aが路面等に中心部から垂直に接触した場合と同
様にスライダ7Dの他端側がスイッチ7Eと接触するこ
とにより、当該肉球センサ7の接地が検出されるように
なされている。The meat ball sensor 7 is connected to the grounding portion 7.
When A comes into contact with the road surface or the like obliquely, the protrusion 7AA or 7AC of the ground contact portion 7A pushes up the semicircular shell member 7C, so that the semicircular shell member 7C moves the slider 7D along the side surface of the flange member 7B. When the other end of the slider 7D comes into contact with the switch 7E in the same manner as when the grounding portion 7A vertically contacts the road surface or the like from the center as described above, the grounding of the meat ball sensor 7 is detected. It has been made.
【0143】このようにしてこの肉球センサ7では、接
地部7Aと路面との接触角度に関係なく、スライダ7D
の他端側がスイッチ7Eに接触するか否かにより、当該
接地部7Aが路面に接地したか否かを均一に検出するこ
とができるようになされている。As described above, in the meat ball sensor 7, regardless of the contact angle between the ground contact portion 7A and the road surface, the slider 7D
It is possible to uniformly detect whether or not the grounding section 7A is grounded on the road surface by determining whether or not the other end of the grounding section contacts the switch 7E.
【0144】以上のように、ロボット装置1には、接地
しているか否かなどを検出するための肉球センサ7が各
脚部ユニット3A〜3Dに設けられている。ロボット装
置1は、このような肉球センサ7により、ユーザーによ
る押圧を検出して、教示開始時刻を検出し、すなわちデ
ータの計測を開始し、さらに、教示終了時刻を検出す
る、すなわちデータの計測を終了する。As described above, in the robot device 1, the meat ball sensors 7 for detecting whether or not the robot is in contact with the ground are provided in each of the leg units 3A to 3D. The robot device 1 detects the user's pressing by such a meat ball sensor 7, detects the teaching start time, that is, starts the data measurement, and further detects the teaching end time, that is, measures the data. To end.
【0145】[0145]
【発明の効果】本発明に係るロボット装置は、教示タイ
ミングにて外部から入力された教示データを計測する計
測手段と、計測手段にて取得した教示データが記憶され
る記憶手段と、表出手段の駆動を制御する制御手段とを
備え、制御手段が、記憶手段に記憶された教示データに
基づいて、表出手段の駆動を制御することで、計測手段
にて取得した教示データに基づいて制御手段が表出手段
の駆動を制御することができる。これにより、ロボット
装置は、外部入力された教示データに応じて表出手段を
駆動しているので、編集器機等を使用せずに、任意の動
作が教示されることが可能になる。According to the robot apparatus of the present invention, a measuring means for measuring teaching data inputted from outside at a teaching timing, a storage means for storing the teaching data acquired by the measuring means, and a displaying means And control means for controlling the driving of the expression means based on the teaching data stored in the storage means, whereby the control means controls the driving of the expression means based on the teaching data obtained by the measurement means. The means can control the driving of the expression means. Thus, since the robot device drives the expression unit in accordance with the teaching data input from the outside, it is possible to teach an arbitrary operation without using an editing device or the like.
【0146】また、本発明に係るロボット装置の動作教
示方法は、教示タイミングにて外部から入力された教示
データをロボット装置が計測し、計測して教示データを
記憶手段に記憶し、記憶手段に記憶された教示データに
基づいて、ロボット装置が表出手段の駆動を制御するこ
とにより、ロボット装置においては取得した教示データ
に基づいて表出手段の駆動を制御することができる。こ
れにより、ロボット装置は、外部から入力された教示デ
ータに応じて表出手段を駆動しているので、編集器機等
を使用せずに、任意の動作が教示されることが可能にな
るIn the method for teaching operation of a robot apparatus according to the present invention, the robot apparatus measures teaching data input from the outside at the teaching timing, measures and stores the teaching data in the storage means, and stores the teaching data in the storage means. The robot device controls the driving of the expression device based on the stored teaching data, so that the robot device can control the driving of the expression device based on the acquired teaching data. Accordingly, since the robot device drives the expression unit in accordance with the teaching data input from the outside, it is possible to teach an arbitrary operation without using an editing device or the like.
【図1】本発明の実施の形態であるロボット装置の外観
構成を示す斜視図である。FIG. 1 is a perspective view illustrating an external configuration of a robot device according to an embodiment of the present invention.
【図2】上述のロボット装置の回路構成を示すブロック
図である。FIG. 2 is a block diagram showing a circuit configuration of the robot device described above.
【図3】上述のロボット装置のソフトウェア構成を示す
ブロック図である。FIG. 3 is a block diagram illustrating a software configuration of the robot device described above.
【図4】上述のロボット装置のソフトウェア構成におけ
るミドル・ウェア・レイヤの構成を示すブロック図であ
る。FIG. 4 is a block diagram showing a configuration of a middleware layer in a software configuration of the robot device described above.
【図5】上述のロボット装置のソフトウェア構成におけ
るアプリケーション・レイヤの構成を示すブロック図で
ある。FIG. 5 is a block diagram showing a configuration of an application layer in the software configuration of the robot device described above.
【図6】上述のアプリケーション・レイヤの行動モデル
ライブラリの構成を示すブロック図である。FIG. 6 is a block diagram showing a configuration of the behavior model library of the application layer.
【図7】ロボット装置の行動決定のための情報となる有
限確率オートマトンを説明するために使用した図であ
る。FIG. 7 is a diagram used to explain a finite probability automaton that is information for determining an action of the robot apparatus.
【図8】有限確率オートマトンの各ノードに用意された
状態遷移表を示す図である。FIG. 8 is a diagram showing a state transition table prepared for each node of the finite probability automaton.
【図9】教示とその教示した内容の再生の具体例を示す
図である。FIG. 9 is a diagram showing a specific example of teaching and reproduction of the teaching content.
【図10】教示データのフォーマットを示す図である。FIG. 10 is a diagram showing a format of teaching data.
【図11】モーションとモーション名とを異なるタイミ
ングで教示する教示手順を示す図である。FIG. 11 is a diagram showing a teaching procedure for teaching a motion and a motion name at different timings.
【図12】モーション及びモーション名を同時に教示す
る教示手順を示す図である。FIG. 12 is a diagram showing a teaching procedure for simultaneously teaching a motion and a motion name.
【図13】モーション名が別のシーケンスによって教示
された場合のモーションを教示する教示手順を示す図で
ある。FIG. 13 is a diagram showing a teaching procedure for teaching a motion when a motion name is taught by another sequence.
【図14】モーションとモーション名とを異なるタイミ
ングで教示する教示手順フローを示す図である。FIG. 14 is a diagram showing a teaching procedure flow for teaching a motion and a motion name at different timings.
【図15】モーション及びモーション名を同時に教示す
る教示手順フローを示す図である。FIG. 15 is a diagram showing a teaching procedure flow for teaching a motion and a motion name at the same time.
【図16】画像から発光データを得るための説明に使用
した図である。FIG. 16 is a diagram used for explanation for obtaining light emission data from an image.
【図17】教示データを変換する場合の具体例を示す図
である。FIG. 17 is a diagram illustrating a specific example of a case where teaching data is converted;
【図18】教示された動きを発光データに変換すること
についての説明に使用した図である。FIG. 18 is a diagram used for describing conversion of a taught motion into light emission data.
【図19】脚部ユニット及び肉球センサの外観構成を示
す側面図である。FIG. 19 is a side view showing an external configuration of a leg unit and a meat ball sensor.
【図20】脚部ユニット及び肉球センサの外観構成を示
す正面図である。FIG. 20 is a front view showing an external configuration of a leg unit and a meat ball sensor.
【図21】脚部ユニット及び肉球センサの外観構成を示
す断面図である。FIG. 21 is a cross-sectional view showing an external configuration of a leg unit and a meat ball sensor.
1 ロボット装置、3A,3B,3C,3D 脚部ユニ
ット、10 CPU、23 マイク、24 スピーカ、
251〜25n アクチュエータ、261〜26nポテンシ
ョメータ1 robot unit, 3A, 3B, 3C, 3D leg unit, 10 CPU, 23 microphone, 24 speaker,
25 1 to 25 n actuator, 26 1 to 26 n potentiometer
Claims (13)
部状態に基づいて上記表出手段の駆動状態を変化させる
ロボット装置において、 教示タイミングにて外部から入力された教示データを計
測する計測手段と、 上記計測手段にて取得した教示データが記憶される記憶
手段と、 上記表出手段の駆動を制御する制御手段とを備え、 上記制御手段は、上記記憶手段に記憶された上記教示デ
ータに基づいて、上記表出手段の駆動を制御することを
特徴とするロボット装置。1. A robot apparatus comprising an expression means for changing a driving state of the expression means based on external information and / or an internal state, wherein measurement for measuring teaching data inputted from outside at a teaching timing. Means, storage means for storing the teaching data obtained by the measuring means, and control means for controlling the driving of the display means, wherein the control means comprises the teaching data stored in the storage means. A robot device that controls the driving of the above-mentioned expression means on the basis of (1).
又は発光手段の内の少なくとも1つであることを特徴と
する請求項1記載のロボット装置。2. The robot apparatus according to claim 1, wherein said display means is at least one of a movable part, a sound output means, and a light emitting means.
上記可動部が変位された変位データを上記教示データと
して計測し、 上記制御手段は、上記変位データに基づいて上記可動部
の駆動を制御することを特徴とする請求項1記載のロボ
ット装置。3. The expression means is a movable part. The measurement means measures displacement data obtained by displacing the movable part by applying an external force at a teaching timing as the teaching data. 2. The robot apparatus according to claim 1, wherein driving of the movable section is controlled based on the displacement data.
から入力された音響データを上記教示データとして計測
し、 上記制御手段は、上記音響データに基づいて上記表出手
段としての音響出力手段の駆動を制御することを特徴と
する請求項1記載のロボット装置。4. A sound input means, wherein the measuring means measures sound data inputted from the sound input means at the teaching timing as the teaching data, and the control means based on the sound data. 2. The robot apparatus according to claim 1, wherein the driving of the sound output means as the expression means is controlled.
から入力された画像データを上記教示データとして計測
し、 上記制御手段は、上記画像データに基づいて上記表出手
段としての発光手段の駆動を制御することを特徴とする
請求項1記載のロボット装置。5. An image input means, wherein said measuring means measures image data input from said image input means at said teaching timing as said teaching data, and said control means based on said image data. 2. The robot apparatus according to claim 1, wherein the driving of the light emitting means as the displaying means is controlled.
他の属性の駆動データとされる教示データに変換し、 上記制御手段は、上記変換された教示データに基づい
て、上記表出手段の駆動を制御することを特徴とする請
求項1記載のロボット装置。6. The teaching data stored in the storage means is converted into teaching data which is drive data of another attribute, and the control means controls the display means based on the converted teaching data. The robot device according to claim 1, wherein the driving is controlled.
って、 上記計測手段は、教示タイミングの際に外部から入力さ
れた複数種類の教示データを計測し、 上記記憶手段には、上記複数種類の教示データが対応付
けされて記憶され、 上記制御手段は、対応付けされた上記複数種類の教示デ
ータに基づいて上記複数種類の表出部を駆動することを
特徴とする請求項1記載のロボット装置。7. The expression means is a plurality of types of expression units, wherein the measurement means measures a plurality of types of teaching data input from outside at the time of teaching, and the storage means The plurality of types of teaching data are stored in association with each other, and the control means drives the plurality of types of expression units based on the plurality of types of associated teaching data. The robot device according to 1.
数種類の教示データに基づいて上記複数種類の表出部を
同期して駆動することを特徴とする請求項7記載のロボ
ット装置。8. The robot apparatus according to claim 7, wherein the control means drives the plurality of types of expression units in synchronization based on the plurality of types of teaching data associated with each other.
ータとして計測して、 上記記憶手段には、時系列データとされて教示データが
記憶されることを特徴とする請求項1記載のロボット装
置。9. The robot according to claim 1, wherein the measuring means measures the teaching data as time-series data, and the storage means stores the teaching data as time-series data. apparatus.
間が制御されており、 上記記憶手段には、上記計測期間内に得られた時系列デ
ータが記憶されることを特徴とする請求項9記載のロボ
ット装置。10. The measurement means controls a measurement period of teaching data, and the storage means stores time-series data obtained during the measurement period. The robot device as described.
て姿勢が遷移自在とされており、教示の際には、教示可
能な所定の姿勢に遷移することを特徴とする請求項1記
載のロボット装置。11. The robot according to claim 1, wherein the posture can be freely changed based on the external information and / or the internal state, and when teaching, the robot is changed to a predetermined posture that can be taught. apparatus.
態、学習状態又は成長状態の内の少なくとも1つである
ことを特徴とする請求項1記載のロボット装置。12. The robot apparatus according to claim 1, wherein the internal state is at least one of an instinct state, an emotion state, a learning state, and a growth state.
内部状態に基づいて上記表出手段の駆動状態を変化させ
るロボット装置に対する上記表出手段の駆動を教示する
ロボット装置の動作教示方法であって、 教示タイミングにて外部から入力された教示データをロ
ボット装置が計測し、 計測して上記教示データを記憶手段に記憶し、 上記記憶手段に記憶された上記教示データに基づいて、
ロボット装置が上記表出手段の駆動を制御することを特
徴とするロボット装置の動作教示方法。13. A method for teaching operation of a robot device which includes a displaying device and which teaches driving of the displaying device to a robot device which changes a driving state of the displaying device based on external information and / or an internal state. The robot device measures teaching data input from outside at the teaching timing, measures and stores the teaching data in the storage means, and based on the teaching data stored in the storage means,
An operation teaching method for a robot device, wherein the robot device controls the driving of the expression means.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2000308297A JP2002113680A (en) | 2000-10-06 | 2000-10-06 | Robot device and teaching method for its operation |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2000308297A JP2002113680A (en) | 2000-10-06 | 2000-10-06 | Robot device and teaching method for its operation |
Publications (1)
Publication Number | Publication Date |
---|---|
JP2002113680A true JP2002113680A (en) | 2002-04-16 |
Family
ID=18788630
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2000308297A Pending JP2002113680A (en) | 2000-10-06 | 2000-10-06 | Robot device and teaching method for its operation |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP2002113680A (en) |
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2020534567A (en) * | 2017-09-20 | 2020-11-26 | アリババ・グループ・ホールディング・リミテッドAlibaba Group Holding Limited | Robot interaction methods and devices |
-
2000
- 2000-10-06 JP JP2000308297A patent/JP2002113680A/en active Pending
Cited By (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2020534567A (en) * | 2017-09-20 | 2020-11-26 | アリババ・グループ・ホールディング・リミテッドAlibaba Group Holding Limited | Robot interaction methods and devices |
US11548147B2 (en) | 2017-09-20 | 2023-01-10 | Alibaba Group Holding Limited | Method and device for robot interactions |
JP7260221B2 (en) | 2017-09-20 | 2023-04-18 | アリババ・グループ・ホールディング・リミテッド | Robot interaction method and device |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
EP1151779B1 (en) | Robot and action deciding method for robot | |
US6889117B2 (en) | Robot apparatus and method and system for controlling the action of the robot apparatus | |
EP1120740B1 (en) | Robot device, its control method, and recorded medium | |
KR20030007533A (en) | Operational control method, program, and recording media for robot device, and robot device | |
JP2003039363A (en) | Robot device, action learning method therefor, action learning program thereof, and program recording medium | |
WO2001039932A1 (en) | Robot apparatus, control method thereof, and method for judging character of robot apparatus | |
WO2000043167A1 (en) | Robot device and motion control method | |
WO2003097308A1 (en) | Robot device and robot control method | |
JP2002239963A (en) | Robot device and its action control method, program, and recoding medium of robot device | |
JP3277500B2 (en) | Robot device | |
JP2004298975A (en) | Robot device and obstacle searching method | |
US6697708B2 (en) | Robot apparatus and robot apparatus motion control method | |
JP2002219677A (en) | Robot system, and method of controlling behavior of robot system | |
JP2002113680A (en) | Robot device and teaching method for its operation | |
JP2003340760A (en) | Robot device and robot control method, recording medium and program | |
JP2002205289A (en) | Action control method for robot device, program, recording medium and robot device | |
JP2002120183A (en) | Robot device and input information detecting method for robot device | |
JP2001157980A (en) | Robot device, and control method thereof | |
JP2005169567A (en) | Content reproducing system, content reproducing method and content reproducing device | |
JP2001157979A (en) | Robot device, and control method thereof | |
JP2001154707A (en) | Robot device and its controlling method | |
JP2001157981A (en) | Robot device and control method thereof | |
JP2004130428A (en) | Robot device, action control method for robot device, recording medium and program | |
JP2003136439A (en) | Robot device, and method and program for controlling gait of robot device | |
JP2003071765A (en) | Robot device and input method therefor |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20070305 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20080918 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20080924 |
|
A521 | Written amendment |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20081125 |
|
A02 | Decision of refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A02 Effective date: 20090630 |