JP2003266345A - Path planning device, path planning method, path planning program, and moving robot device - Google Patents
Path planning device, path planning method, path planning program, and moving robot deviceInfo
- Publication number
- JP2003266345A JP2003266345A JP2002073770A JP2002073770A JP2003266345A JP 2003266345 A JP2003266345 A JP 2003266345A JP 2002073770 A JP2002073770 A JP 2002073770A JP 2002073770 A JP2002073770 A JP 2002073770A JP 2003266345 A JP2003266345 A JP 2003266345A
- Authority
- JP
- Japan
- Prior art keywords
- route
- planning
- obstacle
- unobserved
- line
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Withdrawn
Links
- 238000000034 method Methods 0.000 title claims description 54
- 238000011156 evaluation Methods 0.000 claims abstract description 23
- 230000033001 locomotion Effects 0.000 claims description 71
- 230000008569 process Effects 0.000 claims description 23
- 238000012854 evaluation process Methods 0.000 claims description 7
- 230000000007 visual effect Effects 0.000 claims description 4
- 230000010365 information processing Effects 0.000 claims description 2
- 238000004364 calculation method Methods 0.000 abstract description 38
- 238000012545 processing Methods 0.000 abstract description 35
- 230000009471 action Effects 0.000 description 61
- 238000010586 diagram Methods 0.000 description 35
- 230000008451 emotion Effects 0.000 description 29
- 230000007704 transition Effects 0.000 description 27
- 230000000875 corresponding effect Effects 0.000 description 23
- 230000004807 localization Effects 0.000 description 21
- 230000006399 behavior Effects 0.000 description 18
- 238000009826 distribution Methods 0.000 description 18
- 238000006243 chemical reaction Methods 0.000 description 16
- 238000001514 detection method Methods 0.000 description 14
- 238000000605 extraction Methods 0.000 description 14
- 239000011159 matrix material Substances 0.000 description 14
- 230000015654 memory Effects 0.000 description 14
- 230000014509 gene expression Effects 0.000 description 11
- 210000004394 hip joint Anatomy 0.000 description 11
- 210000002414 leg Anatomy 0.000 description 11
- 210000002683 foot Anatomy 0.000 description 9
- 244000145841 kine Species 0.000 description 7
- 238000012360 testing method Methods 0.000 description 7
- 210000000544 articulatio talocruralis Anatomy 0.000 description 6
- 230000006870 function Effects 0.000 description 6
- 210000000323 shoulder joint Anatomy 0.000 description 6
- 238000003860 storage Methods 0.000 description 6
- 210000003857 wrist joint Anatomy 0.000 description 6
- 230000008859 change Effects 0.000 description 5
- 210000002310 elbow joint Anatomy 0.000 description 5
- 235000014548 Rubus moluccanus Nutrition 0.000 description 4
- 238000012790 confirmation Methods 0.000 description 4
- 230000001276 controlling effect Effects 0.000 description 4
- 230000000694 effects Effects 0.000 description 4
- 230000001133 acceleration Effects 0.000 description 3
- 238000000546 chi-square test Methods 0.000 description 3
- 238000004891 communication Methods 0.000 description 3
- 230000007613 environmental effect Effects 0.000 description 3
- 210000000245 forearm Anatomy 0.000 description 3
- 210000000629 knee joint Anatomy 0.000 description 3
- 238000005259 measurement Methods 0.000 description 3
- 230000004044 response Effects 0.000 description 3
- 210000001364 upper extremity Anatomy 0.000 description 3
- 230000003044 adaptive effect Effects 0.000 description 2
- 230000036528 appetite Effects 0.000 description 2
- 235000019789 appetite Nutrition 0.000 description 2
- 230000003247 decreasing effect Effects 0.000 description 2
- 230000002996 emotional effect Effects 0.000 description 2
- 238000009434 installation Methods 0.000 description 2
- 210000001503 joint Anatomy 0.000 description 2
- 210000003141 lower extremity Anatomy 0.000 description 2
- 238000004519 manufacturing process Methods 0.000 description 2
- 230000007246 mechanism Effects 0.000 description 2
- 239000004065 semiconductor Substances 0.000 description 2
- 230000035945 sensitivity Effects 0.000 description 2
- 230000006403 short-term memory Effects 0.000 description 2
- 101150106709 ARC1 gene Proteins 0.000 description 1
- 101100013575 Arabidopsis thaliana FTSHI1 gene Proteins 0.000 description 1
- 102100033041 Carbonic anhydrase 13 Human genes 0.000 description 1
- 101100321669 Fagopyrum esculentum FA02 gene Proteins 0.000 description 1
- 241000282326 Felis catus Species 0.000 description 1
- 241000282412 Homo Species 0.000 description 1
- 101000867860 Homo sapiens Carbonic anhydrase 13 Proteins 0.000 description 1
- 101000577121 Homo sapiens Monocarboxylate transporter 3 Proteins 0.000 description 1
- 101000577126 Homo sapiens Monocarboxylate transporter 4 Proteins 0.000 description 1
- 241001465754 Metazoa Species 0.000 description 1
- 102100025275 Monocarboxylate transporter 3 Human genes 0.000 description 1
- 206010039740 Screaming Diseases 0.000 description 1
- 230000004913 activation Effects 0.000 description 1
- 150000001768 cations Chemical class 0.000 description 1
- 238000004140 cleaning Methods 0.000 description 1
- 239000013256 coordination polymer Substances 0.000 description 1
- 230000002596 correlated effect Effects 0.000 description 1
- 230000001419 dependent effect Effects 0.000 description 1
- 238000013461 design Methods 0.000 description 1
- 239000000284 extract Substances 0.000 description 1
- 210000003414 extremity Anatomy 0.000 description 1
- 230000012447 hatching Effects 0.000 description 1
- 210000001624 hip Anatomy 0.000 description 1
- 210000003127 knee Anatomy 0.000 description 1
- 238000007726 management method Methods 0.000 description 1
- 238000010606 normalization Methods 0.000 description 1
- 230000003287 optical effect Effects 0.000 description 1
- 238000005457 optimization Methods 0.000 description 1
- 230000002093 peripheral effect Effects 0.000 description 1
- 230000000704 physical effect Effects 0.000 description 1
- 239000000473 propyl gallate Substances 0.000 description 1
- 238000011084 recovery Methods 0.000 description 1
- 230000001105 regulatory effect Effects 0.000 description 1
- 230000003867 tiredness Effects 0.000 description 1
- 208000016255 tiredness Diseases 0.000 description 1
- 238000012546 transfer Methods 0.000 description 1
- 230000009466 transformation Effects 0.000 description 1
- 210000000689 upper leg Anatomy 0.000 description 1
Landscapes
- Manipulator (AREA)
- Image Processing (AREA)
- Control Of Position, Course, Altitude, Or Attitude Of Moving Bodies (AREA)
- Image Analysis (AREA)
Abstract
Description
【0001】[0001]
【発明の属する技術分野】本発明は、移動型ロボット装
置の頭部ユニットに配設された例えばCCDカメラ等か
らなる視認手段における、視線方向を制御しながら、環
境地図上で経路探索をし、経路を計画する経路計画装
置、経路計画方法及び経路計画プログラム並びに移動型
ロボット装置に関する。BACKGROUND OF THE INVENTION 1. Field of the Invention The present invention searches a route on an environment map while controlling the line-of-sight direction in a visual recognition means such as a CCD camera provided in a head unit of a mobile robot apparatus. The present invention relates to a route planning device for planning a route, a route planning method, a route planning program, and a mobile robot device.
【0002】[0002]
【従来の技術】電気的又は磁気的な作用を用いて人間
(生物)の動作に似た運動を行う機械装置を「ロボッ
ト」という。我が国においてロボットが普及し始めたの
は、1960年代末からであるが、その多くは、工場に
おける生産作業の自動化・無人化等を目的としたマニピ
ュレータ及び搬送ロボット等の産業用ロボット(Indust
rialRobot)であった。2. Description of the Related Art A mechanical device that makes a movement similar to that of a human being (organism) using electric or magnetic action is called a "robot". Robots started to spread in Japan from the end of the 1960s, but most of them are industrial robots such as manipulators and transfer robots (Industrial Robots) for the purpose of automating and unmanning production work in factories.
rialRobot).
【0003】最近では、人間のパートナーとして生活を
支援する、即ち住環境その他の日常生活上の様々な場面
における人的活動を支援する実用ロボットの開発が進め
られている。このような実用ロボットは、産業用ロボッ
トとは異なり、人間の生活環境の様々な局面において、
個々に個性の相違した人間、又は様々な環境への適応方
法を自ら学習する能力を備えている。例えば、犬又は猫
のように4足歩行の動物の身体メカニズム及びその動作
を模した「ペット型」ロボット、或いは、2足直立歩行
を行う人間等の身体メカニズム及びその動作をモデルに
してデザインされた「人間型」又は「人間形」ロボット
(Humanoid Robot)等のロボット装置は、既に実用化さ
れつつある。Recently, practical robots have been developed to support life as a human partner, that is, to support human activities in various situations such as living environment and other daily life. Unlike an industrial robot, such a practical robot is used in various aspects of the human living environment.
It has the ability to self-learn how to adapt to individuals with different personalities or various environments. For example, it is designed by using a “pet type” robot that imitates the body mechanism and movement of a quadruped animal such as a dog or a cat, or a body mechanism and movement of a human walking two legs upright. Robot devices such as “humanoid” or “humanoid” robots (Humanoid Robots) are already in practical use.
【0004】これらのロボット装置は、産業用ロボット
と比較して、例えばエンターテインメント性を重視した
様々な動作等を行うことができるため、エンターテイン
メントロボットと呼称される場合もある。また、そのよ
うなロボット装置には、外部からの情報及び内部の状態
に応じて自律的に動作するものがある。These robot devices are sometimes called entertainment robots because they can perform various operations, etc., with emphasis on entertainment, as compared with industrial robots. Further, some of such robot devices operate autonomously in accordance with information from the outside and internal states.
【0005】ところで、自律型ロボット装置において、
自身の周りの環境を認識して経路計画を立て、それに応
じて移動する能力は言うまでもなく重要である。By the way, in the autonomous robot apparatus,
Needless to say, the ability to recognize the environment around oneself, plan a route, and move accordingly.
【0006】従来の距離観測装置及び地図生成装置を有
する移動型ロボット装置は、環境全体の地図を作成する
ために全方向に視線を向けて観測を行うような視線制御
アルゴリズムを持つものが多い。環境全体の地図を作成
する方法は、移動する目的地が不明の場合や、掃除ロボ
ットのように環境全体をくまなく移動したい場合等には
適しているが、移動する目的地や目標とする方向が既に
与えられている場合には不必要な観測が多く含まれるた
め非効率である。Many mobile robot devices having a conventional distance observing device and map generating device have a line-of-sight control algorithm for observing the line of sight in all directions in order to create a map of the entire environment. The method of creating a map of the entire environment is suitable when the destination to be moved is unknown or when it is desired to move the entire environment like a cleaning robot, but the destination to move and the direction to which it is aimed If is already given, it is inefficient because it contains many unnecessary observations.
【0007】[0007]
【発明が解決しようとする課題】本発明は、目的地に移
動する際に不必要な観測及び距離画像計算処理を行わな
いことにより、効率的で短時間に移動経路計画を生成す
ることが可能な経路計画装置、経路計画方法及び経路計
画プログラム並びに移動型ロボット装置の提供を目的と
する。The present invention can efficiently generate a travel route plan in a short time by not performing unnecessary observation and distance image calculation processing when moving to a destination. A path planning device, a path planning method, a path planning program, and a mobile robot apparatus.
【0008】[0008]
【課題を解決するための手段】本発明に係る経路計画装
置は、前記課題を解決するために、障害物のある環境下
にて移動型ロボット装置が現在位置から目的位置まで障
害物を避けながら移動するための経路を計画する経路計
画装置において、移動型ロボット装置の視線を制御する
視線制御手段と、前記障害物に関する情報に基づいて障
害物領域、自由空間領域及び未観測領域からなる障害物
地図を作成又は更新する障害物地図更新手段と、前記障
害物地図更新手段により更新された障害物地図上の前記
自由空間領域と未観測領域を移動可能空間であるとして
前記移動型ロボット装置の経路を計画する経路計画手段
と、前記経路計画手段にて計画された経路計画を評価す
る経路評価手段とを備え、前記経路評価手段は前記経路
計画手段にて計画された経路計画に前記未観測領域が含
まれているか否かによって前記経路計画手段及び前記視
線制御手段を調整する。In order to solve the above-mentioned problems, a route planning apparatus according to the present invention is designed such that a mobile robot apparatus avoids obstacles from a current position to a target position in an environment with obstacles. In a route planning device for planning a route for moving, a line-of-sight control means for controlling the line-of-sight of a mobile robot device, and an obstacle consisting of an obstacle region, a free space region and an unobserved region based on the information on the obstacle. Obstacle map updating means for creating or updating a map, and a path of the mobile robot apparatus assuming that the free space area and the unobserved area on the obstacle map updated by the obstacle map updating means are movable spaces. And a route evaluation unit for evaluating the route plan planned by the route planning unit, the route evaluation unit planning by the route planning unit. Adjusting the path planning means and said eye control means depending on whether the unobserved region route planning that is included.
【0009】本発明に係る経路計画方法は、前記課題を
解決するために、障害物のある環境下にて移動型ロボッ
ト装置が現在位置から目的位置まで障害物を避けながら
移動するための経路を計画する経路計画方法において、
移動型ロボット装置の視線を制御する視線制御工程と、
前記障害物に関する情報に基づいて障害物領域、自由空
間領域及び未観測領域からなる障害物地図を作成又は更
新する障害物地図更新工程と、前記障害物地図更新工程
により更新された障害物地図上の前記自由空間領域と未
観測領域を移動可能空間であるとして前記移動型ロボッ
ト装置の経路を計画する経路計画工程と、前記経路計画
工程にて計画された経路計画を評価する経路評価工程と
を備え、前記経路評価工程は前記経路計画工程にて計画
された経路計画に前記未観測領域が含まれているか否か
によって前記経路計画工程及び前記視線制御工程を調整
する。In order to solve the above problems, the route planning method according to the present invention provides a route for a mobile robot apparatus to move from a current position to a target position while avoiding obstacles in an environment with obstacles. In the route planning method to plan,
A line-of-sight control process for controlling the line-of-sight of the mobile robot device,
An obstacle map updating step of creating or updating an obstacle map composed of an obstacle area, a free space area and an unobserved area based on the information on the obstacle, and an obstacle map updated by the obstacle map updating step. A route planning step of planning a route of the mobile robot device as the movable space of the free space region and the unobserved region, and a route evaluation process of evaluating the route plan planned in the route planning process. The route evaluation process adjusts the route planning process and the line-of-sight control process depending on whether or not the unobserved region is included in the route plan planned in the route planning process.
【0010】本発明に係る経路計画プログラムは、前記
課題を解決するために、障害物のある環境下にて移動型
ロボット装置を現在位置から目的位置まで障害物を避け
ながら移動させるための経路を計画する経路計画プログ
ラムにおいて、移動型ロボット装置の視線を制御する視
線制御工程と、前記障害物に関する情報に基づいて障害
物領域、自由空間領域及び未観測領域からなる障害物地
図を作成又は更新する障害物地図更新工程と、前記障害
物地図更新工程により更新された障害物地図上の前記自
由空間領域と未観測領域を移動可能空間であるとして前
記移動型ロボット装置の経路を計画する経路計画工程
と、前記経路計画工程にて計画された経路計画を評価す
る経路評価工程とを備え、前記経路評価工程は前記経路
計画工程にて計画された経路計画に前記未観測領域が含
まれているか否かによって前記経路計画工程及び前記視
線制御工程を調整することにより前記移動型ロボット装
置を現在位置から目的位置まで障害物を避けながら移動
させる。In order to solve the above-mentioned problems, a route planning program according to the present invention provides a route for moving a mobile robot apparatus from an existing position to a target position while avoiding obstacles in an environment with obstacles. In the planned route planning program, a line-of-sight control process for controlling the line-of-sight of the mobile robot device and an obstacle map including an obstacle region, a free space region, and an unobserved region is created or updated based on the information about the obstacle. Obstacle map updating step, and a path planning step of planning a path of the mobile robot device by assuming that the free space area and the unobserved area on the obstacle map updated by the obstacle map updating step are movable spaces. And a route evaluation process for evaluating the route plan planned in the route planning process, wherein the route evaluation process is planned in the route planning process. Wherein the path planning to move while avoiding obstacles the mobile robot device from the current position by adjusting the path planning step and the eye control process depending on whether it contains unobserved region to the target position.
【0011】本発明に係る移動型ロボット装置は、前記
課題を解決するために、頭部ユニットと、少なくとも1
以上の可動脚ユニットと、情報処理手段を有する胴体ユ
ニットとを備えてなり、障害物のある環境下にて現在位
置から目的位置まで前記可動脚ユニットを用いて障害物
を避けながら移動する移動型ロボット装置において、前
記頭部ユニットに配設された視認手段による視線を制御
する視線制御手段と、前記障害物に関する情報に基づい
て障害物領域、自由空間領域及び未観測領域からなる障
害物地図を作成又は更新する障害物地図更新手段と、前
記障害物地図更新手段により更新された障害物地図上の
前記自由空間領域と未観測領域を移動可能空間であると
して移動の経路を計画する経路計画手段と、前記経路計
画手段にて計画された経路計画に前記未観測領域が含ま
れているか否かによって前記経路計画手段及び前記視線
制御手段を調整する経路評価手段とからなる経路計画装
置を前記胴体ユニット内に備えてなる。In order to solve the above problems, a mobile robot apparatus according to the present invention comprises a head unit and at least one head unit.
A mobile type comprising the above movable leg unit and a body unit having information processing means, and moving from the current position to a target position while avoiding obstacles using the movable leg unit in an environment with obstacles. In the robot device, a line-of-sight control unit that controls the line of sight by the visual recognition unit disposed in the head unit, and an obstacle map including an obstacle region, a free space region, and an unobserved region based on the information about the obstacle is displayed. Obstacle map updating means for creating or updating, and route planning means for planning a movement route assuming that the free space area and the unobserved area on the obstacle map updated by the obstacle map updating means are movable spaces. And adjusting the route planning unit and the line-of-sight control unit depending on whether or not the unobserved region is included in the route plan planned by the route planning unit. The path planning apparatus comprising a route evaluation unit becomes provided in the body unit.
【0012】このように本発明によれば、障害物地図か
ら移動経路を探索する際に、自由空間領域の他に未観測
領域も移動可能空間であると仮定し、出力された経路上
の未観測領域を再観測する。As described above, according to the present invention, when searching for a moving route from an obstacle map, it is assumed that not only the free space region but also the unobserved region is a movable space, and the unrecovered region on the route is output. Re-observe the observation area.
【0013】[0013]
【発明の実施の形態】以下、図面を参照しながら本発明
の実施の形態について説明する。この実施の形態は、本
発明に係る経路計画装置を2足歩行のロボット装置に適
用したものである。BEST MODE FOR CARRYING OUT THE INVENTION Embodiments of the present invention will be described below with reference to the drawings. In this embodiment, the route planning device according to the present invention is applied to a bipedal robot device.
【0014】図1は、2足歩行のロボット装置の概略を
示すブロック図である。図1に示すように、ロボット装
置1の頭部ユニット250には、2台のCCDカメラ2
00R,200Lが設けられ、このCCDカメラ200
R,200Lの後段には、ステレオ画像処理装置210
が設けられている。2台のCCDカメラ(以下、右目2
00R、左目200Lという。)により撮像された右目
画像201R、左目画像201Lは、ステレオ画像処理
装置210に入力される。ステレオ画像処理装置210
は、各画像201R,201Lの視差情報(disparity
data)(距離情報)を計算し、カラー画像(YUV:輝
度Y、UV色差)202及び視差画像(YDR:輝度
Y、視差D、信頼度R)203をフレーム毎に左右交互
に算出する。ここで、視差とは、空間中のある点が左目
及び右目に写像される点の違いを示し、そのカメラから
の距離に応じて変化するものである。FIG. 1 is a block diagram showing the outline of a bipedal robot apparatus. As shown in FIG. 1, the head unit 250 of the robot apparatus 1 includes two CCD cameras 2
00R, 200L are provided, and this CCD camera 200
A stereo image processing device 210 is provided after the R and 200L.
Is provided. Two CCD cameras (hereinafter, right eye 2
00R, left eye 200L. ), The right-eye image 201R and the left-eye image 201L are input to the stereo image processing device 210. Stereo image processing device 210
Is the disparity information (disparity) of each of the images 201R and 201L.
data) (distance information) and a color image (YUV: luminance Y, UV color difference) 202 and a parallax image (YDR: luminance Y, parallax D, reliability R) 203 are alternately calculated for each frame. Here, the parallax indicates the difference between the points at which a certain point in space is mapped to the left eye and the right eye, and changes according to the distance from the camera.
【0015】このカラー画像202及び視差画像203
はロボット装置1の体幹部260に内蔵されたCPU
(制御部)220に入力される。また、ロボット装置1
の各関節にはアクチュエータ230が設けられており、
CPU220からの指令となる制御信号231が供給さ
れて、その指令値に応じてモータを駆動する。各関節
(アクチュエータ)には、ポテンショメータが取り付け
られ、その時のモータの回転角がCPUに送られる。こ
のアクチュエータに取り付けられたポテンショメータ、
足底に取り付けられたタッチセンサ及び体幹部に取り付
けられたジャイロ・センサ等の各センサ240は、現在
の関節角度、設置情報、及び姿勢情報等の現在のロボッ
ト装置の状態を計測し、センサデータ241としてCP
U220へ出力する。CPU220は、ステレオ画像処
理装置210からのカラー画像202及び視差画像20
3と、アクチュエータの全ての関節角度等のセンサデー
タ241とが入力され、後述するソフトウェア構成を実
現する。This color image 202 and parallax image 203
Is a CPU built in the trunk 260 of the robot apparatus 1.
(Control unit) 220 is input. Also, the robot device 1
An actuator 230 is provided at each joint of
A control signal 231 serving as a command from the CPU 220 is supplied, and the motor is driven according to the command value. A potentiometer is attached to each joint (actuator), and the rotation angle of the motor at that time is sent to the CPU. Potentiometer attached to this actuator,
Each sensor 240 such as a touch sensor attached to the sole of the foot and a gyro sensor attached to the torso measures the current state of the robot device such as the current joint angle, installation information, and posture information, and the sensor data CP as 241
Output to U220. The CPU 220 includes the color image 202 and the parallax image 20 from the stereo image processing device 210.
3 and the sensor data 241 such as all joint angles of the actuator are input to realize the software configuration described later.
【0016】本実施の形態のソフトウェアは、オブジェ
クト単位で構成され、ロボット装置の位置、移動量、周
囲の障害物、及び環境地図等を認識し、ロボット装置が
最終的に取るべき行動についての行動列を出力する各種
認識処理等を行うものである。なお、ロボット装置の位
置を示す座標として、例えば、後述するランドマーク等
の特定の物体等を座標の原点としたワールド基準系のカ
メラ座標系(以下、絶対座標ともいう。)と、ロボット
装置自身を中心(座標の原点)としたロボット中心座標
系(以下、相対座標ともいう。)との2つの座標を使用
する。The software of this embodiment is configured in units of objects, recognizes the position, movement amount, surrounding obstacles, environment map, etc. of the robot device, and takes action about the action that the robot device should finally take. It is for performing various recognition processes for outputting a column. Note that, as the coordinates indicating the position of the robot device, for example, a camera coordinate system (hereinafter also referred to as absolute coordinates) of a world reference system in which a specific object such as a landmark described later is the origin of the coordinates, and the robot device itself. Two coordinates are used, which is a robot center coordinate system (hereinafter also referred to as relative coordinates) with the center being the center (the origin of the coordinates).
【0017】図2は、本実施の形態におけるロボット装
置のソフトウェアの構成を示す模式図である。同図にお
いて、丸で表されているのが、オブジェクト又はプロセ
スと呼ばれるエンティティである。オブジェクト同士が
非同期に通信し合うことで、システム全体が動作する。
各オブジェクトはメッセージ通信と共有メモリを使用し
たオブジェクト間通信方法によりデータの受け渡し及び
Invokeを行っている。FIG. 2 is a schematic diagram showing a software configuration of the robot apparatus according to this embodiment. In the figure, the circles represent entities called objects or processes. The entire system operates by communicating objects asynchronously.
Each object exchanges data and invokes by an inter-object communication method using message communication and shared memory.
【0018】図2に示すように、ソフトウェア300
は、キネマティックオドメトリ(Kinematics Odometr
y)KINE310、平面抽出部(Plane Extractor)P
LEX320、障害物グリッド算出部(Occupancy Gri
d)OG330、ランドマーク位置検出部(Landmark Se
nsor)CLS340、絶対座標算出部(Localization)
LZ350及び経路計画決定部(Situated behavior La
yer)SBL360から構成され、各オブジェクト単位
にて処理がなされる。これらのソフトウェアの詳細な構
成及び動作については後述する。また、ロボット装置に
ついての詳細な構成及び動作についても後述する。As shown in FIG. 2, software 300
Kinematics Odometr
y) KINE310, Plane Extractor P
LEX320, Obstacle grid calculator (Occupancy Gri
d) OG330, landmark position detector (Landmark Se
nsor) CLS340, absolute coordinate calculation unit (Localization)
LZ350 and path planning decision unit (Situated behavior La
yer) SBL 360, and processing is performed for each object. The detailed configuration and operation of these software will be described later. The detailed configuration and operation of the robot device will also be described later.
【0019】ここで、先ず、上述したロボット装置1に
搭載される本発明の経路計画装置について説明する。経
路計画装置は、経路計画決定部(Situated behavior La
yer)SBL360を実行したCPU220内にて構成
される。図3には経路計画装置221の機能ブロック図
を示す。経路計画装置221は、ロボット装置1の前記
視線を制御する視線制御部222と、障害物地図を作成
(更新)する障害物地図更新部223と、経路計画部2
24と、経路計画部224によって計画された経路を評
価する経路評価部225とを備えてなる。First, the route planning apparatus of the present invention mounted on the above-mentioned robot apparatus 1 will be described. The route planning device uses the Situated behavior
yer) It is configured in the CPU 220 that executes the SBL 360. FIG. 3 shows a functional block diagram of the route planning device 221. The route planning device 221 includes a line-of-sight control unit 222 that controls the line of sight of the robot device 1, an obstacle map updating unit 223 that creates (updates) an obstacle map, and a route planning unit 2
24, and a route evaluation unit 225 that evaluates the route planned by the route planning unit 224.
【0020】経路計画装置221(経路計画決定部SB
L360)の障害物地図更新部223は、障害物グリッ
ド算出部OG330からの障害物情報331と現在位置
及び目的地情報を受け取り障害物地図を作成(更新)す
る。このとき、視線制御部222が前記視線を制御する
ことによりロボット装置1の視線は目的地方向に向けら
れている。経路計画部224は、障害物地図更新部22
3にて作成された障害物地図を基に未観測領域と自由空
間領域を移動可能領域とみなして経路を計画する。経路
評価部225は、経路計画部224にて計画された経路
を評価し、その評価結果に基づいて経路を経路計画部2
24から出力させたり、生成不能であったとの結果を出
力したり、さらには視線制御部222による視線制御を
調整する。Route planning device 221 (route plan determination unit SB
The obstacle map update unit 223 of (L360) receives the obstacle information 331 and the current position and destination information from the obstacle grid calculation unit OG330, and creates (updates) the obstacle map. At this time, the line-of-sight control unit 222 controls the line-of-sight so that the line-of-sight of the robot apparatus 1 is directed toward the destination. The route planning unit 224 uses the obstacle map updating unit 22.
Based on the obstacle map created in 3, the unobserved area and the free space area are considered as movable areas and the route is planned. The route evaluation unit 225 evaluates the route planned by the route planning unit 224, and determines the route based on the evaluation result.
The output is made from 24, the result that it cannot be generated is output, and the line-of-sight control by the line-of-sight control unit 222 is adjusted.
【0021】障害物グリッド算出部OG330からの障
害物情報331により障害物地図更新部223にて生成
される障害物地図上の点は、図4に示すように以下の3
つの種類に分類される。The points on the obstacle map generated by the obstacle map updating section 223 based on the obstacle information 331 from the obstacle grid calculating section OG330 are the following three points as shown in FIG.
It is classified into two types.
【0022】第1の点は、障害物の存在する点(図中の
黒色で表される点)である。第2の点は、自由空間(障
害物が存在しない空間)上の点(図中の白で表される
点)である。そして、第3の点は、未観測領域上の点
(図中の斜線で表される点)である。The first point is a point where an obstacle exists (point represented by black in the figure). The second point is a point (point represented by white in the figure) on the free space (space where no obstacle exists). Then, the third point is a point on the unobserved region (point indicated by the diagonal line in the figure).
【0023】次に、前記経路計画決定部SBL360が
採用する経路計画アルゴリズムを図5のフローチャート
に示し、以下に詳細を説明する。Next, the route planning algorithm adopted by the route plan determining unit SBL360 is shown in the flowchart of FIG. 5, and the details will be described below.
【0024】先ず、現在位置から目的位置までを結ぶ直
線経路の周辺の障害物地図が作成されるように、視線を
目的地方向に向ける(ステップS71)。そして距離画
像を観測し、距離計測を行い、障害物地図を作成(更
新)する(ステップS72)。First, the line of sight is directed toward the destination so that an obstacle map around the straight line path connecting the current position to the target position is created (step S71). Then, the distance image is observed, the distance is measured, and the obstacle map is created (updated) (step S72).
【0025】次に、生成された障害物地図において、未
観測領域と自由空間領域を移動可能領域とみなして経路
計画を行う(ステップS73)。Next, in the generated obstacle map, the unobserved area and the free space area are regarded as the movable area and the route is planned (step S73).
【0026】この経路計画としては、例えば経路全体の
コストを最小化するA*探索(A*search)いう方法を
用いる。このA*探索は、評価関数としてfを用い、h
関数が許容的であるような最良優先探索である。いかな
るヒューリスティック関数に対しても効率最適という点
を用いている。[0026] As the path planning, for example, A * search (A * search) that minimizes the cost of the entire route using the method referred to. In this A * search, f is used as the evaluation function, and h
It is a best-first search in which the function is admissible. We use the point of efficiency optimization for any heuristic function.
【0027】このステップS73にて例えばA*探索を
適用することにより生成された経路が移動可能であるな
否かをステップS74にてチェックし、障害物を回避す
ることのできる経路が計画できなかった場合(NO)に
は、これ以上観測を続けても移動可能な経路が得られる
可能性がないため、その旨を告げて経路計画を終了する
(ステップS75)。In step S73, it is checked in step S74 whether or not the route generated by applying the A * search is movable, and the route that can avoid the obstacle cannot be planned. In the case of (NO), there is no possibility that a movable route can be obtained even if the observation is continued any more, so that is notified and the route planning ends (step S75).
【0028】ステップS73にて移動可能経路が例えば
前記A*探索を適用して計画できた場合(YES)に
は、ステップS76に進み、出力された経路上に未観測
領域が含まれるか否かを検索する。このステップS76
にて経路上に未観測領域が含まれなかった場合(NO)
には、ステップS77にて目的地までの経路計画として
移動可能経路を出力する。ステップS76にて未観測領
域が含まれる場合(YES)には、ステップS78に進
んで現在位置から未観測領域までの歩数を計算し、その
歩数が閾値を超えるか否かをチェックする。In step S73, if the movable route can be planned by applying the A * search (YES), the process proceeds to step S76, and it is determined whether or not an unobserved region is included in the output route. To search. This step S76
If no unobserved area is included in the route (NO)
, A movable route is output as a route plan to the destination in step S77. If the unobserved region is included in step S76 (YES), the process proceeds to step S78, the step count from the current position to the unobserved region is calculated, and it is checked whether the step count exceeds a threshold value.
【0029】ステップS78において歩数が閾値を超え
る場合(YES)には、ステップS79により未知領域
までの移動可能経路を出力してから、ステップS71の
処理に戻る。一方、ステップS78において未知観測領
域までの歩数が閾値に満たない場合(NO)は、未観測
領域が距離観測されるように視線方向の制御を行って再
観測を行い(ステップS80)、再び障害物地図の更新
を行う。If the step count exceeds the threshold value in step S78 (YES), the movable route to the unknown area is output in step S79, and the process returns to step S71. On the other hand, when the number of steps to the unknown observation region is less than the threshold value in step S78 (NO), the line-of-sight direction is controlled so that the unobserved region is observed by distance (step S80), and the obstacle is detected again. Update the physical map.
【0030】以上のような経路計画アルゴリズムを採用
した経路計画決定部SBL360は、未観測領域と自由
空間領域を移動可能領域とみなして経路計画を行い、出
力された経路上に含まれる未観測領域部のみを再観測す
ることにより、目的地に移動する際に不必要な観測及び
距離画像計算処理を行わなわず、効率的で短時間に移動
経路計画を生成することが可能となる。The route plan determination unit SBL360 which adopts the route planning algorithm as described above, considers the unobserved region and the free space region as the movable region, performs the route planning, and outputs the unobserved region included in the route. By re-observing only a part, it is possible to generate a moving route plan efficiently and in a short time without performing unnecessary observation and distance image calculation processing when moving to a destination.
【0031】次に、上述した図2に示すロボット装置1
のソフトウェアの構成及び動作について詳細に説明す
る。図6は、図2に示すソフトウェア300の動作を示
すフローチャートである。Next, the robot apparatus 1 shown in FIG. 2 described above.
The configuration and operation of the software will be described in detail. FIG. 6 is a flowchart showing the operation of the software 300 shown in FIG.
【0032】図2に示すソフトウェア300のキネマテ
ィックオドメトリKINE310には、画像データ30
1及びセンサデータ302が入力される。この画像デー
タ301は、カラー画像及びステレオカメラによる視差
画像である。また、センサデータ302は、ロボット装
置の関節角等のデータである。キネマティックオドメト
リKINE310は、これらの入力データ301,30
2を受け取り、メモリに格納されていたそれまでの画像
及びセンサデータを更新する(ステップS101)。The image data 30 is stored in the kinematic odometry KINE 310 of the software 300 shown in FIG.
1 and the sensor data 302 are input. This image data 301 is a color image and a parallax image from a stereo camera. The sensor data 302 is data such as the joint angle of the robot device. The kinematic odometry KINE 310 is used to input these input data 301, 30.
2 is received, and the image and sensor data up to that time stored in the memory are updated (step S101).
【0033】次に、これら画像データ301とセンサデ
ータ302との時間的な対応を取る(ステップS102
−1)。即ち、画像データ301の画像が撮像された時
間におけるセンサデータ302の関節角を割り出す。次
いで、この関節角のデータを使用してロボット装置1が
中心に固定されたロボット中心座標系を頭部ユニットに
設けられたカメラの座標系へ変換する(ステップS10
2−2)。この場合、本実施の形態においては、ロボッ
ト中心座標系からカメラ座標系の同時変換行列等を導出
し、この同時変換行列311とこれに対応する画像デー
タとを画像認識を行うオブジェクトへ送信する。即ち、
同時変換行列311及びこれに対応する視差画像312
を平面抽出部PLEX320へ出力し、同時変換行列3
11及びカラー画像313をランドマークセンサ部CL
S340へ出力する。Next, the image data 301 and the sensor data 302 are temporally correlated (step S102).
-1). That is, the joint angle of the sensor data 302 at the time when the image of the image data 301 is captured is calculated. Next, using this joint angle data, the robot central coordinate system in which the robot apparatus 1 is fixed to the center is converted into the coordinate system of the camera provided in the head unit (step S10).
2-2). In this case, in the present embodiment, the simultaneous conversion matrix and the like of the camera coordinate system are derived from the robot center coordinate system, and this simultaneous conversion matrix 311 and the image data corresponding thereto are transmitted to the object that performs image recognition. That is,
Simultaneous conversion matrix 311 and corresponding parallax image 312
To the plane extraction unit PLEX320, and the simultaneous conversion matrix 3
11 and the color image 313 in the landmark sensor section CL
Output to S340.
【0034】また、センサデータ302から得られる歩
行パラメータと、足底センサを使用した歩数のカウント
数とからロボット装置1の移動量を算出し、ロボット装
置1のロボット装置中心座標系における移動量を算出す
る。以下、ロボット装置中心座標系の移動量をオドメト
リともいう。このオドメトリ314を障害物グリッド算
出部OG330及び絶対座標算出部LZ350へ出力す
る。Further, the movement amount of the robot apparatus 1 is calculated from the walking parameters obtained from the sensor data 302 and the number of steps counted using the sole sensor, and the movement amount of the robot apparatus 1 in the robot apparatus central coordinate system is calculated. calculate. Hereinafter, the amount of movement of the robot device central coordinate system is also referred to as odometry. The odometry 314 is output to the obstacle grid calculation unit OG330 and the absolute coordinate calculation unit LZ350.
【0035】平面抽出部PLEX320は、キネマティ
ックオドメトリKINE310にて算出された同時変換
行列311と、これに対応するステレオカメラから得ら
れる視差画像312とが入力されると、それまでメモリ
に格納されていたこれらのデータを更新する(ステップ
S103)。そして、ステレオカメラのキャリブレーシ
ョンパラメータ等を使用して視差画像312から3次元
の位置データ(レンジデータ)を算出する(ステップS
104−1)。次いで、このレンジデータからハフ変換
等を使用して、例えば壁及びテーブル等の平面を除く平
面を平面として抽出する。また、座標変換行列311か
らロボット装置1の足底が接地している平面との対応を
取り、床面を選択し、床面上にない点、例えば所定の閾
値よりも高い位置にあるもの等を障害物として床面から
の距離を算出し、この障害物情報(obstacle)321を
障害物グリッド算出部330に出力する(ステップS1
04−2)。The plane extraction unit PLEX 320 receives the simultaneous conversion matrix 311 calculated by the kinematic odometry KINE 310 and the parallax image 312 corresponding to the simultaneous conversion matrix 311 and is stored in the memory until then. Also, these data are updated (step S103). Then, three-dimensional position data (range data) is calculated from the parallax image 312 using the calibration parameters of the stereo camera (step S).
104-1). Then, using the Hough transform or the like, the planes other than the planes such as the wall and the table are extracted as the planes from the range data. Further, by taking a correspondence from the coordinate transformation matrix 311 with a plane where the sole of the robot apparatus 1 is in contact with the ground, selecting a floor surface, a point that is not on the floor surface, for example, a position higher than a predetermined threshold value, etc. Is used as an obstacle to calculate the distance from the floor surface, and the obstacle information (obstacle) 321 is output to the obstacle grid calculation unit 330 (step S1).
04-2).
【0036】障害物グリッド算出部OG330では、キ
ネマティックオドメトリKINE310にて算出された
オドメトリ314と、平面抽出部PLEX320にて算
出された障害物の観測情報(障害物情報)321とが入
力されると、メモリに格納されていたそれまでのデータ
を更新する(ステップS105)。そして、床面上に障
害物があるか否かの確率を保持する障害物グリッドを確
率的手法により更新する(ステップS106)。In the obstacle grid calculator OG330, the odometry 314 calculated by the kinematic odometry KINE310 and the obstacle observation information (obstacle information) 321 calculated by the plane extractor PLEX320 are input. , The data that has been stored in the memory up to that point is updated (step S105). Then, the obstacle grid that holds the probability of whether or not there is an obstacle on the floor is updated by a probabilistic method (step S106).
【0037】この障害物グリッド算出部OG330は、
ロボット装置1を中心とした例えば周囲4mの障害物情
報、即ち、上述した環境地図と、ロボット装置1の向く
方角を示す姿勢情報とを保持しており、上述の方法によ
り、環境地図を更新し、この更新した認識結果(障害物
情報331)を出力することにより、上位レイヤ、即
ち、本実施の形態においては、経路計画決定部SBL3
60にて障害物を回避する経路計画を作成することがで
きる。This obstacle grid calculation unit OG330
For example, information about an obstacle around the robot device 1 around 4 m, that is, the environment map described above, and posture information indicating the direction in which the robot device 1 faces are held, and the environment map is updated by the method described above. By outputting the updated recognition result (obstacle information 331), the upper layer, that is, the route plan determination unit SBL3 in the present embodiment.
At 60, a route plan for avoiding obstacles can be created.
【0038】ランドマークセンサCLS340は、キネ
マティックオドメトリKINE310から同時変換行列
311及びカラー画像313が入力されると、予めメモ
リ内に格納されていたこれらのデータを更新する(ステ
ップS107)。そして、カラー画像313の画像処理
を行って、予め認識しているカラーランドマークを検出
する。このカラーランドマークのカラー画像313上で
の位置及び大きさをカメラ座標系での位置に変換する。
更に、同時変換行列311を使用し、カラーランドマー
クのカメラ座標系での位置をロボット中心位置座標系に
おける位置に変換し、ロボット中心位置座標系における
カラーランドマーク位置の情報(カラーランドマーク相
対位置情報)341を絶対座標算出部LZ350に出力
する(ステップS108)。When the simultaneous conversion matrix 311 and the color image 313 are input from the kinematic odometry KINE 310, the landmark sensor CLS 340 updates these data stored in the memory in advance (step S107). Then, the color image 313 is subjected to image processing to detect a color landmark recognized in advance. The position and size of this color landmark on the color image 313 are converted into the position on the camera coordinate system.
Further, using the simultaneous conversion matrix 311, the position of the color landmark in the camera coordinate system is converted into the position in the robot center position coordinate system, and the information of the color landmark position in the robot center position coordinate system (color landmark relative position The information) 341 is output to the absolute coordinate calculation unit LZ350 (step S108).
【0039】絶対座標算出部LZ350は、キネマティ
ックオドメトリKINE310からのオドメトリ314
と、ランドマークセンサ部CLS340からのカラーラ
ンドマーク相対位置情報341とが入力されると、予め
メモリ内に格納されていたこれらのデータが更新される
(ステップS109)。そして、絶対座標算出部LZ3
50が予め認識しているカラーランドマークの絶対座標
(ワールド座標系での位置)、カラーランドマーク相対
位置情報341、及びオドメトリ314を使用し、確率
的手法によりロボット装置の絶対座標(ワールド座標系
での位置)を算出する。そして、この絶対座標位置35
1を経路計画決定部SBL360に出力する。The absolute coordinate calculation unit LZ350 uses the odometry 314 from the kinematic odometry KINE310.
And the color landmark relative position information 341 from the landmark sensor unit CLS340 are input, these data stored in advance in the memory are updated (step S109). Then, the absolute coordinate calculation unit LZ3
50 uses the absolute coordinates (position in the world coordinate system) of the color landmarks, the relative position information 341 of the color landmarks, and the odometry 314 that the 50 recognizes in advance, and uses the probabilistic method to determine the absolute coordinates (world coordinate system) of the robot device. Position) is calculated. And this absolute coordinate position 35
1 is output to the route plan determination unit SBL360.
【0040】経路計画決定部SBL360は、障害物グ
リッド算出部OG330から障害物グリッド情報331
が入力され、絶対座標算出部LZ350から絶対座標位
置351が入力されると、予めメモリに格納されていた
これらのデータが更新される(ステップS111)。そ
して、経路計画決定部SBL360は、障害物グリッド
算出部OG330からの障害物情報331により、ロボ
ット装置1の周囲に存在する障害物に関する認識結果を
取得し、絶対座標算出部LZ350から現在のロボット
装置1の絶対座標を取得することにより、絶対座標系又
はロボット装置中心のロボット中心座標系で与えられた
目標地点に対して障害物に衝突せずに歩行可能な経路を
生成し、この生成した経路に応じて歩行を遂行する動作
コマンドを発行する。即ち、入力データから状況に応じ
てロボット装置1が取るべき行動を決定し、その行動列
を出力する(ステップS112)。The route plan determination unit SBL360 receives the obstacle grid information 331 from the obstacle grid calculation unit OG330.
Is input and the absolute coordinate position 351 is input from the absolute coordinate calculation unit LZ350, these data stored in advance in the memory are updated (step S111). Then, the route plan determination unit SBL360 acquires the recognition result regarding the obstacle existing around the robot device 1 from the obstacle information 331 from the obstacle grid calculation unit OG330, and the current robot device from the absolute coordinate calculation unit LZ350. By acquiring the absolute coordinates of 1, a path that can be walked without colliding with an obstacle to a target point given in the absolute coordinate system or the robot center coordinate system of the robot device center is generated, and the generated route is generated. A motion command for performing walking is issued according to. That is, the action to be taken by the robot apparatus 1 is determined according to the situation from the input data, and the action sequence is output (step S112).
【0041】また、人間によるナビゲーションの場合に
は、障害物グリッド算出部OG330からロボット装置
の周囲に存在する障害物に関する認識結果及び絶対座標
算出部LZ350からの現在のロボット装置の位置の絶
対座標をユーザに提供し、このユーザからの入力に応じ
て動作コマンドを発行させる。In the case of human navigation, the obstacle grid calculation unit OG330 shows the recognition result regarding the obstacles existing around the robot apparatus and the absolute coordinate of the current position of the robot apparatus from the absolute coordinate calculation unit LZ350. It is provided to the user and the operation command is issued in response to the input from the user.
【0042】図7は、上述のソフトウェアに入力される
データの流れを模式的に示す図である。なお、図7にお
いて、図1及び図2に示す構成と同一構成要素には同一
符号を符してその詳細な説明は省略する。FIG. 7 is a diagram schematically showing the flow of data input to the above software. In FIG. 7, the same components as those shown in FIGS. 1 and 2 are designated by the same reference numerals, and detailed description thereof will be omitted.
【0043】顔検出部FDT(FaceDetector)371
は、画像フレーム中から顔領域を検出するオブジェクト
であり、カメラ等の画像入力装置からカラー画像202
を受け取り、それを例えば9段階のスケール画像に縮小
変換する。この全ての画像の中から顔に相当する矩形領
域を探索する。重なりあった候補領域を削減して最終的
に顔と判断された領域に関する位置、大きさ、及び特徴
量等の情報372を出力して、顔識別部FI(FaceIden
tify)377へ送る。Face Detection Unit FDT (FaceDetector) 371
Is an object that detects a face area in the image frame, and is a color image 202 from an image input device such as a camera.
Is received, and it is reduced and converted into, for example, a nine-step scale image. A rectangular area corresponding to the face is searched from all the images. Information 372 such as the position, size, and feature amount regarding the area finally determined to be the face is output by reducing the overlapping candidate areas, and the face identification unit FI (FaceIden) is output.
tify) Send to 377.
【0044】顔識別部FI377は、検出された顔画像
を識別するオブジェクトであり、顔の領域を示す矩形領
域画像からなる情報372を顔検出部FDT371から
受け取り、この顔画像がメモリに格納されている手持ち
の人物辞書のうちでどの人物に相当するかを比較して人
物の識別を行う。そして、顔検出部EDT371から受
け取った顔画像の顔画像領域の位置、大きさ情報と共に
人物のID情報378をDIL379に出力する。The face identifying section FI377 is an object for identifying the detected face image, receives information 372 consisting of a rectangular area image indicating the area of the face from the face detecting section FDT371, and stores this face image in the memory. The person is identified by comparing which person in the existing person dictionary corresponds to. Then, the ID information 378 of the person is output to the DIL 379 together with the position and size information of the face image area of the face image received from the face detection unit EDT371.
【0045】色認識部MCT(MultiColorTracker)3
73は、色認識を行うオブジェクトであり、カメラ等の
画像入力装置からカラー画像202を受け取り、予め保
有している複数のカラー・モデル情報に基づいて色領域
を抽出し、連続した領域に分割する。色認識部MCT3
73は、分割した各領域の位置、大きさ及び特徴量等の
情報374をDIL379に出力する。Color recognition unit MCT (MultiColorTracker) 3
An object 73 for color recognition receives the color image 202 from an image input device such as a camera, extracts a color area based on a plurality of color model information held in advance, and divides it into continuous areas. . Color recognition unit MCT3
73 outputs information 374 such as the position, size, and feature amount of each divided area to the DIL 379.
【0046】動き検出部MDT(MotionDete
ctor)375は、画像の中で動いている部分を検出
する部分であり、検出した動き領域の情報376を距離
情報付加部DIL379に出力する。Motion detection unit MDT (MotionDete)
(ctor) 375 is a portion that detects a moving portion in the image, and outputs the detected motion area information 376 to the distance information adding unit DIL 379.
【0047】距離情報付加部DIL(Distance
InformationLinker)379は、入力
された2次元の情報に距離情報を付加して3次元の情報
を出力するオブジェクトであり、顔検出部FI377か
らのID情報378、色認識部MCT373からの分割
した各領域の位置、大きさ及び特徴量等の情報374、
動き検出部MDT375からの動き領域の情報376に
距離情報を付加して3次元の情報380を短期記憶部S
TM(ShortTermMemory)381に出力
する。Distance information addition unit DIL (Distance)
Information Linker) 379 is an object that adds distance information to the input two-dimensional information and outputs three-dimensional information. ID information 378 from the face detection unit FI377 and each divided area from the color recognition unit MCT373. Information 374 such as the position, size, and feature amount of the
The distance information is added to the motion area information 376 from the motion detection unit MDT375, and the three-dimensional information 380 is stored in the short-term storage unit S.
Output to TM (Short Term Memory) 381.
【0048】短期記憶部STM381は、ロボット装置
1の外部環境に関する情報を比較的短い時間だけ保持す
るオブジェクトであり、ArthurDecoder(図示せず)か
ら音声認識結果(単語、音源方向、確信度)を受け取
り、色認識部MCT373から肌色の領域の位置、大き
さと顔領域の位置、大きさを受け取り、顔識別部FI3
77から人物のID情報等を受け取る。また、ロボット
装置1の機体上の各センサからロボット装置の首の方向
(関節角)を受け取る。そして、これらの認識結果及び
センサ出力を統合的に使って、現在どこにどの人物がい
て、しゃべった言葉がどの人物のものであり、その人物
とはこれまでにどんな対話を行ったのかという情報を保
存する。こうした物体、即ちターゲットに関する物理情
報と時間方向でみたイベント(履歴)を出力として、経
路計画決定部(状況依存行動階層)(SBL)360等
の上位モジュールに渡す。The short-term storage unit STM381 is an object that holds information about the external environment of the robot apparatus 1 for a relatively short time, and receives a voice recognition result (word, sound source direction, certainty factor) from an Arthur Decoder (not shown). , The position and size of the skin color area and the position and size of the face area from the color recognition unit MCT373, and the face identification unit FI3
The ID information of the person is received from 77. Further, the direction (joint angle) of the neck of the robot apparatus is received from each sensor on the body of the robot apparatus 1. Then, by using these recognition results and sensor outputs in an integrated manner, it is possible to obtain information about which person is currently in which person, the spoken word belongs to which person, and what kind of dialogue has been performed with that person so far. save. The physical information about such an object, that is, the target, and the event (history) viewed in the time direction are output and passed to a higher-order module such as a route plan determination unit (situation-dependent action hierarchy) (SBL) 360.
【0049】経路計画決定部SBLは、上述の短期記憶
部STM381からの情報を基にロボット装置1の行動
(状況に依存した行動)を決定するオブジェクトであ
る。例えば、前述のように経路計画を作成し、その経路
計画に基づいて、ロボット装置1を歩行させるコマンド
を出す。また、複数の行動を同時に評価したり、実行し
たりすることができる。また、行動を切り替えて機体を
スリープ状態にしておき、別の行動を起動することがで
きる。The path plan determination unit SBL is an object that determines the action (action depending on the situation) of the robot apparatus 1 based on the information from the above-mentioned short-term storage unit STM381. For example, a route plan is created as described above, and a command for causing the robot apparatus 1 to walk is issued based on the route plan. Moreover, it is possible to simultaneously evaluate and execute a plurality of actions. In addition, the action can be switched to put the aircraft in a sleep state, and another action can be activated.
【0050】以下、上述した各オブジェクトについて更
に詳細に説明する。The above-mentioned objects will be described in more detail below.
【0051】上述した如く、CCDカメラ200L,2
00Rによって取り込まれた映像は、ステレオ画像処理
装置210に入力され、図8に具体的に示す左右画像2
01R,201Lの視差情報(距離情報)からカラー画
像(YUV)202及び視差画像(YDR)312が算
出されてCPU220に入力される。また、ロボット装
置1に複数個設けられた各センサからのセンサデータ2
40が入力される。図2に示すように、これらの視差情
報及び視差画像からなる画像データ301と、ロボット
装置の関節角等のデータであるセンサデータ302とが
キネマティックオドメトリKINE310に入力され
る。As described above, the CCD cameras 200L, 2
The video captured by 00R is input to the stereo image processing device 210, and the left and right images 2 specifically shown in FIG.
The color image (YUV) 202 and the parallax image (YDR) 312 are calculated from the parallax information (distance information) of 01R and 201L, and are input to the CPU 220. In addition, sensor data 2 from each sensor provided in the robot apparatus 1
40 is input. As shown in FIG. 2, image data 301 including the parallax information and the parallax image, and sensor data 302 that is data such as a joint angle of the robot device are input to the kinematic odometry KINE 310.
【0052】キネマティックオドメトリKINE310
は、画像データ301及びセンサデータ302からなる
入力データに基づいて画像データ301の画像が撮像さ
れた時間におけるセンサデータ302の関節角を割り出
し、この関節角のデータを使用してロボット装置1が中
心に固定されたロボット中心座標系を頭部ユニットに設
けられたカメラの座標系へ変換する。この場合、本実施
の形態においては、ロボット中心座標系からカメラ座標
系の同時変換行列等を導出し、この同時変換行列311
とこれに対応する視差画像312を平面抽出部PLEX
320へ出力する。Kinematic Odometry KINE310
Is the joint angle of the sensor data 302 at the time when the image of the image data 301 is captured based on the input data consisting of the image data 301 and the sensor data 302, and the robot device 1 uses the joint angle data The robot central coordinate system fixed to is converted into the coordinate system of the camera provided in the head unit. In this case, in the present embodiment, the simultaneous conversion matrix of the camera coordinate system is derived from the robot center coordinate system, and the simultaneous conversion matrix 311 is obtained.
And the parallax image 312 corresponding to this and the plane extraction unit PLEX
Output to 320.
【0053】平面抽出部PLEX320は、同時変換行
列311とこれに対応する視差画像312を受け取り、
以下の図9に示す処理手順にしたがって障害物を認識す
る。The plane extraction unit PLEX 320 receives the simultaneous conversion matrix 311 and the parallax image 312 corresponding thereto,
An obstacle is recognized according to the processing procedure shown in FIG. 9 below.
【0054】先ず、平面抽出部PLEX320は、同時
変換行列311とこれに対応する視差画像312を受け
取る(ステップS61)。そして、視差画像312から
レンズ歪みとステレオの取り付け誤差を吸収したキャリ
ブレーションパラメータを利用して、画素毎にカメラ座
標から見た3次元の位置データ(X,Y,Z)を距離画像と
して生成する(ステップS62)。First, the plane extraction unit PLEX320 receives the simultaneous conversion matrix 311 and the parallax image 312 corresponding thereto (step S61). Then, three-dimensional position data (X, Y, Z) viewed from the camera coordinates for each pixel is generated as a distance image using a calibration parameter that absorbs lens distortion and stereo attachment error from the parallax image 312. (Step S62).
【0055】次に、平面抽出部PLEX320は、ステ
ップS62で生成された距離画像からハフ変換などを用
いて画像中の支配的な平面のパラメータを検出する(ス
テップS63)。この平面のパラメータは図10に示す
パラメータ空間(θ,φ)のヒストグラムにより検出さ
れる。パラメータの投票が大きいと障害物、小さいと平
面上のものと見なすことができる。この平面のパラメー
タを使って、元々画像から得られた距離の測定点が平面
上からどれくらいの距離であるかが分かる。Next, the plane extraction unit PLEX320 detects the parameters of the dominant plane in the image from the range image generated in step S62 by using Hough transform or the like (step S63). The parameters of this plane are detected by the histogram of the parameter space (θ, φ) shown in FIG. A large parameter vote can be regarded as an obstacle, and a small parameter vote can be regarded as on a plane. Using the parameters of this plane, it is possible to know how far the distance measurement point originally obtained from the image is on the plane.
【0056】次に、カメラ座標系の同時変換行列311
から図11に示すようにロボットの足底接地面への変換
を求める(ステップS64)。これにより、カメラ座標
系で表現される接地平面のパラメータの算出が行われ
る。そして、前記ステップS63での画像による平面の
検出と、前記ステップS64での足底接地平面の照合か
ら、画像中の平面パラメータから床面に相当するものを
選択する(ステップS65)。Next, the simultaneous conversion matrix 311 of the camera coordinate system
To conversion of the robot to the plantar bottom contact surface as shown in FIG. 11 (step S64). As a result, the parameters of the ground plane expressed in the camera coordinate system are calculated. Then, based on the detection of the plane in the image in step S63 and the collation of the sole grounding plane in step S64, the one corresponding to the floor surface is selected from the plane parameters in the image (step S65).
【0057】次に、前記ステップS65にて選択された
平面パラメータを使って、元の距離画像から平面上に載
っている点を選択する(ステップS66)。これは以下
に示す(1)、(2)を用いて、平面からの距離dがし
きい値Dthより小さい事を使って判断する。Next, using the plane parameters selected in step S65, points on the plane are selected from the original range image (step S66). This is determined by using the following (1) and (2) by using the fact that the distance d from the plane is smaller than the threshold value D th .
【0058】[0058]
【数1】 [Equation 1]
【0059】[0059]
【数2】 [Equation 2]
【0060】図12には、しきい値Dthを1cmとした
範囲で選択された測定点(×印)を示す。この図12に
て、黒く抜かれている点が平面と判断されなかった点で
ある。FIG. 12 shows the measurement points (x marks) selected within the range where the threshold value D th is 1 cm. In FIG. 12, the black dots are points that were not judged to be flat.
【0061】したがって、前記ステップS66にて平面
上(床面)上に載っている点以外の点(床面上に無い
点)を障害物としてステップS67にて認識することが
できる。これらの判断結果は床平面上の点(x、y)と
その高さzで表現される。例えば、高さz<0は、平面
より凹んでいる点を示す。Therefore, points (points not on the floor) other than the points lying on the plane (floor) in step S66 can be recognized as obstacles in step S67. These judgment results are expressed by a point (x, y) on the floor plane and its height z. For example, the height z <0 indicates a point that is recessed from the plane.
【0062】これにより、高さがロボットより高い障害
物点はそれをくぐることができるので障害物ではないと
いう判断も可能とすることができる。As a result, an obstacle point having a height higher than that of the robot can pass through the obstacle point, so that it can be determined that the obstacle point is not an obstacle.
【0063】また、ロボットビュー(図13の(a))
から得た床面抽出画像(図13の(b))の高さzを0
(z=0)となるように座標変換すれば、図13の
(c)に示すように、平面上の2次元の位置で床か障害
物かを表現することができる。The robot view ((a) of FIG. 13)
The height z of the floor extraction image ((b) of FIG. 13) obtained from FIG.
If the coordinates are converted so that (z = 0), it is possible to represent the floor or the obstacle at a two-dimensional position on the plane, as shown in (c) of FIG.
【0064】このように、障害物認識装置は、多数の測
定点を使って平面の検出を行うために安定した平面を抽
出できる。また、画像から得られる平面候補をロボット
の姿勢から得られる床面パラメータと照合することで正
しい平面を選択できる。また、障害物を認識するのでは
なく、実質的には床面を認識するので障害物の形状や大
きさに因らない認識が可能である。また、床面からの距
離で障害物を表現するので細かい段差や凹みまで検出す
ることができる。またロボットの大きさを考慮して跨い
だり、くぐったりする判断も容易である。さらに、2次
元床面上の障害物表現となるので経路計画などに既存の
移動ロボットで用いられる手法が適用可能であるし、3
次元の表現より高速に演算できる。As described above, the obstacle recognizing device can detect a stable plane because the plane is detected using a large number of measurement points. In addition, the correct plane can be selected by comparing the plane candidates obtained from the image with the floor surface parameters obtained from the posture of the robot. Moreover, since the floor surface is substantially recognized instead of recognizing the obstacle, it is possible to recognize the obstacle irrespective of the shape or size of the obstacle. Further, since the obstacle is represented by the distance from the floor surface, it is possible to detect even a small step or a recess. In addition, it is easy to determine whether to cross over or pass through considering the size of the robot. In addition, the method used by existing mobile robots can be applied to route planning because it is an obstacle expression on a two-dimensional floor.
It can be operated faster than dimensional representation.
【0065】障害物グリッド算出部OG330は、所定
の大きさのグリッドに分割された、ロボット中心座標系
の地図情報である環境地図と、例えば環境地図上におい
てx軸方向又はy軸方向等の所定の方角からロボット装
置が向く方角を示す姿勢情報とを有している。また、環
境地図は、障害物情報が平面抽出部PLEXから入力さ
れ、障害物として認識されているグリッド(障害物占有
領域)を有する。この障害物グリッド算出部OG330
は、ロボット装置が移動すると、即ち、オドメトリ31
4が入力されると、予めメモリ内に格納されていた環境
地図及び姿勢情報を、ロボット装置の姿勢の変化(差分
移動角)及び移動距離(差分移動量)に伴って、予め認
識している環境地図及び姿勢方向の情報を更新する。こ
こで、差分移動量がグリッドサイズより小さければ環境
地図を更新せず、移動量がグリッドのサイズを超える場
合は環境地図を更新する。また、環境地図及びそのグリ
ッドの大きさを必要に応じて適宜変更することにより、
計算量及びメモリコピーコスト等を低減することができ
る。The obstacle grid calculation unit OG330 divides the grid into a grid of a predetermined size and is an environment map which is the map information of the robot center coordinate system, and a predetermined x-axis direction or a y-axis direction on the environment map. And orientation information indicating the direction in which the robot device faces from the direction. Further, the environment map has a grid (obstacle occupied area) in which obstacle information is input from the plane extraction unit PLEX and recognized as an obstacle. This obstacle grid calculation unit OG330
When the robot moves, that is, the odometry 31
When 4 is input, the environment map and the posture information stored in advance in the memory are recognized in advance along with the change in the posture of the robot apparatus (difference movement angle) and the movement distance (difference movement amount). Update the environment map and posture direction information. Here, if the difference movement amount is smaller than the grid size, the environment map is not updated, and if the movement amount exceeds the grid size, the environment map is updated. In addition, by appropriately changing the size of the environmental map and its grid,
It is possible to reduce the amount of calculation and the memory copy cost.
【0066】以下、障害物グリッド算出部OG330に
ついて図14〜図19を参照して詳細に説明する。図1
4は、障害物グリッド算出部OG330にて認識される
環境地図を示す模式図である。図14に示すように、環
境地図400は、ロボット装置(移動体)403を中心
とした周囲の地図情報である環境地図(ロボット中心座
標系での地図情報)であり、所定の大きさのグリッド4
10に分割されている。そして、ロボット装置403が
移動すると、常にロボット装置403が環境地図400
の中心に位置する中心グリッド401内に位置するよう
に更新されるものである。この図14に示す環境地図4
00及びグリッド410の大きさは、必要に応じて適宜
変更することができる。即ち、例えば、精細な環境地図
が不要であるとき等は、環境地図400を小さくする
か、又はグリッド410の大きさを大きくして解像度を
下げることにより、計算量及びメモリコピーコスト等を
小さくすることができる。The obstacle grid calculator OG330 will be described in detail below with reference to FIGS. 14 to 19. Figure 1
4 is a schematic diagram showing an environment map recognized by the obstacle grid calculation unit OG330. As shown in FIG. 14, the environment map 400 is an environment map (map information in the robot center coordinate system) that is map information of the surroundings around the robot device (moving body) 403, and has a grid of a predetermined size. Four
It is divided into 10. When the robot device 403 moves, the robot device 403 constantly moves the environment map 400.
It is updated so as to be located in the central grid 401 located at the center of the. Environmental map 4 shown in FIG. 14
00 and the size of the grid 410 can be appropriately changed as needed. That is, for example, when a fine environment map is unnecessary, the environment map 400 is made smaller, or the size of the grid 410 is made larger to lower the resolution, thereby reducing the calculation amount and the memory copy cost. be able to.
【0067】また、図14において、ハッチングして示
すグリッド402は、障害物として認識される最小単位
の領域(障害物占有領域)を示す。位置認識装置におけ
る障害物の認識方法としては、例えば、ステレオカメラ
等による視差画像から求める方法、レンジファインダー
等の電波の跳ね返りを利用する方法、及び超音波センサ
等の距離測定センサによる方法等がある。そして、これ
らの方法により認識された障害物の位置を位置認識装置
が環境地図のグリッドの属性として認識(表示)する。
本実施の形態においては、障害物情報は、前述した平面
抽出部PLEX320から入力される。In FIG. 14, a hatched grid 402 indicates a minimum unit area (obstacle occupied area) recognized as an obstacle. As a method of recognizing an obstacle in the position recognizing device, for example, a method of obtaining from a parallax image by a stereo camera, a method of using rebound of radio waves such as a range finder, and a method of using a distance measuring sensor such as an ultrasonic sensor . Then, the position recognition device recognizes (displays) the position of the obstacle recognized by these methods as an attribute of the grid of the environment map.
In the present embodiment, the obstacle information is input from the plane extraction unit PLEX320 described above.
【0068】障害物グリッド算出部OG330は、上述
したように、データ画像及びセンサデータが入力される
キネマティックオドメトリKINE310からオドメト
リ314が入力されると、予めメモリ内に格納されてい
た環境地図を更新する。メモリ内には、ロボット装置4
03を中心としたロボット装置の周囲の障害物等の情報
を有する地図情報である環境地図400と共に、この地
図上においてのロボット装置(移動体)の向きを示す姿
勢情報404とを有するものである。姿勢情報404
は、所定の方角、例えばx軸方向又はy軸方向からロボ
ット装置403が向く方角を示すものである。そして、
ロボット装置の姿勢の変化及び移動等に伴って、図14
に示す予め認識している環境地図及び姿勢方向の情報を
更新する。As described above, when the odometry 314 is input from the kinematic odometry KINE 310 to which the data image and the sensor data are input, the obstacle grid calculation unit OG330 updates the environment map previously stored in the memory. To do. In the memory, the robot device 4
No. 03, which is an environment map 400 that is map information that includes information about obstacles around the robot apparatus, and attitude information 404 that indicates the orientation of the robot apparatus (moving body) on this map. . Posture information 404
Indicates a direction in which the robot device 403 faces from a predetermined direction, for example, the x-axis direction or the y-axis direction. And
As the posture and movement of the robot apparatus change, FIG.
The previously recognized environment map and the information on the posture direction are updated.
【0069】先ず、環境地図の更新方法について説明す
る。本発明の位置認識装置においては、ロボット装置等
の移動量の大きさによっては環境地図を更新しない。即
ち、移動量が所定の領域(グリッド)内であれば環境地
図を更新せず、移動量がグリッドのサイズを超える場合
は環境地図を更新するものである。First, the method of updating the environment map will be described. In the position recognition device of the present invention, the environment map is not updated depending on the amount of movement of the robot device or the like. That is, if the movement amount is within a predetermined area (grid), the environment map is not updated, and if the movement amount exceeds the size of the grid, the environment map is updated.
【0070】図15(a),(b)及び(c),(d)
は移動量に応じた環境地図の更新方法を示す図であっ
て、夫々環境地図を更新しない場合及び環境地図を更新
する場合の環境地図を示す模式図である。図15(a)
に示すように、環境地図500における中心グリッド5
01内にロボット装置503が位置している。ハッチン
グして示すグリッド502は障害物領域を示す。このロ
ボット装置503の移動量505が小さく、図15
(b)に示すように、ロボット装置503の位置が移動
後のロボット装置506においても、そのロボット50
6の位置が中心グリッド501内であった場合、環境地
図500は更新しない。この場合は、中心グリッド50
1内におけるロボット装置の移動位置情報だけを更新す
る。15 (a), (b) and (c), (d)
FIG. 9 is a diagram showing a method of updating the environment map according to the movement amount, and is a schematic diagram showing the environment map when the environment map is not updated and when the environment map is updated. FIG. 15 (a)
As shown in FIG.
The robot device 503 is located within 01. A hatched grid 502 indicates an obstacle area. The movement amount 505 of the robot device 503 is small, and
As shown in (b), even in the robot device 506 after the position of the robot device 503 has moved, the robot
If the position of 6 is within the central grid 501, the environment map 500 is not updated. In this case, the center grid 50
Only the movement position information of the robot device in 1 is updated.
【0071】一方、図15(a)と同様に、図15
(c)に示すように、環境地図500における中心グリ
ッド501内に位置したロボット装置503の移動量5
15が大きく中心グリッド501を越えた場合、図15
(d)に示すように、移動後のロボット装置513が環
境地図の中心グリッド511に位置するように、移動し
たグリッドの数だけ環境地図500をシフトさせて更新
して更新環境地図510を得る。On the other hand, similar to FIG.
As shown in (c), the movement amount 5 of the robot apparatus 503 located in the central grid 501 in the environment map 500.
If 15 greatly exceeds the central grid 501, FIG.
As shown in (d), the updated environment map 510 is obtained by shifting and updating the environment map 500 by the number of moved grids so that the robot device 513 after movement is located on the center grid 511 of the environment map.
【0072】即ち、障害物領域として認識される大きさ
の最小単位であるグリッドの大きさをCS(Cell Siz
e)、グリッド内のロボット装置の位置を(Bx,B
y)、ロボット装置の2次元方向の移動量を(dx,d
y)とすると、グリッドのシフトの大きさ(Sx,S
y)は下記数式(3)で示される。That is, the size of the grid, which is the minimum unit of the size recognized as the obstacle area, is CS (Cell Siz
e), the position of the robot device in the grid is (Bx, B
y), the movement amount of the robot device in the two-dimensional direction is (dx, d
y), the magnitude of the grid shift (Sx, S
y) is shown by the following mathematical expression (3).
【0073】[0073]
【数3】 [Equation 3]
【0074】ここで、上記数式(3)において、[]
は、ガウス記号であって、[]内の値を超えない最大の
整数値を示すものとする。また、グリッド内のロボット
位置(Rx,Ry)は、下記数式(4)で示される。Here, in the above formula (3), []
Is a Gaussian symbol and represents the maximum integer value that does not exceed the value in []. The robot position (Rx, Ry) in the grid is expressed by the following mathematical expression (4).
【0075】[0075]
【数4】 [Equation 4]
【0076】上記数式(3)及び数式(4)の値を図1
6に示す。図16(a)に示すように、ロボット装置6
03は、グリッドサイズCSを有する複数個のグリッド
に分割された環境地図600における中心グリッド60
1内に位置している。環境地図600内にはハッチング
して示す障害物領域を示す複数個のグリッド602を有
する。ここで、中心グリッド601内の例えば図中左下
隅の点607をグリッド601内のロボット装置603
の位置原点とすることができる。このロボット装置60
3の位置は、原点607からの距離として位置(Bx,
By)として表すことができる。このロボット装置60
3が移動量(dx,dy)605の移動をしてグリッド
608に移動した場合、移動後のロボット装置613の
位置は、(Bx+dx,By+dy)として表すことが
できる。The values of the equations (3) and (4) are shown in FIG.
6 shows. As shown in FIG. 16A, the robot device 6
03 is a central grid 60 in the environment map 600 divided into a plurality of grids having a grid size CS.
Located within 1. The environment map 600 has a plurality of grids 602 that indicate obstacle areas shown by hatching. Here, for example, a point 607 at the lower left corner in the figure in the center grid 601 is a robot device 603 in the grid 601.
Can be the position origin. This robot device 60
The position of 3 is the position (Bx,
By). This robot device 60
When 3 moves by the movement amount (dx, dy) 605 and moves to the grid 608, the position of the robot apparatus 613 after the movement can be represented as (Bx + dx, By + dy).
【0077】ロボット装置603が移動量(dx,d
y)605の移動をした場合、環境地図シフト量(S
x,Sy)は、上記数式(1)から算出することができ
る。ここで、更新環境地図610において、環境地図6
00をx軸方向のシフト量Sx及びy軸方向のシフト量
Syだけ、夫々x軸方向の移動量dx及びy軸方向の移
動量dyとは逆方向に環境地図をシフトさせたものとし
て更新することができる。なお、ここでは、ロボット装
置の移動量(dx,dy)は右向きを正とし、環境地図
のシフト量(Sx,Sy)は、移動方向とは逆方向であ
る左向きを正としている。The robot unit 603 moves the moving amount (dx, d
y) When moving 605, the environmental map shift amount (S
x, Sy) can be calculated from the above equation (1). Here, in the updated environment map 610, the environment map 6
00 is updated by shifting the environment map by the shift amount Sx in the x-axis direction and the shift amount Sy in the y-axis direction, which are shifted in the opposite directions to the shift amount dx in the x-axis direction and the shift amount dy in the y-axis direction, respectively. be able to. In addition, here, the movement amount (dx, dy) of the robot device is positive in the right direction, and the shift amount (Sx, Sy) of the environment map is positive in the left direction which is the opposite direction to the movement direction.
【0078】こうして移動後のロボット装置613は、
更新環境地図610の中心グリッド611に位置する。
ここで、移動後のロボット装置613の環境地図シフト
後の更新環境地図610の中心グリッド611における
ロボット位置(Ax,Ay)は、移動前のロボット装置
603のシフト前環境地図600の中心グリッド601
におけるロボット位置(Bx,By)と、グリッド内移
動量(Rx,Ry)615とからロボット位置(Ax,
Ay)=(Bx+Rx,By+Ry)=(Bx+dx−
CS×Sx,By+dy−CS×Sy)として算出する
ことができる。In this way, the robot apparatus 613 after moving is
It is located on the central grid 611 of the updated environment map 610.
Here, the robot position (Ax, Ay) in the center grid 611 of the updated environment map 610 after shifting the environment map of the robot apparatus 613 after movement is the center grid 601 of the pre-shift environment map 600 of the robot apparatus 603 before movement.
From the robot position (Bx, By) and the in-grid movement amount (Rx, Ry) 615, the robot position (Ax, By)
Ay) = (Bx + Rx, By + Ry) = (Bx + dx−
It can be calculated as CS × Sx, By + dy−CS × Sy).
【0079】次に、ロボット装置の姿勢方向の情報の更
新について説明する。図17(a)及び(b)は、姿勢
方向の夫々更新前後の様子を示す模式図である。ロボッ
ト装置の姿勢情報に関しては、環境地図を固定した座標
系に対する角度として示すことができる、即ち、ロボッ
ト装置が姿勢方向dαだけ変化させた場合、ロボット装
置の姿勢方向の情報のみが更新され、環境地図は更新さ
れない。Next, updating of information on the posture direction of the robot device will be described. FIGS. 17A and 17B are schematic diagrams showing the states before and after updating the posture direction. Regarding the posture information of the robot device, the environment map can be shown as an angle with respect to the fixed coordinate system, that is, when the robot device changes only the posture direction dα, only the information of the posture direction of the robot device is updated to change the environment. The map is not updated.
【0080】即ち、図17(a)に示すように、障害物
領域である複数個のグリッド702を有する環境地図7
00における中心グリッド701に位置するロボット装
置703において、移動前のロボット姿勢方向をαとす
る。姿勢方向αは、例えば時計回りを正とし、y軸から
の傾き又はx軸からの傾き等として示すことができる。
ここで、ロボット装置703が姿勢回転角度dαで回転
した場合、図17(b)に示すように、移動後後のロボ
ット姿勢方向(姿勢情報)は、α+dαとして示すこと
ができる。That is, as shown in FIG. 17A, the environment map 7 having a plurality of grids 702 which are obstacle regions.
In the robot apparatus 703 located on the central grid 701 at 00, the robot posture direction before movement is α. The posture direction α can be shown as a tilt from the y-axis or a tilt from the x-axis, with the clockwise direction being positive, for example.
Here, when the robot device 703 rotates at the posture rotation angle dα, the robot posture direction (posture information) after movement can be shown as α + dα, as shown in FIG. 17B.
【0081】図18は、障害物グリッド算出部OG33
0のもたらす効果を示す図である。図18に示すよう
に、環境地図及びロボット装置自身の姿勢方向の情報の
更新、即ちキネマティックオドメトリKINE801か
ら障害物グリッド算出部802への移動量(オドメト
リ)803の受け渡しは、所定の時間毎に自動的に行う
こともできるが、ロボット装置が1歩歩く毎に行うよう
にする。このことにより、移動していないときは更新作
業をしないようにし、更新作業を行うことによる計算コ
スト及びメモリコピーコストをなくすことでロボット装
置の例えばCPU等の負荷を低減することができる。ま
た、ソフトウェアの構成がオブジェクト単位で処理を行
うような場合は、受け渡すデータは、ロボット装置の移
動差分量・回転差分量(dx,dy,dα)のみとでよ
く、ロボット装置の絶対座標及び絶対角度を受け渡すよ
りもデータ量が少なく、且つ高い精度を得ることができ
る。FIG. 18 shows the obstacle grid calculation unit OG33.
It is a figure which shows the effect which 0 brings. As shown in FIG. 18, the environment map and the information on the posture direction of the robot apparatus itself are updated, that is, the movement amount (odometry) 803 is transferred from the kinematic odometry KINE 801 to the obstacle grid calculation unit 802 every predetermined time. Although it can be automatically performed, it is performed every time the robot device walks one step. As a result, it is possible to reduce the load of the robot device, for example, the CPU, by not performing the update work when not moving and by eliminating the calculation cost and the memory copy cost due to the update work. Further, when the software configuration performs processing in units of objects, the data to be transferred may be only the movement difference amount / rotation difference amount (dx, dy, dα) of the robot device, and the absolute coordinates of the robot device and The amount of data is smaller than that of passing an absolute angle, and high accuracy can be obtained.
【0082】また、エンタテーメントロボット装置が位
置認識以外の処理を行う場合、例えば音声認識及び顔認
識等、位置認識と直接関係がなく、位置認識のプライオ
リティを下げてもよい場合がある。このような場合にお
いて、位置認識装置(位置認識のオブジェクト)を停止
すると、位置認識のプライオリティが高くなった際に、
停止していた間に移動があったりする等して、停止前の
位置認識結果と整合が取れなくなるという問題(Kid
Nap問題)が生じる。従って、位置認識のプライオリ
ティを下げてよい場合においては、環境地図のグリッド
の大きさCSを大きくするか、又は環境地図サイズの大
きさ自身を小さくするかすることにより、位置認識のオ
ブジェクトを停止することなく、CPUのリソースを低
減することができる。Further, when the entertainment robot apparatus performs processing other than position recognition, there are cases where the priority of position recognition may be lowered because it is not directly related to position recognition, such as voice recognition and face recognition. In such a case, if the position recognition device (object of position recognition) is stopped, when the priority of position recognition becomes high,
There is a problem that the position recognition result before the stop cannot be matched due to movement during the stop (Kid
Nap problem) occurs. Therefore, when the priority of the position recognition may be lowered, the position recognition object is stopped by increasing the size CS of the environment map grid or by decreasing the size of the environment map size itself. It is possible to reduce the CPU resource without doing so.
【0083】更に、以上説明したような処理で得られる
環境地図及びロボット装置の姿勢情報を図19に示す操
作盤に表示することができる。図19は、例えばユーザ
がロボット装置の遠隔操作時に使用する操作盤を示す模
式図である。図19に示すように、操作盤900には、
ロボット装置のカメラ画像901及び環境地図910が
表示される。操作盤900には、その他、例えばロボッ
ト装置913を移動させる操作ボタン920等が備えら
れている。Further, the environment map and the posture information of the robot device obtained by the above-described processing can be displayed on the operation panel shown in FIG. FIG. 19 is a schematic diagram showing an operation panel used by a user for remote control of a robot apparatus, for example. As shown in FIG. 19, the operation panel 900 includes
A camera image 901 of the robot device and an environment map 910 are displayed. In addition, the operation panel 900 is provided with, for example, operation buttons 920 for moving the robot apparatus 913.
【0084】移動ロボット装置の重要な利用方法として
は、自律動作以外にユーザが遠隔操作をする利用方法が
ある。従来、ロボットの操作盤にロボット装置に装備さ
れたカメラによって得られる画像を表示するものがあ
る。しかしながら、特に、視野の限られたカメラだけで
はユーザがロボット装置周辺の環境を把握してロボット
装置を操作することは困難であった。しかし、本実施の
形態のように、ロボット装置913に装備されたCCD
等のカメラからのカメラ画像901のみのデータで遠隔
操作する従来のロボット制御よりも、遠隔操作用の操作
盤900に環境地図910を表示することによって、ロ
ボット制御の操作性が飛躍的に向上する。As an important usage method of the mobile robot apparatus, there is a usage method in which the user remotely operates in addition to the autonomous operation. 2. Description of the Related Art Conventionally, there is one that displays an image obtained by a camera mounted on a robot device on a control panel of the robot. However, in particular, it is difficult for the user to operate the robot apparatus by grasping the environment around the robot apparatus only with a camera having a limited field of view. However, as in the present embodiment, the CCD installed in the robot device 913
By displaying the environment map 910 on the operation panel 900 for remote control, the operability of robot control is dramatically improved, as compared with the conventional robot control in which remote control is performed using only the camera image 901 from the camera. .
【0085】ここで、ロボットの姿勢情報が変化しても
環境地図を更新しないものとして説明したが、通常、ロ
ボット装置においてはCCDカメラ等の撮像装置は頭部
ユニット前面に設けられており、カメラ画像901はロ
ボット装置の前方の画像を表示する。従って、姿勢情報
が変化してロボット装置の向きが例えば180°回転し
た場合、カメラ画像と環境地図との方向が逆になる。よ
って、姿勢情報が、例えば45°又は90°等、所定の
角度以上回転した場合は、この回転に伴い環境地図を回
転させることにより、更にロボット制御の操作性が向上
する。Although it has been described here that the environment map is not updated even if the posture information of the robot changes, in a robot device, an image pickup device such as a CCD camera is usually provided on the front face of the head unit. The image 901 displays an image in front of the robot apparatus. Therefore, when the orientation information changes and the orientation of the robot device is rotated by 180 °, for example, the directions of the camera image and the environment map are reversed. Therefore, when the posture information is rotated by a predetermined angle or more, such as 45 ° or 90 °, the operability of robot control is further improved by rotating the environment map along with the rotation.
【0086】次に、ランドマーク位置検出部CLS34
0は、図20に示すように、例えば、グリーン部分10
01、ピンク部分1002、又はブルー部分1003等
のカラーを有する人工的なカラーランドマーク1004
を含む環境において、ロボット装置1のセンサ情報と、
ロボット装置1が行った動作情報によって、ロボット装
置の自己位置(位置及び姿勢)を同定する。Next, the landmark position detector CLS34
As shown in FIG. 20, 0 is, for example, the green portion 10
An artificial color landmark 1004 having a color such as 01, pink portion 1002, or blue portion 1003.
Sensor information of the robot device 1 in an environment including
The self-position (position and orientation) of the robot device is identified based on the motion information performed by the robot device 1.
【0087】例えば、2次元的な作業空間上では、略等
間隔状にグリッド(x,y)を設け、各グリッドの位置
l(localization)毎にロボット装置が存在する確率p
(l)を管理する。この存在確率p(l)は、ロボット
装置の移動(move)、即ち内界観測情報a、又はラ
ンドマークの観測、即ち外界観測情報sの入力に応じて
更新される。For example, in a two-dimensional work space, grids (x, y) are provided at substantially equal intervals, and the probability p that a robot device exists for each position l (localization) of each grid.
Manage (l). The existence probability p (l) is updated in response to the movement of the robot apparatus, that is, the internal observation information a, or the observation of the landmark, that is, the external observation information s.
【0088】存在確率p(l)は、ロボット装置の以前
の状態、即ち自己位置l'における存在確率p(l')
と、以前の状態l'において移動aを行ったときに状態
lになるという遷移確率p(l|a,l')に依拠す
る。即ち、これまでの各状態l'になる確率p(l')
と、状態l'において移動aを行ったときに状態lにな
るという遷移確率p(l|a,l')の積を加算してい
く(若しくは積分する)ことによって、現在の状態、即
ち自己位置lになるという存在確率p(l)に収束す
る。従って、外界観測結果としてのロボット装置の移動
aが観測されたときには、各グリッドでは、下記数式
(5)に従ってロボット装置の存在確率p(l)を更新
することができる。The existence probability p (l) is the existence probability p (l ') at the previous state of the robot apparatus, that is, at the self position l'.
And the transition probability p (l | a, l ′) that the state becomes l when the movement a is performed in the previous state l ′. That is, the probability p (l ') of each state l'
And adding (or integrating) the products of transition probabilities p (l | a, l ′) that the state 1 is obtained when the movement a is performed in the state l ′. It converges to the existence probability p (l) that the position is 1. Therefore, when the movement “a” of the robot apparatus is observed as the external observation result, the existence probability p (l) of the robot apparatus can be updated in each grid according to the following mathematical expression (5).
【0089】[0089]
【数5】 [Equation 5]
【0090】また、状態、即ち自己位置lにロボット装
置が存在するという存在確率p(l)は、存在確率p
(l)とこの状態lにおいてランドマークを観察すると
いう遷移確率p(s|l)に依拠する。したがって、状
態lにおいてランドマークの観測、即ち外界観測情報s
が入力された場合には、下式に従ってロボット装置の存
在確率p(l)を更新することができる。但し、下記数
式(6)に示すように右辺では、正規化のため、ランド
マークを観察するという確率p(s)で除して正規化し
ている。Further, the existence probability p (l) that the robot device exists in the state, that is, the self position l is
(L) and the transition probability p (s | l) of observing a landmark in this state l. Therefore, in the state 1, the landmark observation, that is, the external observation information s
When is input, the existence probability p (l) of the robot device can be updated according to the following equation. However, as shown in the following mathematical expression (6), the right side is normalized for normalization by dividing by the probability p (s) of observing the landmark.
【0091】[0091]
【数6】 [Equation 6]
【0092】図21は、マルコフ・ローカリゼーション
と拡張カルマン・フィルタを併用した本実施形態に係る
ランドマークセンサCLS(自己位置同定システム)3
40の機能構成を模式的に示している。同図に示すよう
に、このランドマークセンサCLS340は、マルコフ
・ローカリゼーション部(ML)342と、拡張カルマ
ン・フィルタ部(EKL)343と、拡張カルマン・フ
ィルタ部343の動作を制御するEKL制御部344と
で構成されている。FIG. 21 shows a landmark sensor CLS (self-localization system) 3 according to the present embodiment which uses both Markov localization and extended Kalman filter.
The functional configuration of 40 is schematically shown. As shown in the figure, the landmark sensor CLS340 includes a Markov localization unit (ML) 342, an extended Kalman filter unit (EKL) 343, and an EKL control unit 344 that controls the operations of the extended Kalman filter unit 343. It consists of and.
【0093】マルコフ・ローカリゼーション部342
は、作業空間内の自分の位置を離散的なグリッド上の自
己位置確率密度分布として保持し、ランドマークの観測
に関する外界観測情報sと、ロボット装置自身の動作に
関する内界観測情報aを入力して、自己位置確率密度分
布の更新を行う。そして、各時刻において、自己位置確
率密度分布の最も高い値を持つグリッドを自己位置の推
定結果としてEKL制御部344に出力する。Markov Localization Section 342
Holds its own position in the work space as a self-position probability density distribution on a discrete grid, and inputs external observation information s regarding the observation of landmarks and internal observation information a regarding the movement of the robot device itself. Then, the self-position probability density distribution is updated. Then, at each time point, the grid having the highest value of the self-position probability density distribution is output to the EKL control unit 344 as the self-position estimation result.
【0094】図22は、マルコフ・ローカリゼーション
部342により求められた各グリッド上での自己位置確
率密度分布を表している。同図では、各グリッドにおけ
る確率密度を濃淡により表現している。最も色が濃い、
即ち自己位置確率密度分布が最も高い値を有するグリッ
ドが自己位置の推定結果となる。FIG. 22 shows the self-position probability density distribution on each grid obtained by the Markov localization unit 342. In the figure, the probability density in each grid is represented by shading. Darkest color,
That is, the grid having the highest value of the self-position probability density distribution becomes the self-position estimation result.
【0095】このマルコフ・ローカリゼーションによる
自己位置同定は、センサのノイズに対してロバストであ
り、同定解の精度は粗いが解の収束速度が速いことを主
な特徴とする。The self-position identification by the Markov localization is robust against the noise of the sensor, and is characterized mainly in that the accuracy of the identification solution is rough but the convergence speed of the solution is fast.
【0096】一方、図21に示す拡張カルマン・フィル
タ部343は、自己位置を状態変数[x,y,θ]を実
測値として保持し、環境内に設置されたカラーランドマ
ーク1004を観測すると、ランドマークからの相対位
置に基づいて自己位置を推定する。また、自身の動作情
報を観測すると、その動作情報に基づいて状態量の推定
を行う。On the other hand, the extended Kalman filter unit 343 shown in FIG. 21 holds the self position as a state variable [x, y, θ] as an actually measured value, and observes the color landmark 1004 installed in the environment, The self-position is estimated based on the relative position from the landmark. Further, when observing its own motion information, the state quantity is estimated based on the motion information.
【0097】拡張カルマン・フィルタ部343は、ロボ
ット装置自身の動作情報aと状態、即ち、自己位置lと
の関係を規定した状態モデルと、自己位置lとランドマ
ークの観測情報sとの関係を規定した観測モデルとで構
成されている。The extended Kalman filter unit 343 defines the relationship between the motion information a of the robot apparatus itself and the state, that is, the state model defining the relationship between the self position l and the observation position s of the self position l and the landmark. It consists of a specified observation model.
【0098】状態モデルは、ロボット装置が状態(自己
位置)lにおいて動作aを行った場合における理論的な
状態lを与える遷移関数F(l,a)を備えている。実
際には理論的な状態lに対してノイズ成分wが重畳され
ることから、ロボット装置の状態lは状態モデルにより
下記数式(7)のように収束する。The state model has a transition function F (l, a) that gives a theoretical state 1 when the robot apparatus performs the action a in the state (self position) l. In reality, since the noise component w is superimposed on the theoretical state 1, the state 1 of the robot apparatus converges according to the following equation (7) according to the state model.
【0099】[0099]
【数7】 [Equation 7]
【0100】また、観測モデルは、ロボット装置が状
態、即ち自己位置iにおいて、ある既知の環境Env
(例えばランドマークの位置など)に関する観測の理論
値sを与える観測関数H(Env,l)を備えている。
実際には観測の理論値に対してノイズ成分vが重畳され
ることから、観測値sは観測モデルにより下記数式
(8)のように収束する。Further, the observation model is such that the robot device is in a state, that is, in the self position i, in a known environment Env.
It is provided with an observation function H (Env, l) that gives a theoretical value s of observation (for example, the position of a landmark).
Since the noise component v is actually superimposed on the theoretical value of the observation, the observed value s converges according to the following equation (8) according to the observation model.
【0101】[0101]
【数8】 [Equation 8]
【0102】なお、状態l並びに観測sに重畳されるそ
れぞれのノイズw及びvは、ここではゼロを中央値とす
るガウス分布として仮定する。It should be noted that the noises w and v superimposed on the state 1 and the observation s are assumed to be Gaussian distributions whose center value is zero.
【0103】ロボット装置自身の動作情報aと自己位置
lとの関係を規定した状態モデルと自己位置lとランド
マークの観測情報sとの関係を規定した観測モデルを備
えた拡張カルマン・フィルタ部343において、動作情
報aは内界観測結果として、ランドマークの観測情報s
は外界観測結果として、夫々既知である。従って、ロボ
ット装置の自己位置同定を、ロボット装置の状態lをロ
ボット装置の動作情報a及び観測情報sにより推定する
という問題に帰着することができる。ここでは、ロボッ
ト装置の動作a、状態l、及び観測sをそれぞれ下記に
示すガウス分布として表現することができる。The extended Kalman filter unit 343 having a state model defining the relationship between the motion information a of the robot apparatus itself and the self position l and an observation model defining the relationship between the self position l and the observation information s of the landmark. In the above, the motion information a is the observation information s of the landmark as the internal observation result
Are known as external observation results. Therefore, the self-position identification of the robot device can be reduced to the problem of estimating the state 1 of the robot device from the motion information a and the observation information s of the robot device. Here, the operation a, the state l, and the observation s of the robot device can be expressed as a Gaussian distribution shown below.
【0104】[0104]
【数9】 [Equation 9]
【0105】ある時点でのロボット装置の状態lがある
中央値と及び共分散を有するガウス分布をとるものとし
て推定する。そして、ロボット装置の動作aが観測され
たときには、状態lの推定値に関する中央値並びに共分
散を下記数式(9−1),(9−2)により更新するこ
とができる。It is estimated that the state 1 of the robot apparatus at a certain time point has a Gaussian distribution having a certain median value and covariance. Then, when the motion a of the robot apparatus is observed, the median value and the covariance regarding the estimated value of the state 1 can be updated by the following mathematical expressions (9-1) and (9-2).
【0106】[0106]
【数10】 [Equation 10]
【0107】ここで、▽Fl,▽Faは、下記とする。Here, ∇Fl and ∇Fa are as follows.
【0108】[0108]
【数11】 [Equation 11]
【0109】同様に、ある時点でのロボット装置の状態
lがある中央値及び共分散を有するガウス分布をとるも
のとして推定する。そして、ランドマークの観測情報s
が観測されたときには、状態lの推定値に関する中央値
並びに共分散を下記数式(10−1),(10−2)に
より更新することができる。Similarly, it is estimated that the state 1 of the robot apparatus at a certain time point has a Gaussian distribution having a certain median and covariance. And the landmark observation information s
When is observed, the median and covariance regarding the estimated value of the state 1 can be updated by the following mathematical formulas (10-1) and (10-2).
【0110】[0110]
【数12】 [Equation 12]
【0111】ここで、各パラメータは下記とする。Here, each parameter is as follows.
【0112】[0112]
【数13】 [Equation 13]
【0113】拡張カルマン・フィルタ343はセンサ情
報に対するロバスト性に優れているので、拡張カルマン
・フィルタ部343の推定結果は、ランドマークセンサ
CLS340全体の出力としている。Since the extended Kalman filter 343 is excellent in robustness to sensor information, the estimation result of the extended Kalman filter unit 343 is the output of the entire landmark sensor CLS340.
【0114】EKL制御部344は、マルコフ・ローカ
リゼーション部342の出力結果に応じて拡張カルマン
・フィルタ部344の動作を制御する。より具体的に
は、マルコフ・ローカリゼーション部342の自己位置
推定結果に基づいて、ランドマークの観測情報sに関す
る妥当性を検証する。観測情報sの妥当性は、マルコフ
・ローカリゼーション部342において最大の存在確率
となるグリッド位置mlpにおいてランドマークを観測
する確率p(s|mlp)が所定の閾値パラメータth
reshobsを越えたかどうかで判断することができ
る。The EKL control unit 344 controls the operation of the extended Kalman filter unit 344 according to the output result of the Markov localization unit 342. More specifically, the validity of the landmark observation information s is verified based on the self-position estimation result of the Markov localization unit 342. The validity of the observation information s is that the probability p (s | mlp) of observing a landmark at the grid position mlp, which is the maximum existence probability in the Markov localization unit 342, is a predetermined threshold parameter th.
It can be judged by whether or not it exceeds reshobs.
【0115】グリッド位置mlpにおいてランドマーク
を観測する確率p(s|mlp)が閾値パラメータth
reshobsを下回る場合には、センサ・ノイズに対し
てロバストなマルコフ・ローカリゼーション部342に
おいてさえ、センサ・ノイズのために同定解が充分に収
束していないことが推測される。このような場合、セン
サ・ノイズに対するロバスト性が低い拡張カルマン・フ
ィルタ部343において自己位置を推定しても、精度が
高い解が得られず、むしろ演算時間を浪費するだけであ
る。このため、観測情報sが妥当でないと判断された場
合には、切換器345を用いて拡張カルマン・フィルタ
部343への外界観測情報s、即ちランドマークの観測
情報の入力を遮断して、拡張カルマン・フィルタ部34
3における自己位置推定値の更新を停止させる。The probability p (s | mlp) of observing a landmark at the grid position mlp is the threshold parameter th.
When it is less than reshobs, it is estimated that the identification solution is not sufficiently converged due to the sensor noise even in the Markov localization unit 342 that is robust against the sensor noise. In such a case, even if the self-position is estimated in the extended Kalman filter unit 343, which has low robustness against sensor noise, a highly accurate solution cannot be obtained, and rather the calculation time is wasted. Therefore, when it is determined that the observation information s is not appropriate, the input of the external observation information s, that is, the observation information of the landmark, to the extended Kalman filter unit 343 is blocked using the switch 345, and the extension is performed. Kalman filter unit 34
The update of the self-position estimation value in 3 is stopped.
【0116】また、EKL制御部344は、拡張カルマ
ン・フィルタ部343の自己位置推定結果の妥当性も検
証する。自己位置推定結果の妥当性は、推定された状態
lの中央値及び共分散を用いて、マルコフ・ローカリゼ
ーション部342から出力される存在確率p(l)との
分布比較テストにより判断することができる。分布比較
テストの一例は、カイ自乗テストchi−square
−test(ml,ekf)である。The EKL control section 344 also verifies the validity of the self-position estimation result of the extended Kalman filter section 343. The validity of the self-position estimation result can be determined by a distribution comparison test with the existence probability p (l) output from the Markov localization unit 342, using the estimated median and covariance of the state l. . An example of the distribution comparison test is the chi-square test chi-square.
-Test (ml, ekf).
【0117】分布比較テストによりマルコフ・ローカリ
ゼーション部342と拡張カルマン・フィルタ部343
との各確率分布が類似していない場合には、センサ・ノ
イズに対するロバスト性が低い拡張カルマン・フィルタ
部343における自己位置推定値の方が、センサ・ノイ
ズの影響により妥当でないと判断することができる。こ
のような場合、EKL制御部344は拡張カルマン・フ
ィルタ部343の再初期化を行わせる。何故ならば、拡
張カルマン・フィルタは再復帰に多大な時間を要するか
らである。By the distribution comparison test, the Markov localization unit 342 and the extended Kalman filter unit 343.
If the probability distributions of and are not similar, it may be determined that the self-position estimation value in the extended Kalman filter unit 343, which has low robustness to sensor noise, is not valid due to the influence of sensor noise. it can. In such a case, the EKL control unit 344 causes the extended Kalman filter unit 343 to be reinitialized. This is because the extended Kalman filter requires a great deal of time to restore again.
【0118】次に、ランドマークセンサCLS340の
動作について説明する。図23は、ランドマークセンサ
CLS340の動作を示すフローチャートである。図2
3に示すように、ロボット装置1の移動に関する内界観
測情報aがランドマークセンサCLS340に入力され
ると、まずマルコフ・ローカリゼーション部342にお
いて、上記数式(5)を用いて自己位置推定値の更新処
理が行われる(ステップS201)。次いで、拡張カル
マン・フィルタ部343において、上記数式数(9)を
用いて自己位置推定値の更新処理が行われる(ステップ
S202)。Next, the operation of the landmark sensor CLS340 will be described. FIG. 23 is a flowchart showing the operation of the landmark sensor CLS340. Figure 2
As shown in FIG. 3, when the internal observation information a relating to the movement of the robot apparatus 1 is input to the landmark sensor CLS340, first, in the Markov localization unit 342, the self-position estimation value is updated using the above formula (5). Processing is performed (step S201). Next, in the extended Kalman filter unit 343, the self-position estimation value is updated by using the mathematical expression (9) (step S202).
【0119】また、ランドマークの観測に関する外界観
測情報sがランドマークセンサCLS340に入力され
ると、まずマルコフ・ローカリゼーション部342にお
いて、上記数式(6)を用いて、自己位置推定値の更新
処理が行われる(ステップS211)。When the external observation information s regarding the observation of the landmark is input to the landmark sensor CLS340, the Markov localization unit 342 first updates the self-position estimation value using the above equation (6). It is performed (step S211).
【0120】マルコフ・ローカリゼーション部342の
出力結果は、EKL制御部344に入力されて、観測情
報sの妥当性が検証される(ステップS212)。観測
情報sの妥当性は、マルコフ・ローカリゼーション部3
42において最大の存在確率となるグリッド位置mlp
においてランドマークを観測する確率p(s|mlp)
が所定の閾値パラメータthreshobsを越えたかど
うかで判断することができる。The output result of the Markov localization unit 342 is input to the EKL control unit 344, and the validity of the observation information s is verified (step S212). The validity of the observation information s is based on the Markov localization section 3
The grid position mlp having the maximum existence probability at 42
Probability of observing landmarks at p (s | mlp)
Can exceed the predetermined threshold parameter threshobs.
【0121】グリッド位置mlpにおいてランドマーク
を観測する確率p(s|mlp)が閾値パラメータth
reshobsを下回る場合には、センサ・ノイズに対し
てロバストなマルコフ・ローカリゼーション部342に
おいてさえ、センサ・ノイズのために同定解が充分に収
束していないことが推測される。このような場合、セン
サ・ノイズに対するロバスト性が低い拡張カルマン・フ
ィルタ部343において自己位置を推定しても、精度の
よい解が得られず、むしろ演算時間を浪費するだけであ
る。このため、観測情報sが妥当でないと判断された場
合には、切換器345を用いて拡張カルマン・フィルタ
部343への外界観測情報s、即ちランドマークの観測
情報の入力を遮断して、拡張カルマン・フィルタ部34
3における自己位置推定値の更新を停止させる。The probability p (s | mlp) of observing a landmark at the grid position mlp is the threshold parameter th.
When it is less than reshobs, it is estimated that the identification solution is not sufficiently converged due to the sensor noise even in the Markov localization unit 342 that is robust against the sensor noise. In such a case, even if the extended Kalman filter unit 343, which has low robustness to sensor noise, estimates the self-position, an accurate solution cannot be obtained, but rather the calculation time is wasted. Therefore, when it is determined that the observation information s is not appropriate, the input of the external observation information s, that is, the observation information of the landmark, to the extended Kalman filter unit 343 is blocked using the switch 345, and the extension is performed. Kalman filter unit 34
The update of the self-position estimation value in 3 is stopped.
【0122】他方、観測情報sを検証した結果、妥当性
を満たす、即ちグリッド位置mlpにおいてランドマー
クを観測する確率p(s|mlp)が閾値パラメータt
hreshobsを上回る場合には、さらに拡張カルマン
・フィルタ部343において、上記数式(10−1),
(10−2)を用いて更新処理が行われる(ステップS
213)。On the other hand, as a result of verifying the observation information s, the probability p (s | mlp) that satisfies the validity, that is, the landmark is observed at the grid position mlp, is the threshold parameter t.
If it exceeds hreshobs, the extended Kalman filter unit 343 further uses the above equation (10-1),
The update process is performed using (10-2) (step S
213).
【0123】拡張カルマン・フィルタ部343による自
己位置推定の結果は、EKL制御部344に入力され
て、その妥当性が検証される(ステップS214)。拡
張カルマン・フィルタ部343による自己位置推定結果
の妥当性は、推定された状態lの中央値及び共分散を用
いて、マルコフ・ローカリゼーション部342から出力
される存在確率p(l)との分布比較テストにより判断
することができる。分布比較テストの一例は、カイ自乗
テストchi−square−test(ml,ek
f)である。The result of self-position estimation by the extended Kalman filter unit 343 is input to the EKL control unit 344 and its validity is verified (step S214). The validity of the self-position estimation result by the extended Kalman filter unit 343 is determined by comparing the distribution with the existence probability p (l) output from the Markov localization unit 342, using the estimated median and covariance of the state l. Can be judged by the test. An example of a distribution comparison test is a chi-square test chi-square-test (ml, ek
f).
【0124】分布比較テストによりマルコフ・ローカリ
ゼーション部342と拡張カルマン・フィルタ部343
それぞれの確率分布が類似していない場合には、センサ
・ノイズに対するロバスト性が低い拡張カルマン・フィ
ルタ部343における自己位置推定値の方が、センサ・
ノイズの影響により妥当でないと判断することができ
る。このような場合、EKL制御部344は拡張カルマ
ン・フィルタ部343の再初期化を行わせる(ステップ
S215)。何故ならば、拡張カルマン・フィルタは再
復帰に多大な時間を要するからである。By the distribution comparison test, the Markov localization unit 342 and the extended Kalman filter unit 343.
When the respective probability distributions are not similar, the self-position estimation value in the extended Kalman filter unit 343, which has low robustness to sensor noise, is the sensor position.
It can be judged to be invalid due to the influence of noise. In such a case, the EKL control unit 344 causes the extended Kalman filter unit 343 to be re-initialized (step S215). This is because the extended Kalman filter requires a great deal of time to restore again.
【0125】このようにして、ランドマークセンサCL
S340では、広い範囲で比較的短い探索時間で探索を
行う大域探索と高精度だが探索時間を要する局所的探索
とを併用して、高精度で、高速且つロバストな自己位置
同定を行うことができる。以下、本発明の実施の形態に
おける上述した経路計画装置を搭載した2足歩行タイプ
のロボット装置について詳細に説明する。この人間型の
ロボット装置は、住環境その他の日常生活上の様々な場
面における人的活動を支援する実用ロボットであり、内
部状態(怒り、悲しみ、喜び、楽しみ等)に応じて行動
できるほか、人間が行う基本的な動作を表出できるエン
ターテインメントロボットである。In this way, the landmark sensor CL
In S340, it is possible to perform high-accuracy, high-speed, and robust self-localization by using both the global search, which performs a search in a relatively short search time in a wide range, and the local search, which has a high accuracy but requires a search time. . Hereinafter, a bipedal walking type robot device equipped with the above-described route planning device according to the embodiment of the present invention will be described in detail. This humanoid robot device is a practical robot that supports human activities in various situations in the living environment and other daily life, and can act according to internal conditions (anger, sadness, joy, enjoyment, etc.), It is an entertainment robot that can express the basic actions that humans perform.
【0126】図24に示すように、ロボット装置1は、
体幹部ユニット2の所定の位置に頭部ユニット3が連結
されると共に、左右2つの腕部ユニット4R/Lと、左
右2つの脚部ユニット5R/Lが連結されて構成されて
いる(但し、R及びLの各々は、右及び左の各々を示す
接尾辞である。以下において同じ。)。As shown in FIG. 24, the robot apparatus 1 has
The head unit 3 is connected to a predetermined position of the trunk unit 2, and two left and right arm units 4R / L and two left and right leg units 5R / L are connected (however, provided. Each of R and L is a suffix indicating each of right and left. The same applies below.).
【0127】このロボット装置1が具備する関節自由度
構成を図25に模式的に示す。頭部ユニット3を支持す
る首関節は、首関節ヨー軸101と、首関節ピッチ軸1
02と、首関節ロール軸103という3自由度を有して
いる。FIG. 25 schematically shows the joint degree-of-freedom structure of the robot apparatus 1. The neck joint supporting the head unit 3 includes a neck joint yaw axis 101 and a neck joint pitch axis 1.
02 and the neck joint roll shaft 103 have three degrees of freedom.
【0128】また、上肢を構成する各々の腕部ユニット
4R/Lは、肩関節ピッチ軸107と、肩関節ロール軸
108と、上腕ヨー軸109と、肘関節ピッチ軸110
と、前腕ヨー軸111と、手首関節ピッチ軸112と、
手首関節ロール輪113と、手部114とで構成され
る。手部114は、実際には、複数本の指を含む多関節
・多自由度構造体である。ただし、手部114の動作
は、ロボット装置1の姿勢制御や歩行制御に対する寄与
や影響が少ないので、本明細書ではゼロ自由度と仮定す
る。したがって、各腕部は7自由度を有するとする。Further, each arm unit 4R / L constituting the upper limb has a shoulder joint pitch axis 107, a shoulder joint roll axis 108, an upper arm yaw axis 109, and an elbow joint pitch axis 110.
, Forearm yaw axis 111, wrist joint pitch axis 112,
It is composed of a wrist joint roll wheel 113 and a hand portion 114. The hand portion 114 is actually a multi-joint / multi-degree-of-freedom structure including a plurality of fingers. However, since the motion of the hand portion 114 has little contribution or influence to the posture control and the walking control of the robot apparatus 1, it is assumed that the degree of freedom is zero in this specification. Therefore, each arm has seven degrees of freedom.
【0129】また、体幹部ユニット2は、体幹ピッチ軸
104と、体幹ロール軸105と、体幹ヨー軸106と
いう3自由度を有する。The trunk unit 2 has three degrees of freedom: a trunk pitch axis 104, a trunk roll axis 105, and a trunk yaw axis 106.
【0130】また、下肢を構成する各々の脚部ユニット
5R/Lは、股関節ヨー軸115と、股関節ピッチ軸1
16と、股関節ロール軸117と、膝関節ピッチ軸11
8と、足首関節ピッチ軸119と、足首関節ロール軸1
20と、足部121とで構成される。本明細書中では、
股関節ピッチ軸116と股関節ロール軸117の交点
は、ロボット装置1の股関節位置を定義する。人体の足
部121は、実際には多関節・多自由度の足底を含んだ
構造体であるが、ロボット装置1の足底は、ゼロ自由度
とする。したがって、各脚部は、6自由度で構成され
る。Further, each leg unit 5R / L constituting the lower limb has a hip joint yaw axis 115 and a hip joint pitch axis 1
16, a hip joint roll shaft 117, and a knee joint pitch shaft 11
8, ankle joint pitch axis 119, and ankle joint roll axis 1
20 and a foot 121. In this specification,
The intersection of the hip joint pitch axis 116 and the hip joint roll axis 117 defines the hip joint position of the robot apparatus 1. The foot 121 of the human body is actually a structure including a multi-joint, multi-degree-of-freedom foot, but the foot of the robot apparatus 1 has zero degrees of freedom. Therefore, each leg has 6 degrees of freedom.
【0131】以上を総括すれば、ロボット装置1全体と
しては、合計で3+7×2+3+6×2=32自由度を
有することになる。ただし、エンターテインメント向け
のロボット装置1が必ずしも32自由度に限定されるわ
けではない。設計・制作上の制約条件や要求仕様等に応
じて、自由度、即ち関節数を適宜増減することができる
ことはいうまでもない。In summary, the robot apparatus 1 as a whole has a total of 3 + 7 × 2 + 3 + 6 × 2 = 32 degrees of freedom. However, the robot device 1 for entertainment is not necessarily limited to 32 degrees of freedom. It is needless to say that the degree of freedom, that is, the number of joints, can be appropriately increased or decreased in accordance with design / production constraints, required specifications, and the like.
【0132】上述したようなロボット装置1がもつ各自
由度は、実際にはアクチュエータを用いて実装される。
外観上で余分な膨らみを排してヒトの自然体形状に近似
させること、2足歩行という不安定構造体に対して姿勢
制御を行うことなどの要請から、アクチュエータは小型
且つ軽量であることが好ましい。Each degree of freedom of the robot apparatus 1 as described above is actually implemented by using an actuator.
It is preferable that the actuator be small and lightweight in view of demands such as eliminating extra bulges in appearance and approximating the shape of a natural human body, and performing posture control for an unstable structure such as bipedal walking. .
【0133】図26には、ロボット装置1の制御システ
ム構成を模式的に示している。同図に示すように、ロボ
ット装置1は、ヒトの四肢を表現した体幹部ユニット
2,頭部ユニット3,腕部ユニット4R/L,脚部ユニ
ット5R/Lと、各ユニット間の協調動作を実現するた
めの適応制御を行う制御ユニット10とで構成される。FIG. 26 schematically shows the control system configuration of the robot apparatus 1. As shown in the figure, the robot device 1 performs a coordinated operation between the trunk unit 2, the head unit 3, the arm unit 4R / L, the leg unit 5R / L, which represent human limbs, and the respective units. And a control unit 10 that performs adaptive control for realizing the above.
【0134】ロボット装置1全体の動作は、制御ユニッ
ト10によって統括的に制御される。制御ユニット10
は、CPU(Central Processing Unit)や、DRA
M、フラッシュROM等の主要回路コンポーネント(図
示しない)で構成される主制御部11と、電源回路やロ
ボット装置1の各構成要素とのデータやコマンドの授受
を行うインターフェイス(何れも図示しない)などを含
んだ周辺回路12とで構成される。The overall operation of the robot apparatus 1 is controlled by the control unit 10. Control unit 10
Is a CPU (Central Processing Unit) or DRA
An interface (not shown) for exchanging data and commands with the main control unit 11 including main circuit components (not shown) such as M and flash ROM, and the power supply circuit and each component of the robot apparatus 1. And the peripheral circuit 12 including.
【0135】本発明を実現するうえで、この制御ユニッ
ト10の設置場所は、特に限定されない。図26では体
幹部ユニット2に搭載されているが、頭部ユニット3に
搭載してもよい。あるいは、ロボット装置1外に制御ユ
ニット10を配備して、ロボット装置1の機体とは有線
又は無線で交信するようにしてもよい。In implementing the present invention, the installation place of the control unit 10 is not particularly limited. Although it is mounted on the trunk unit 2 in FIG. 26, it may be mounted on the head unit 3. Alternatively, the control unit 10 may be provided outside the robot apparatus 1 to communicate with the body of the robot apparatus 1 in a wired or wireless manner.
【0136】ロボット装置1内の各関節自由度は、それ
ぞれに対応するアクチュエータによって実現される。即
ち、頭部ユニット3には、首関節ヨー軸101、首関節
ピッチ軸102、首関節ロール軸103の各々を表現す
る首関節ヨー軸アクチュエータA2、首関節ピッチ軸ア
クチュエータA3、首関節ロール軸アクチュエータA4
が配設されている。Each joint degree of freedom in the robot apparatus 1 is realized by an actuator corresponding to each joint. That is, in the head unit 3, a neck joint yaw axis actuator A2, a neck joint pitch axis actuator A3, and a neck joint roll axis actuator that represent the neck joint yaw axis 101, the neck joint pitch axis 102, and the neck joint roll axis 103, respectively. A4
Is provided.
【0137】また、頭部ユニット3には、外部の状況を
撮像するためのCCD(Charge Coupled Device)カメ
ラが設けられているほか、前方に位置する物体までの距
離を測定するための距離センサ、外部音を集音するため
のマイク、音声を出力するためのスピーカ、使用者から
の「撫でる」や「叩く」といった物理的な働きかけによ
り受けた圧力を検出するためのタッチセンサ等が配設さ
れている。Further, the head unit 3 is provided with a CCD (Charge Coupled Device) camera for picking up an image of an external situation, and a distance sensor for measuring a distance to an object located in front of the head unit 3. A microphone for collecting external sound, a speaker for outputting voice, a touch sensor for detecting the pressure received by the physical action of the user such as "stroking" or "striking" are provided. ing.
【0138】また、体幹部ユニット2には、体幹ピッチ
軸104、体幹ロール軸105、体幹ヨー軸106の各
々を表現する体幹ピッチ軸アクチュエータA5、体幹ロ
ール軸アクチュエータA6、体幹ヨー軸アクチュエータ
A7が配設されている。また、体幹部ユニット2には、
このロボット装置1の起動電源となるバッテリを備えて
いる。このバッテリは、充放電可能な電池によって構成
されている。Further, the trunk unit 2 includes a trunk pitch axis actuator A5, a trunk roll axis actuator A6, and a trunk which respectively represent the trunk pitch axis 104, the trunk roll axis 105, and the trunk yaw axis 106. A yaw axis actuator A7 is provided. Also, in the trunk unit 2,
The robot apparatus 1 is provided with a battery as a power source. This battery is composed of a chargeable / dischargeable battery.
【0139】また、腕部ユニット4R/Lは、上腕ユニ
ット41R/Lと、肘関節ユニット42R/Lと、前腕
ユニット43R/Lに細分化されるが、肩関節ピッチ軸
107、肩関節ロール軸108、上腕ヨー軸109、肘
関節ピッチ軸110、前腕ヨー軸111、手首関節ピッ
チ軸112、手首関節ロール軸113の各々表現する肩
関節ピッチ軸アクチュエータA8、肩関節ロール軸アク
チュエータA9、上腕ヨー軸アクチュエータA10、肘
関節ピッチ軸アクチュエータA11、肘関節ロール軸ア
クチュエータA12、手首関節ピッチ軸アクチュエータ
A13、手首関節ロール軸アクチュエータA14が配備
されている。The arm unit 4R / L is subdivided into an upper arm unit 41R / L, an elbow joint unit 42R / L, and a forearm unit 43R / L. The shoulder joint pitch axis 107 and the shoulder joint roll axis are used. 108, upper arm yaw axis 109, elbow joint pitch axis 110, forearm yaw axis 111, wrist joint pitch axis 112, wrist joint roll axis 113, shoulder joint pitch axis actuator A8, shoulder joint roll axis actuator A9, upper arm yaw axis An actuator A10, an elbow joint pitch axis actuator A11, an elbow joint roll axis actuator A12, a wrist joint pitch axis actuator A13, and a wrist joint roll axis actuator A14 are provided.
【0140】また、脚部ユニット5R/Lは、大腿部ユ
ニット51R/Lと、膝ユニット52R/Lと、脛部ユ
ニット53R/Lに細分化されるが、股関節ヨー軸11
5、股関節ピッチ軸116、股関節ロール軸117、膝
関節ピッチ軸118、足首関節ピッチ軸119、足首関
節ロール軸120の各々を表現する股関節ヨー軸アクチ
ュエータA16、股関節ピッチ軸アクチュエータA1
7、股関節ロール軸アクチュエータA18、膝関節ピッ
チ軸アクチュエータA19、足首関節ピッチ軸アクチュ
エータA20、足首関節ロール軸アクチュエータA21
が配備されている。各関節に用いられるアクチュエータ
A2,A3・・・は、より好ましくは、ギア直結型で旦つ
サーボ制御系をワンチップ化してモータ・ユニット内に
搭載したタイプの小型ACサーボ・アクチュエータで構
成することができる。The leg unit 5R / L is subdivided into a thigh unit 51R / L, a knee unit 52R / L, and a tibial unit 53R / L.
5, hip joint pitch axis 116, hip joint roll axis 117, knee joint pitch axis 118, ankle joint pitch axis 119, and ankle joint roll axis 120, which represent each hip joint yaw axis actuator A16 and hip joint pitch axis actuator A1.
7, hip joint roll axis actuator A18, knee joint pitch axis actuator A19, ankle joint pitch axis actuator A20, ankle joint roll axis actuator A21
Has been deployed. It is more preferable that the actuators A2, A3, ... Used for the respective joints are small AC servo actuators of the type that are directly connected to the gear and have a single servo control system integrated into a motor unit. You can
【0141】体幹部ユニット2、頭部ユニット3、各腕
部ユニット4R/L、各脚部ユニット5R/Lなどの各
機構ユニット毎に、アクチュエータ駆動制御部の副制御
部20,21,22R/L,23R/Lが配備されてい
る。さらに、各脚部ユニット5R/Lの足底が着床した
か否かを検出する接地確認センサ30R/Lを装着する
とともに、体幹部ユニット2内には、姿勢を計測する姿
勢センサ31を装備している。For each mechanical unit such as the trunk unit 2, head unit 3, each arm unit 4R / L, each leg unit 5R / L, etc., the sub-control units 20, 21, 22R / of the actuator drive control unit are provided. L, 23R / L are deployed. Furthermore, a ground contact confirmation sensor 30R / L that detects whether or not the sole of each leg unit 5R / L has landed is attached, and a posture sensor 31 that measures a posture is provided in the trunk unit 2. is doing.
【0142】接地確認センサ30R/Lは、例えば足底
に設置された近接センサ又はマイクロ・スイッチなどで
構成される。また、姿勢センサ31は、例えば、加速度
センサとジャイロ・センサの組み合わせによって構成さ
れる。The ground confirmation sensor 30R / L is composed of, for example, a proximity sensor or a micro switch installed on the sole of the foot. Further, the posture sensor 31 is composed of, for example, a combination of an acceleration sensor and a gyro sensor.
【0143】接地確認センサ30R/Lの出力によっ
て、歩行・走行などの動作期間中において、左右の各脚
部が現在立脚又は遊脚何れの状態であるかを判別するこ
とができる。また、姿勢センサ31の出力により、体幹
部分の傾きや姿勢を検出することができる。By the output of the ground contact confirmation sensor 30R / L, it is possible to determine whether each of the left and right legs is currently standing or swinging during an operation period such as walking or running. Further, the output of the posture sensor 31 can detect the inclination and posture of the trunk.
【0144】主制御部11は、各センサ30R/L,3
1の出力に応答して制御目標をダイナミックに補正する
ことができる。より具体的には、副制御部20,21,
22R/L,23R/Lの各々に対して適応的な制御を
行い、ロボット装置1の上肢、体幹、及び下肢が協調し
て駆動する全身運動パターンを実現できる。The main control section 11 uses the sensors 30R / L, 3
The control target can be dynamically corrected in response to the output of 1. More specifically, the sub control units 20, 21,
By performing adaptive control on each of 22R / L and 23R / L, it is possible to realize a whole-body movement pattern in which the upper limbs, the trunk, and the lower limbs of the robot apparatus 1 are cooperatively driven.
【0145】ロボット装置1の機体上での全身運動は、
足部運動、ZMP(Zero Moment Point)軌道、体幹運
動、上肢運動、腰部高さなどを設定するとともに、これ
らの設定内容にしたがった動作を指示するコマンドを各
副制御部20,21,22R/L,23R/Lに転送す
る。そして、各々の副制御部20,21,・・・等で
は、主制御部11からの受信コマンドを解釈して、各ア
クチュエータA2,A3・・・等に対して駆動制御信号
を出力する。ここでいう「ZMP」とは、歩行中の床反
力によるモーメントがゼロとなる床面上の点のことであ
り、また、「ZMP軌道」とは、例えばロボット装置1
の歩行動作期間中にZMPが動く軌跡を意味する。な
お、ZMPの概念並びにZMPを歩行ロボットの安定度
判別規範に適用する点については、Miomir Vukobratovi
c著“LEGGED LOCOMOTION ROBOTS”(加藤一郎外著『歩
行ロボットと人工の足』(日刊工業新聞社))に記載さ
れている。The whole body motion of the robot apparatus 1 on the body is
Foot control, ZMP (Zero Moment Point) trajectory, trunk movement, upper limb movement, waist height, etc. are set, and commands for instructing movements according to these setting contents are issued to the sub-control units 20, 21, 22R. / L, 23R / L. The sub-control units 20, 21, ... Interpret the received command from the main control unit 11 and output drive control signals to the actuators A2, A3 ,. The “ZMP” mentioned here is a point on the floor surface where the moment due to the floor reaction force during walking becomes zero, and the “ZMP trajectory” is, for example, the robot device 1
Means a locus of movement of the ZMP during the walking motion period. Regarding the concept of ZMP and the application of ZMP to the stability criterion of walking robots, see Miomir Vukobratovi.
c "LEGGED LOCOMOTION ROBOTS" (Ichiro Kato, "Walking Robot and Artificial Feet" (Nikkan Kogyo Shimbun)).
【0146】以上のように、ロボット装置1は、各々の
副制御部20,21,・・・等が、主制御部11からの
受信コマンドを解釈して、各アクチュエータA2,A3
・・・に対して駆動制御信号を出力し、各ユニットの駆
動を制御している。これにより、ロボット装置1は、目
標の姿勢に安定して遷移し、安定した姿勢で歩行でき
る。As described above, in the robot apparatus 1, each of the sub-control units 20, 21, ... Interprets the command received from the main control unit 11, and the respective actuators A2, A3.
A drive control signal is output to ... to control the drive of each unit. As a result, the robot apparatus 1 makes a stable transition to the target posture and can walk in a stable posture.
【0147】また、ロボット装置1における制御ユニッ
ト10では、上述したような姿勢制御のほかに、加速度
センサ、タッチセンサ、接地確認センサ等の各種セン
サ、及びCCDカメラからの画像情報、マイクからの音
声情報等を統括して処理している。制御ユニット10で
は、図示しないが加速度センサ、ジャイロ・センサ、タ
ッチセンサ、距離センサ、マイク、スピーカなどの各種
センサ、各アクチュエータ、CCDカメラ及びバッテリ
が各々対応するハブを介して主制御部11と接続されて
いる。Further, in the control unit 10 in the robot apparatus 1, in addition to the posture control as described above, various sensors such as an acceleration sensor, a touch sensor, a ground contact confirmation sensor, image information from a CCD camera, and sound from a microphone. Information is handled in a centralized manner. In the control unit 10, although not shown, various sensors such as an acceleration sensor, a gyro sensor, a touch sensor, a distance sensor, a microphone, a speaker, actuators, CCD cameras, and batteries are connected to the main control unit 11 via corresponding hubs. Has been done.
【0148】主制御部11は、上述の各センサから供給
されるセンサデータや画像データ及び音声データを順次
取り込み、これらをそれぞれ内部インターフェイスを介
してDRAM内の所定位置に順次格納する。また、主制
御部11は、バッテリから供給されるバッテリ残量を表
すバッテリ残量データを順次取り込み、これをDRAM
内の所定位置に格納する。DRAMに格納された各セン
サデータ、画像データ、音声データ及びバッテリ残量デ
ータは、主制御部11がこのロボット装置1の動作制御
を行う際に利用される。The main control section 11 sequentially takes in the sensor data, the image data and the audio data supplied from the above-mentioned respective sensors, and sequentially stores them in a predetermined position in the DRAM through the internal interface. Further, the main control unit 11 sequentially takes in the battery remaining amount data representing the battery remaining amount supplied from the battery, and stores this in the DRAM.
It is stored in a predetermined position inside. Each sensor data, image data, voice data, and battery remaining amount data stored in the DRAM are used when the main control unit 11 controls the operation of the robot apparatus 1.
【0149】主制御部11は、ロボット装置1の電源が
投入された初期時、制御プログラムを読み出し、これを
DRAMに格納する。また、主制御部11は、上述のよ
うに主制御部11よりDRAMに順次格納される各セン
サデータ、画像データ、音声データ及びバッテリ残量デ
ータに基づいて自己及び周囲の状況や、使用者からの指
示及び働きかけの有無などを判断する。The main control section 11 reads out the control program and stores it in the DRAM at the initial stage when the robot apparatus 1 is powered on. In addition, the main control unit 11 uses the sensor data, the image data, the audio data, and the battery remaining amount data that are sequentially stored in the DRAM from the main control unit 11 as described above, based on the self and surrounding conditions and the user. Judging whether or not there are instructions and how to work.
【0150】さらに、主制御部11は、この判断結果及
びDRAMに格納した制御プログラムに基づいて自己の
状況に応じて行動を決定するとともに、当該決定結果に
基づいて必要なアクチュエータを駆動させることにより
ロボット装置1に、いわゆる「身振り」、「手振り」と
いった行動をとらせる。Further, the main control section 11 determines an action according to its own situation based on this determination result and the control program stored in the DRAM, and drives a necessary actuator based on the determination result. The robot apparatus 1 is caused to take actions such as so-called “gesture” and “hand gesture”.
【0151】このようにしてロボット装置1は、制御プ
ログラムに基づいて自己及び周囲の状況を判断し、使用
者からの指示及び働きかけに応じて自律的に行動でき
る。In this way, the robot apparatus 1 can judge the self and surrounding conditions based on the control program, and can act autonomously according to the instruction and the action from the user.
【0152】ところで、このロボット装置1は、内部状
態に応じて自律的に行動することができる。そこで、ロ
ボット装置1における制御プログラムのソフトウェア構
成例について、図27乃至図32を用いて説明する。な
お、この制御プログラムは、上述したように、予めフラ
ッシュROM12に格納されており、ロボット装置1の
電源投入初期時において読み出される。By the way, the robot apparatus 1 can act autonomously according to the internal state. Therefore, a software configuration example of the control program in the robot apparatus 1 will be described with reference to FIGS. 27 to 32. As described above, this control program is stored in the flash ROM 12 in advance and is read out at the initial stage of power-on of the robot apparatus 1.
【0153】図27において、デバイス・ドライバ・レ
イヤ40は、制御プログラムの最下位層に位置し、複数
のデバイス・ドライバからなるデバイス・ドライバ・セ
ット41から構成されている。この場合、各デバイス・
ドライバは、CCDカメラやタイマ等の通常のコンピュ
ータで用いられるハードウェアに直接アクセスすること
を許されたオブジェクトであり、対応するハードウェア
からの割り込みを受けて処理を行う。In FIG. 27, the device driver layer 40 is located at the lowest layer of the control program and is composed of a device driver set 41 composed of a plurality of device drivers. In this case, each device
The driver is an object that is allowed to directly access hardware used in a normal computer such as a CCD camera and a timer, and receives an interrupt from the corresponding hardware to perform processing.
【0154】また、ロボティック・サーバ・オブジェク
ト42は、デバイス・ドライバ・レイヤ40の最下位層
に位置し、例えば上述の各種センサやアクチュエータ2
81〜28n等のハードウェアにアクセスするためのイ
ンターフェイスを提供するソフトウェア群でなるバーチ
ャル・ロボット43と、電源の切換えなどを管理するソ
フトウェア群でなるパワーマネージャ44と、他の種々
のデバイス・ドライバを管理するソフトウェア群でなる
デバイス・ドライバ・マネージャ45と、ロボット装置
1の機構を管理するソフトウェア群でなるデザインド・
ロボット46とから構成されている。The robotic server object 42 is located in the lowest layer of the device driver layer 40, and is, for example, the above-mentioned various sensors and actuators 2.
A virtual robot 43, which is a software group that provides an interface for accessing hardware such as 81-28n, a power manager 44 that is a software group that manages switching of power supplies, and various other device drivers. A device driver manager 45, which is a software group for managing, and a designed,
It is composed of a robot 46.
【0155】マネージャ・オブジェクト47は、オブジ
ェクト・マネージャ48及びサービス・マネージャ49
から構成されている。オブジェクト・マネージャ48
は、ロボティック・サーバ・オブジェクト42、ミドル
・ウェア・レイヤ50、及びアプリケーション・レイヤ
51に含まれる各ソフトウェア群の起動や終了を管理す
るソフトウェア群であり、サービス・マネージャ49
は、メモリカードに格納されたコネクションファイルに
記述されている各オブジェクト間の接続情報に基づいて
各オブジェクトの接続を管理するソフトウェア群であ
る。The manager object 47 includes an object manager 48 and a service manager 49.
It consists of Object manager 48
Is a software group that manages activation and termination of each software group included in the robotic server object 42, the middleware layer 50, and the application layer 51, and the service manager 49.
Is a software group that manages the connection of each object based on the connection information between each object described in the connection file stored in the memory card.
【0156】ミドル・ウェア・レイヤ50は、ロボティ
ック・サーバ・オブジェクト42の上位層に位置し、画
像処理や音声処理などのこのロボット装置1の基本的な
機能を提供するソフトウェア群から構成されている。ま
た、アプリケーション・レイヤ51は、ミドル・ウェア
・レイヤ50の上位層に位置し、当該ミドル・ウェア・
レイヤ50を構成する各ソフトウェア群によって処理さ
れた処理結果に基づいてロボット装置1の行動を決定す
るためのソフトウェア群から構成されている。The middle wear layer 50 is located in the upper layer of the robotic server object 42, and is composed of a software group that provides basic functions of the robot apparatus 1 such as image processing and voice processing. There is. Further, the application layer 51 is located above the middleware layer 50, and the middleware layer 50
It is composed of a software group for determining the action of the robot apparatus 1 based on the processing result processed by each software group forming the layer 50.
【0157】なお、ミドル・ウェア・レイヤ50及びア
プリケーション・レイヤ51の具体なソフトウェア構成
をそれぞれ図28に示す。FIG. 28 shows specific software configurations of the middleware layer 50 and the application layer 51, respectively.
【0158】ミドル・ウェア・レイヤ50は、図28に
示すように、騒音検出用、温度検出用、明るさ検出用、
音階認識用、距離検出用、姿勢検出用、タッチセンサ
用、動き検出用及び色認識用の各信号処理モジュール6
0〜68並びに入力セマンティクスコンバータモジュー
ル69などを有する認識系70と、出力セマンティクス
コンバータモジュール78並びに姿勢管理用、トラッキ
ング用、モーション再生用、歩行用、転倒復帰用、LE
D点灯用及び音再生用の各信号処理モジュール71〜7
7などを有する出力系79とから構成されている。The middle wear layer 50, as shown in FIG. 28, is for noise detection, temperature detection, brightness detection,
Each signal processing module 6 for scale recognition, distance detection, posture detection, touch sensor, motion detection, and color recognition
A recognition system 70 having 0 to 68 and an input semantics converter module 69, an output semantics converter module 78, and posture management, tracking, motion reproduction, walking, fall recovery, LE
Signal processing modules 71 to 7 for D lighting and sound reproduction
And an output system 79 having 7 or the like.
【0159】認識系70の各信号処理モジュール60〜
68は、ロボティック・サーバ・オブジェクト42のバ
ーチャル・ロボット43によりDRAMから読み出され
る各センサデータや画像データ及び音声データのうちの
対応するデータを取り込み、当該データに基づいて所定
の処理を施して、処理結果を入力セマンティクスコンバ
ータモジュール69に与える。ここで、例えば、バーチ
ャル・ロボット43は、所定の通信規約によって、信号
の授受或いは変換をする部分として構成されている。Each signal processing module 60 of the recognition system 70
68 captures corresponding data of each sensor data, image data, and audio data read from the DRAM by the virtual robot 43 of the robotic server object 42, performs a predetermined process based on the data, The processing result is given to the input semantics converter module 69. Here, for example, the virtual robot 43 is configured as a portion that exchanges or converts a signal according to a predetermined communication protocol.
【0160】入力セマンティクスコンバータモジュール
69は、これら各信号処理モジュール60〜68から与
えられる処理結果に基づいて、「うるさい」、「暑
い」、「明るい」、「ボールを検出した」、「転倒を検
出した」、「撫でられた」、「叩かれた」、「ドミソの
音階が聞こえた」、「動く物体を検出した」又は「障害
物を検出した」などの自己及び周囲の状況や、使用者か
らの指令及び働きかけを認識し、認識結果をアプリケー
ション・レイヤ41に出力する。The input semantics converter module 69 detects "noisy", "hot", "bright", "ball detected", "fall" based on the processing results given from the respective signal processing modules 60 to 68. The user and surroundings, such as "Yes", "Stabbed", "Struck", "I heard Domiso scale", "A moving object was detected", or "An obstacle was detected", and the user. It recognizes the command and the action from, and outputs the recognition result to the application layer 41.
【0161】アプリケーション・レイヤ51は、図29
に示すように、行動モデルライブラリ80、行動切換モ
ジュール81、学習モジュール82、感情モデル83及
び本能モデル84の5つのモジュールから構成されてい
る。The application layer 51 is shown in FIG.
As shown in FIG. 5, the action model library 80, the action switching module 81, the learning module 82, the emotion model 83, and the instinct model 84 are composed of five modules.
【0162】行動モデルライブラリ80には、図30に
示すように、「バッテリ残量が少なくなった場合」、
「転倒復帰する」、「障害物を回避する場合」、「感情
を表現する場合」、「ボールを検出した場合」などの予
め選択されたいくつかの条件項目にそれぞれ対応させ
て、それぞれ独立した行動モデルが設けられている。In the behavior model library 80, as shown in FIG. 30, "when the battery level is low",
Independently corresponding to some preselected condition items such as "returning from a fall", "avoiding obstacles", "expressing emotions", "detecting a ball", etc. A behavior model is provided.
【0163】そして、これら行動モデルは、それぞれ入
力セマンティクスコンバータモジュール69から認識結
果が与えられたときや、最後の認識結果が与えられてか
ら一定時間が経過したときなどに、必要に応じて後述の
ように感情モデル83に保持されている対応する情動の
パラメータ値や、本能モデル84に保持されている対応
する欲求のパラメータ値を参照しながら続く行動をそれ
ぞれ決定し、決定結果を行動切換モジュール81に出力
する。Each of these behavior models will be described later as necessary when a recognition result is given from the input semantics converter module 69 or when a certain time has elapsed since the last recognition result was given. As described above, each subsequent action is determined with reference to the corresponding emotional parameter value held in the emotion model 83 and the corresponding desire parameter value held in the instinct model 84, and the decision result is determined by the action switching module 81. Output to.
【0164】なお、この実施の形態の場合、各行動モデ
ルは、次の行動を決定する手法として、図31に示すよ
うな1つのノード(状態)NODE0〜NODEnから
他のどのノードNODE0〜NODEnに遷移するかを
各ノードNODE0〜NODEnに間を接続するアーク
ARC1〜ARCn1に対してそれぞれ設定された遷移
確率P1〜Pnに基づいて確率的に決定する有限確率オ
ートマトンと呼ばれるアルゴリズムを用いる。In the case of this embodiment, each behavior model is changed from one node (state) NODE0 to NODEn as shown in FIG. 31 to any other node NODE0 to NODEn as a method of determining the next behavior. An algorithm called a finite probability automaton is used to probabilistically determine whether to make a transition based on the transition probabilities P1 to Pn set for the arcs ARC1 to ARCn1 connecting the nodes NODE0 to NODEn.
【0165】具体的に、各行動モデルは、それぞれ自己
の行動モデルを形成するノードNODE0〜NODEn
にそれぞれ対応させて、これらノードNODE0〜NO
DEn毎に図31に示すような状態遷移表90を有して
いる。Specifically, each behavior model is a node NODE0 to NODEn forming its own behavior model.
To correspond to these nodes NODE0-NO
Each DEn has a state transition table 90 as shown in FIG.
【0166】この状態遷移表90では、そのノードNO
DE0〜NODEnにおいて遷移条件とする入力イベン
ト(認識結果)が「入力イベント名」の列に優先順に列
記され、その遷移条件についてのさらなる条件が「デー
タ名」及び「データ範囲」の列における対応する行に記
述されている。In this state transition table 90, the node NO.
Input events (recognition results) that are transition conditions in DE0 to NODEn are listed in the order of priority in the column of "input event name", and further conditions regarding the transition conditions correspond to the columns of "data name" and "data range". It is described in the line.
【0167】したがって、図32の状態遷移表90で表
されるノードNODE100では、「ボールを検出(B
ALL)」という認識結果が与えられた場合に、当該認
識結果とともに与えられるそのボールの「大きさ(SIZ
E)」が「0から1000」の範囲であることや、「障害物を
検出(OBSTACLE)」という認識結果が与えられた場合
に、当該認識結果とともに与えられるその障害物までの
「距離(DISTANCE)」が「0から100」の範囲であること
が他のノードに遷移するための条件となっている。Therefore, in the node NODE100 represented by the state transition table 90 of FIG. 32, "the ball is detected (B
ALL) ”is given, the“ size (SIZ) of the ball given together with the recognition result is given.
"E)" is in the range of "0 to 1000" and the recognition result of "obstacle detection (OBSTACLE)" is given, the "distance (DISTANCE) to the obstacle given together with the recognition result is given. ) ”Is in the range of“ 0 to 100 ”is a condition for transition to another node.
【0168】また、このノードNODE100では、認
識結果の入力がない場合においても、行動モデルが周期
的に参照する感情モデル83及び本能モデル84にそれ
ぞれ保持された各情動及び各欲求のパラメータ値のう
ち、感情モデル83に保持された「喜び(Joy)」、
「驚き(Surprise)」又は「悲しみ(Sadness)」の何
れかのパラメータ値が「50から100」の範囲であるとき
には他のノードに遷移することができるようになってい
る。Further, in this node NODE100, even if there is no recognition result input, among the emotional model 83 and the instinct model 84, which are held by the emotion model 83 and the instinct model 84 which the behavior model periodically refers to, , "Joy" held by emotion model 83,
When the parameter value of either "Surprise" or "Sadness" is in the range of "50 to 100", it is possible to transit to another node.
【0169】また、状態遷移表90では、「他のノード
ヘの遷移確率」の欄における「遷移先ノード」の行にそ
のノードNODE0〜NODEnから遷移できるノード
名が列記されているとともに、「入力イベント名」、
「データ名」及び「データの範囲」の列に記述された全
ての条件が揃ったときに遷移できる他の各ノードNOD
E0〜NODEnへの遷移確率が「他のノードヘの遷移
確率」の欄内の対応する箇所にそれぞれ記述され、その
ノードNODE0〜NODEnに遷移する際に出力すべ
き行動が「他のノードヘの遷移確率」の欄における「出
力行動」の行に記述されている。なお、「他のノードヘ
の遷移確率」の欄における各行の確率の和は100
[%]となっている。Further, in the state transition table 90, the node names that can transition from the nodes NODE0 to NODEn are listed in the row of "transition destination node" in the column of "transition probability to other node" and "input event". Name",
Each other node NOD that can transit when all the conditions described in the columns of "data name" and "data range" are met
The transition probabilities to E0 to NODEn are respectively described in the corresponding places in the column of "transition probabilities to other nodes", and the actions to be output when transitioning to the nodes NODE0 to NODEn are "transition probabilities to other nodes". It is described in the line of "output action" in the column of ". In addition, the sum of the probabilities of each row in the column of "probability of transition to other node" is 100.
It is [%].
【0170】したがって、図32の状態遷移表90で表
されるノードNODE100では、例えば「ボールを検
出(BALL)」し、そのボールの「SIZE(大き
さ)」が「0から1000」の範囲であるという認識結果が
与えられた場合には、「30[%]」の確率で「ノードN
ODE120(node 120)」に遷移でき、そのとき「A
CTION1」の行動が出力されることとなる。Therefore, in the node NODE100 represented by the state transition table 90 of FIG. 32, for example, "a ball is detected (BALL)", and the "SIZE" of the ball is in the range of "0 to 1000". When the recognition result that there is is given, there is a probability of "30 [%]"
ODE120 (node 120) ", and then" A
The action of “CATION 1” will be output.
【0171】各行動モデルは、それぞれこのような状態
遷移表90として記述されたノードNODE0〜 NO
DEnが幾つも繋がるようにして構成されており、入力
セマンティクスコンバータモジュール69から認識結果
が与えられたときなどに、対応するノードNODE0〜
NODEnの状態遷移表を利用して確率的に次の行動を
決定し、決定結果を行動切換モジュール81に出力する
ようになされている。Each behavior model has nodes NODE0-NO described as such a state transition table 90.
The DENs are configured so as to be connected to each other, and when the recognition result is given from the input semantics converter module 69, the corresponding nodes NODE0 to NODE0.
The next action is stochastically determined using the state transition table of NODEn, and the determination result is output to the action switching module 81.
【0172】図28に示す行動切換モジュール81は、
行動モデルライブラリ80の各行動モデルからそれぞれ
出力される行動のうち、予め定められた優先順位の高い
行動モデルから出力された行動を選択し、当該行動を実
行すべき旨のコマンド(以下、行動コマンドという。)
をミドル・ウェア・レイヤ50の出力セマンティクスコ
ンバータモジュール78に送出する。なお、この実施の
形態においては、図29において下側に表記された行動
モデルほど優先順位が高く設定されている。The action switching module 81 shown in FIG.
Among the actions output from the action models of the action model library 80, the action output from the action model having a predetermined high priority is selected, and a command to execute the action (hereinafter, action command That.)
To the output semantics converter module 78 of the middleware layer 50. Note that, in this embodiment, the behavior model shown on the lower side in FIG. 29 has a higher priority.
【0173】また、行動切換モジュール81は、行動完
了後に出力セマンティクスコンバータモジュール78か
ら与えられる行動完了情報に基づいて、その行動が完了
したことを学習モジュール82、感情モデル83及び本
能モデル84に通知する。Further, the action switching module 81 notifies the learning module 82, the emotion model 83, and the instinct model 84 that the action is completed based on the action completion information given from the output semantics converter module 78 after the action is completed. .
【0174】一方、学習モジュール82は、入力セマン
ティクスコンバータモジュール69から与えられる認識
結果のうち、「叩かれた」や「撫でられた」など、使用
者からの働きかけとして受けた教示の認識結果を入力す
る。On the other hand, the learning module 82 inputs the recognition result of the teaching received as an action from the user such as “struck” or “stroked” among the recognition results given from the input semantics converter module 69. To do.
【0175】そして、学習モジュール82は、この認識
結果及び行動切換えモジュール71からの通知に基づい
て、「叩かれた(叱られた)」ときにはその行動の発現
確率を低下させ、「撫でられた(誉められた)」ときに
はその行動の発現確率を上昇させるように、行動モデル
ライブラリ70における対応する行動モデルの対応する
遷移確率を変更する。Then, based on the recognition result and the notification from the action switching module 71, the learning module 82 lowers the occurrence probability of the action when "struck (scored)" and "stabbed ( Praised) ”, the corresponding transition probability of the corresponding behavior model in the behavior model library 70 is changed so as to increase the occurrence probability of that behavior.
【0176】他方、感情モデル83は、「喜び(Jo
y)」、「悲しみ(Sadness)」、「怒り(Anger)」、
「驚き(Surprise)」、「嫌悪(Disgust)」及び「恐
れ(Fear)」の合計6つの情動について、各情動毎にそ
の情動の強さを表すパラメータを保持している。そし
て、感情モデル83は、これら各情動のパラメータ値
を、それぞれ入力セマンティクスコンバータモジュール
69から与えられる「叩かれた」及び「撫でられた」な
どの特定の認識結果や、経過時間及び行動切換モジュー
ル81からの通知などに基づいて周期的に更新する。On the other hand, the emotion model 83 is "joy (Jo
y) ”,“ Sadness ”,“ Anger ”,
With respect to a total of 6 emotions of “Surprise”, “Disgust”, and “Fear”, a parameter indicating the strength of the emotion is held for each emotion. Then, the emotion model 83 gives specific recognition results such as “struck” and “stabbed” given from the input semantics converter module 69 to the parameter values of these emotions, the elapsed time and the action switching module 81. It is updated periodically based on notifications from etc.
【0177】具体的には、感情モデル83は、入力セマ
ンティクスコンバータモジュール69から与えられる認
識結果と、そのときのロボット装置1の行動と、前回更
新してからの経過時間となどに基づいて所定の演算式に
より算出されるそのときのその情動の変動量を△E
[t]、現在のその情動のパラメータ値をE[t]、そ
の情動の感度を表す係数をkeとして、下記数式(1
1)によって次の周期におけるその情動のパラメータ値
E[t+1]を算出し、これを現在のその情動のパラメ
ータ値E[t]と置き換えるようにしてその情動のパラ
メータ値を更新する。また、感情モデル83は、これと
同様にして全ての情動のパラメータ値により更新する。Specifically, the emotion model 83 is determined based on the recognition result given from the input semantics converter module 69, the action of the robot apparatus 1 at that time, the elapsed time from the last update, and the like. The amount of change in emotion at that time calculated by the arithmetic expression is ΔE
[T], the current parameter value of the emotion is E [t], and the coefficient representing the sensitivity of the emotion is ke, the following mathematical expression (1
The parameter value E [t + 1] of the emotion in the next cycle is calculated by 1), and the parameter value of the emotion is updated by replacing this with the current parameter value E [t] of the emotion. Further, the emotion model 83 is updated with the parameter values of all emotions in the same manner.
【0178】[0178]
【数14】 [Equation 14]
【0179】なお、各認識結果や出力セマンティクスコ
ンバータモジュール78からの通知が各情動のパラメー
タ値の変動量△E[t]にどの程度の影響を与えるかは
予め決められており、例えば「叩かれた」といった認識
結果は「怒り」の情動のパラメータ値の変動量△E
[t]に大きな影響を与え、「撫でられた」といった認
識結果は「喜び」の情動のパラメータ値の変動量△E
[t]に大きな影響を与えるようになっている。The degree of influence of each recognition result and the notification from the output semantics converter module 78 on the variation amount ΔE [t] of the parameter value of each emotion is predetermined, and for example, “striking” is performed. The recognition result such as “ta” is the variation amount ΔE of the parameter value of the emotion of “anger”
[T] has a great influence, and the recognition result such as “struck” is the variation amount ΔE of the parameter value of the emotion of “joy”.
It has a great influence on [t].
【0180】ここで、出力セマンティクスコンバータモ
ジュール78からの通知とは、いわゆる行動のフィード
バック情報(行動完了情報)であり、行動の出現結果の
情報であり、感情モデル83は、このような情報によっ
ても感情を変化させる。これは、例えば、「叫ぶ」とい
った行動により怒りの感情レベルが下がるといったよう
なことである。なお、出力セマンティクスコンバータモ
ジュール78からの通知は、上述した学習モジュール8
2にも入力されており、学習モジュール82は、その通
知に基づいて行動モデルの対応する遷移確率を変更す
る。Here, the notification from the output semantics converter module 78 is so-called action feedback information (action completion information), which is information about the appearance result of the action, and the emotion model 83 is also based on such information. Change emotions. This is, for example, that the behavior level of anger is lowered by the action of "screaming". The notification from the output semantics converter module 78 is sent to the learning module 8 described above.
2 is also input, and the learning module 82 changes the corresponding transition probability of the behavior model based on the notification.
【0181】なお、行動結果のフィードバックは、行動
切換モジュール81の出力(感情が付加された行動)に
よりなされるものであってもよい。The feedback of the action result may be performed by the output of the action switching module 81 (action added with emotion).
【0182】一方、本能モデル84は、「運動欲(exer
cise)」、「愛情欲(affection)」、「食欲(appetit
e)」及び「好奇心(curiosity)」の互いに独立した4
つの欲求について、これら欲求毎にその欲求の強さを表
すパラメータを保持している。そして、本能モデル84
は、これらの欲求のパラメータ値を、それぞれ入力セマ
ンティクスコンバータモジュール69から与えられる認
識結果や、経過時間及び行動切換モジュール81からの
通知などに基づいて周期的に更新する。On the other hand, the instinct model 84 is "exercise desire (exer
cise), “affection”, “appetite”
e) ”and“ curiosity ”independent of each other 4
For each desire, a parameter indicating the strength of the desire is held for each of these desires. And the instinct model 84
Updates the parameter values of these desires periodically based on the recognition result provided from the input semantics converter module 69, the elapsed time, the notification from the action switching module 81, and the like.
【0183】具体的には、本能モデル84は、「運動
欲」、「愛情欲」及び「好奇心」については、認識結
果、経過時間及び出力セマンティクスコンバータモジュ
ール78からの通知などに基づいて所定の演算式により
算出されるそのときのその欲求の変動量をΔI[k]、
現在のその欲求のパラメータ値をI[k]、その欲求の
感度を表す係数kiとして、所定周期で下記数式(1
2)を用いて次の周期におけるその欲求のパラメータ値
I[k+1]を算出し、この演算結果を現在のその欲求
のパラメータ値I[k]と置き換えるようにしてその欲
求のパラメータ値を更新する。また、本能モデル84
は、これと同様にして「食欲」を除く各欲求のパラメー
タ値を更新する。Specifically, the instinct model 84 determines a predetermined "movement desire", "love desire" and "curiosity" based on the recognition result, the elapsed time, the notification from the output semantics converter module 78, and the like. The fluctuation amount of the desire at that time calculated by the arithmetic expression is ΔI [k],
Let I [k] be the current parameter value of the desire and a coefficient ki representing the sensitivity of the desire, and the following mathematical expression (1
2) is used to calculate the parameter value I [k + 1] of the desire in the next cycle, and the calculation result is replaced with the current parameter value I [k] of the desire to update the parameter value of the desire. . Also, the instinct model 84
Updates the parameter values of each desire except "appetite" in the same manner.
【0184】[0184]
【数15】 [Equation 15]
【0185】なお、認識結果及び出力セマンティクスコ
ンバータモジュール78からの通知などが各欲求のパラ
メータ値の変動量△I[k]にどの程度の影響を与える
かは予め決められており、例えば出力セマンティクスコ
ンバータモジュール78からの通知は、「疲れ」のパラ
メータ値の変動量△I[k]に大きな影響を与えるよう
になっている。The degree of influence of the recognition result and the notification from the output semantics converter module 78 on the variation amount ΔI [k] of the parameter value of each desire is predetermined, and for example, the output semantics converter is used. The notification from the module 78 has a great influence on the fluctuation amount ΔI [k] of the “tiredness” parameter value.
【0186】なお、本実施の形態においては、各情動及
び各欲求(本能)のパラメータ値がそれぞれ0から10
0までの範囲で変動するように規制されており、また係
数ke、kiの値も各情動及び各欲求毎に個別に設定さ
れている。In the present embodiment, the parameter values for each emotion and each desire (instinct) are 0 to 10 respectively.
It is regulated so as to fluctuate in a range of up to 0, and the values of the coefficients ke and ki are individually set for each emotion and each desire.
【0187】一方、ミドル・ウェア・レイヤ50の出力
セマンティクスコンバータモジュール78は、図28に
示すように、上述のようにしてアプリケーション・レイ
ヤ51の行動切換モジュール81から与えられる「前
進」、「喜ぶ」、「鳴く」又は「トラッキング(ボール
を追いかける)」といった抽象的な行動コマンドを出力
系79の対応する信号処理モジュール71〜77に与え
る。On the other hand, the output semantics converter module 78 of the middleware layer 50, as shown in FIG. 28, is "forward" and "happy" given from the action switching module 81 of the application layer 51 as described above. , An abstract action command such as “squeal” or “tracking (chasing the ball)” is given to the corresponding signal processing modules 71 to 77 of the output system 79.
【0188】そしてこれら信号処理モジュール71〜7
7は、行動コマンドが与えられると当該行動コマンドに
基づいて、その行動をするために対応するアクチュエー
タに与えるべきサーボ指令値や、スピーカから出力する
音の音声データ及び又はLEDに与える駆動データを生
成し、これらのデータをロボティック・サーバ・オブジ
ェクト42のバーチャル・ロボット43及び信号処理回
路を順次介して対応するアクチュエータ又はスピーカ又
はLEDに順次送出する。Then, these signal processing modules 71 to 7
When an action command is given, 7 generates a servo command value to be given to a corresponding actuator to take the action, sound data of sound output from a speaker, and / or drive data given to the LED, based on the action command. Then, these data are sequentially transmitted to the corresponding actuator or speaker or LED via the virtual robot 43 of the robotic server object 42 and the signal processing circuit.
【0189】このようにしてロボット装置1は、上述し
た制御プログラムに基づいて、自己(内部)及び周囲
(外部)の状況や、使用者からの指示及び働きかけに応
じた自律的な行動ができる。In this way, the robot apparatus 1 can perform an autonomous action according to its own (inside) and surroundings (outside), and a user's instruction and action based on the above control program.
【0190】このような制御プログラムは、ロボット装
置が読取可能な形式で記録された記録媒体を介して提供
される。制御プログラムを記録する記録媒体としては、
磁気読取方式の記録媒体(例えば、磁気テープ、フレキ
シブルディスク、磁気カード)、光学読取方式の記録媒
体(例えば、CD−ROM、MO、CD−R、DVD)
等が考えられる。記録媒体には、半導体メモリ(いわゆ
るメモリカード(矩形型、正方形型など形状は問わな
い。)、ICカード)等の記憶媒体も含まれる。また、
制御プログラムは、いわゆるインターネット等を介して
提供されてもよい。Such a control program is provided via a recording medium recorded in a format readable by the robot apparatus. As a recording medium for recording the control program,
Recording medium of magnetic reading system (for example, magnetic tape, flexible disk, magnetic card), recording medium of optical reading system (for example, CD-ROM, MO, CD-R, DVD)
Etc. are possible. The recording medium also includes a storage medium such as a semiconductor memory (so-called memory card (rectangular type, square type, or any shape), IC card) or the like. Also,
The control program may be provided via the so-called Internet or the like.
【0191】これらの制御プログラムは、専用の読込ド
ライバ装置、又はパーソナルコンピュータ等を介して再
生され、有線又は無線接続によってロボット装置1に伝
送されて読み込まれる。また、ロボット装置1は、半導
体メモリ、又はICカード等の小型化された記憶媒体の
ドライブ装置を備える場合、これら記憶媒体から制御プ
ログラムを直接読み込むこともできる。These control programs are reproduced via a dedicated read driver device, a personal computer or the like, and transmitted to the robot device 1 by a wired or wireless connection to be read. Further, when the robot device 1 includes a drive device for a miniaturized storage medium such as a semiconductor memory or an IC card, the control program can be directly read from the storage medium.
【0192】本実施の形態において、経路計画装置は、
未観測領域と自由空間領域を移動可能領域とみなして経
路計画を行い、出力された経路上に含まれる未観測領域
部のみを再観測することにより、目的地に移動する際に
不必要な観測及び距離画像計算処理を行わなわず、効率
的で短時間に移動経路計画を生成することが可能とな
る。In the present embodiment, the route planning device is
Unnecessary observation when moving to the destination by planning the route by considering the unobserved region and the free space region as movable regions and re-observing only the unobserved region included in the output route. In addition, it is possible to efficiently generate a travel route plan in a short time without performing the distance image calculation process.
【0193】[0193]
【発明の効果】以上詳細に説明したように本発明に係る
経路計画装置によれば、障害物地図から移動経路を探索
する際に、自由空間領域の他に未観測領域も移動可能空
間であると仮定し、出力された経路上の未観測領域を再
観測することにより、必要最低限の観測及び距離画像計
算処理のみにより効率良く経路を計画することができ
る。As described in detail above, according to the route planning apparatus of the present invention, when searching a moving route from an obstacle map, not only the free space region but also the unobserved region is a movable space. By re-observing the unobserved region on the output route, it is possible to efficiently plan the route only by the minimum necessary observation and distance image calculation processing.
【0194】また、本発明に係る経路計画方法によれ
ば、障害物地図から移動経路を探索する際に、自由空間
領域の他に未観測領域も移動可能空間であると仮定し、
出力された経路上の未観測領域を再観測することによ
り、必要最低限の観測及び距離画像計算処理のみにより
効率良く経路を計画することができる。Further, according to the route planning method of the present invention, it is assumed that an unobserved region is a movable space in addition to the free space region when searching a moving route from an obstacle map,
By re-observing the unobserved region on the output route, the route can be efficiently planned only by the minimum necessary observation and distance image calculation processing.
【0195】また、本発明に係る経路計画プログラムを
実行することにより、移動型ロボット装置は、障害物地
図から移動経路を探索する際に、自由空間領域の他に未
観測領域も移動可能空間であると仮定し、出力された経
路上の未観測領域を再観測することにより、必要最低限
の観測及び距離画像計算処理のみにより効率良く目的地
に移動することができる。Further, by executing the route planning program according to the present invention, the mobile robot device searches the moving route from the obstacle map in the free space region as well as the unobserved region in the movable space. Assuming that there is, re-observing the unobserved region on the output route, it is possible to efficiently move to the destination only by the minimum necessary observation and distance image calculation processing.
【0196】また、本発明に係る移動型ロボット装置
は、障害物地図から移動経路を探索する際に、自由空間
領域の他に未観測領域も移動可能空間であると仮定し、
出力された経路上の未観測領域を再観測することによ
り、必要最低限の観測及び距離画像計算処理のみにより
効率良く目的地に移動することができる。Further, the mobile robot apparatus according to the present invention, when searching for a movement route from an obstacle map, assumes that an unobserved area is also a movable space in addition to the free space area,
By re-observing the unobserved region on the output route, it is possible to efficiently move to the destination only by the minimum necessary observation and distance image calculation processing.
【図1】本発明の実施の形態におけるロボット装置の概
略を示すブロック図である。FIG. 1 is a block diagram showing an outline of a robot apparatus according to an embodiment of the present invention.
【図2】本発明の実施の形態におけるロボット装置のソ
フトウェアの構成を示す模式図である。FIG. 2 is a schematic diagram showing a software configuration of the robot apparatus according to the embodiment of the present invention.
【図3】経路計画装置の機能ブロック図である。FIG. 3 is a functional block diagram of a route planning device.
【図4】障害物情報により生成された障害物地図上に、
現在位置から目的位置までの経路を示した図である。[Fig. 4] On the obstacle map generated by the obstacle information,
It is the figure which showed the route from the present position to the destination position.
【図5】経路計画アルゴリズムを示すフローチャートで
ある。FIG. 5 is a flowchart showing a route planning algorithm.
【図6】本発明の実施の形態におけるロボット装置のソ
フトウェアの動作を示すフローチャートである。FIG. 6 is a flowchart showing an operation of software of the robot device according to the embodiment of the present invention.
【図7】同ソフトウェアに入力されるデータの流れを示
す模式図である。FIG. 7 is a schematic diagram showing a flow of data input to the software.
【図8】平面抽出部PLEXに入力される視差画像の生
成を説明するための図である。[Fig. 8] Fig. 8 is a diagram for describing generation of a parallax image input to a plane extraction unit PLEX.
【図9】平面抽出部PLEXが障害物を認識する処理手
順を示すフローチャートである。FIG. 9 is a flowchart showing a processing procedure in which the plane extraction unit PLEX recognizes an obstacle.
【図10】平面抽出部PLEXが検出する平面のパラメ
ータを示す図である。FIG. 10 is a diagram showing plane parameters detected by a plane extraction unit PLEX.
【図11】カメラ座標系から足底接地平面座標系への変
換処理を説明するための図である。FIG. 11 is a diagram for explaining a conversion process from a camera coordinate system to a foot sole contact plane coordinate system.
【図12】平面抽出部PLEXにて抽出された平面上の
点を示す図である。FIG. 12 is a diagram showing points on a plane extracted by a plane extraction unit PLEX.
【図13】ロボットビューから床面を抽出し、さらに座
標変換して2次元(床平面)上に障害物を表現したこと
を示す図である。FIG. 13 is a diagram showing that the floor surface is extracted from the robot view, and the coordinates are further converted to represent an obstacle in two dimensions (floor plane).
【図14】本発明の実施の形態における障害物認識装置
(ロボット装置)にて表示される環境地図を示す模式図
である。FIG. 14 is a schematic diagram showing an environment map displayed by the obstacle recognition device (robot device) according to the embodiment of the present invention.
【図15】(a),(b)及び(c),(d)は位置認
識装置の移動量に応じた環境地図の更新方法を示す図で
あって、夫々環境地図を更新しない場合及び環境地図を
更新する場合の環境地図を示す模式図である。15 (a), (b), (c), and (d) are diagrams showing a method of updating the environment map according to the amount of movement of the position recognition device, in the case where the environment map is not updated and the environment, respectively. It is a schematic diagram which shows an environment map at the time of updating a map.
【図16】位置認識装置における環境地図更新の際の各
移動量を示す模式図である。FIG. 16 is a schematic diagram showing each movement amount when updating the environment map in the position recognition device.
【図17】(a)及び(b)は、位置認識装置における
姿勢方向の夫々更新前後の様子を示す模式図である。17 (a) and 17 (b) are schematic views showing states before and after updating of the posture direction in the position recognition device, respectively.
【図18】位置認識装置における効果を説明する模式図
である。FIG. 18 is a schematic diagram illustrating an effect of the position recognition device.
【図19】環境地図及び姿勢情報を表示した操作盤を示
す模式図である。FIG. 19 is a schematic diagram showing an operation panel displaying an environment map and attitude information.
【図20】ランドマークセンサCLSにおけるカラーラ
ンドマークを示す模式図である。FIG. 20 is a schematic diagram showing color landmarks in a landmark sensor CLS.
【図21】ランドマークセンサCLSの構成を模式的に
示すブロック図である。FIG. 21 is a block diagram schematically showing the configuration of a landmark sensor CLS.
【図22】マルコフ・ローカリゼーション部により求め
られた各グリッド上での自己位置確率密度分布を示す模
式図である。FIG. 22 is a schematic diagram showing a self-position probability density distribution on each grid, which is obtained by the Markov localization unit.
【図23】ランドマークセンサCLS340の動作を示
すフローチャートである。FIG. 23 is a flowchart showing the operation of the landmark sensor CLS340.
【図24】本実施の形態におけるロボット装置の外観構
成を示す斜視図である。FIG. 24 is a perspective view showing an external configuration of the robot apparatus according to the present embodiment.
【図25】同ロボット装置の自由度構成モデルを模式的
に示す図である。FIG. 25 is a diagram schematically showing a degree-of-freedom configuration model of the robot apparatus.
【図26】同ロボット装置の回路構成を示すブロック図
である。FIG. 26 is a block diagram showing a circuit configuration of the robot apparatus.
【図27】同ロボット装置のソフトウェア構成を示すブ
ロック図である。FIG. 27 is a block diagram showing a software configuration of the robot apparatus.
【図28】同ロボット装置のソフトウェア構成における
ミドル・ウェア・レイヤの構成を示すブロック図であ
る。FIG. 28 is a block diagram showing a configuration of a middle wear layer in the software configuration of the robot apparatus.
【図29】同ロボット装置のソフトウェア構成における
アプリケーション・レイヤの構成を示すブロック図であ
る。FIG. 29 is a block diagram showing a configuration of an application layer in the software configuration of the robot apparatus.
【図30】アプリケーション・レイヤの行動モデルライ
ブラリの構成を示すブロック図である。[Fig. 30] Fig. 30 is a block diagram illustrating a configuration of a behavior model library of an application layer.
【図31】同ロボット装置の行動決定のための情報とな
る有限確率オートマトンを説明する図である。FIG. 31 is a diagram illustrating a finite probability automaton which is information for determining the action of the robot apparatus.
【図32】有限確率オートマトンの各ノードに用意され
た状態遷移表を示す図である。FIG. 32 is a diagram showing a state transition table prepared for each node of the finite probability automaton.
1 ロボット装置、250 頭部ユニット、200R,
200L CCDカメラ、201R 右目画像、201
L 左目画像、202 カラー画像、203視差画像、
210 ステレオ画像処理装置、220 CPU、23
0 アクチュエータ、231 制御信号、240 セン
サ、241 センサデータ、260体幹部、300 ソ
フトウェア、310 キネマティックオドメトリKIN
E310、320 平面抽出部PLEX、330 障害
物グリッド算出部OG、340 ランドマーク位置検出
部CLS、350 絶対座標算出部LZ、360 行動
決定部SBL、400,500,510,600,61
0,700 環境地図、401,501,601,70
1 中心グリッド、402,502,602障害物グリ
ッド、403,503,506,513,603,70
3 ロボット装置、410 グリッド、404 情報、
900 操作盤1 robot device, 250 head unit, 200R,
200L CCD camera, 201R right eye image, 201
L left eye image, 202 color image, 203 parallax image,
210 stereo image processing device, 220 CPU, 23
0 actuator, 231 control signal, 240 sensor, 241 sensor data, 260 trunk, 300 software, 310 kinematic odometry KIN
E310, 320 Plane extraction unit PLEX, 330 Obstacle grid calculation unit OG, 340 Landmark position detection unit CLS, 350 Absolute coordinate calculation unit LZ, 360 Action determination unit SBL, 400, 500, 510, 600, 61
0,700 environment map, 401,501,601,70
1 Center grid, 402, 502, 602 Obstacle grid, 403, 503, 506, 513, 603, 70
3 robot device, 410 grid, 404 information,
900 operation panel
───────────────────────────────────────────────────── フロントページの続き (72)発明者 福地 正樹 東京都品川区北品川6丁目7番35号 ソニ ー株式会社内 (72)発明者 河本 献太 東京都品川区北品川6丁目7番35号 ソニ ー株式会社内 (72)発明者 大橋 武史 東京都品川区北品川6丁目7番35号 ソニ ー株式会社内 (72)発明者 ステファン グットマン 東京都品川区北品川6丁目7番35号 ソニ ー株式会社内 Fターム(参考) 3C007 AS36 CS08 KS12 KS36 KT03 KT11 LT06 LT11 MT02 MT08 WA03 WA13 WA28 WB21 5B057 AA05 BA02 CA13 CA16 DA06 DB03 DC03 DC36 5L096 AA09 BA05 CA02 FA02 FA59 FA66 FA69 JA11 ─────────────────────────────────────────────────── ─── Continued front page (72) Inventor Masaki Fukuchi 6-735 Kita-Shinagawa, Shinagawa-ku, Tokyo Soni -Inside the corporation (72) Inventor Kenta Kawamoto 6-735 Kita-Shinagawa, Shinagawa-ku, Tokyo Soni -Inside the corporation (72) Inventor Takeshi Ohashi 6-735 Kita-Shinagawa, Shinagawa-ku, Tokyo Soni -Inside the corporation (72) Inventor Stefan Goodman 6-735 Kita-Shinagawa, Shinagawa-ku, Tokyo Soni -Inside the corporation F-term (reference) 3C007 AS36 CS08 KS12 KS36 KT03 KT11 LT06 LT11 MT02 MT08 WA03 WA13 WA28 WB21 5B057 AA05 BA02 CA13 CA16 DA06 DB03 DC03 DC36 5L096 AA09 BA05 CA02 FA02 FA59 FA66 FA69 JA11
Claims (14)
装置が現在位置から目的位置まで障害物を避けながら移
動するための経路を計画する経路計画装置において、 移動型ロボット装置の視線を制御する視線制御手段と、 前記障害物に関する情報に基づいて障害物領域、自由空
間領域及び未観測領域からなる障害物地図を作成又は更
新する障害物地図更新手段と、 前記障害物地図更新手段により更新された障害物地図上
の前記自由空間領域と未観測領域を移動可能空間である
として前記移動型ロボット装置の経路を計画する経路計
画手段と、 前記経路計画手段にて計画された経路計画を評価する経
路評価手段とを備え、 前記経路評価手段は前記経路計画手段にて計画された経
路計画に前記未観測領域が含まれているか否かによって
前記経路計画手段及び前記視線制御手段を調整すること
を特徴とする経路計画装置。1. A path planning device for planning a path for a mobile robot device to move from a current position to a target position while avoiding obstacles in an environment with obstacles, and controls the line of sight of the mobile robot device. Line-of-sight control means, an obstacle map updating means for creating or updating an obstacle map composed of an obstacle area, a free space area and an unobserved area based on the information about the obstacle, and updated by the obstacle map updating means. Path planning means for planning the path of the mobile robot apparatus by assuming that the free space area and the unobserved area on the obstacle map are movable spaces, and evaluates the path plan planned by the path planning means. And a route evaluation means for performing the route evaluation according to whether or not the unobserved area is included in the route plan planned by the route planning means. Path planning apparatus and adjusts the image means and the visual axis control means.
にて計画された経路計画に前記未観測領域が含まれてい
るときにはその未観測領域のみを再観測するように前記
視線制御手段による視線制御を調整することを特徴とす
る請求項1記載の経路計画装置。2. The route evaluation means, when the route plan planned by the route planning means includes the unobserved area, revises only the unobserved area so that the line-of-sight control means The route planning device according to claim 1, wherein the control is adjusted.
にて計画された経路計画に前記未観測領域が含まれ、か
つ現在位置から未観測領域までのロボット装置の歩数が
所定のしきい値を超えるときには、前記未観測領域まで
の移動可能経路を出力した後、前記目的地方向に視線を
向けるように前記視線制御手段による視線制御を調整す
ることを特徴とする請求項2記載の経路計画装置。3. The route evaluation means includes the unobserved region in the route plan planned by the route planning means, and the number of steps of the robot apparatus from the current position to the unobserved region is a predetermined threshold value. 3. When the distance exceeds the range, the route planning by the line-of-sight control means is adjusted so as to direct the line of sight to the destination after outputting the movable route to the unobserved area. apparatus.
にて計画された経路計画に前記未観測領域が含まれ、か
つ現在位置から未観測領域までのロボット装置の歩数が
所定のしきい値に満たないときには、前記未観測領域が
距離観測されるように前記視線制御手段による視線制御
を調整することを特徴とする請求項2記載の経路計画装
置。4. The route evaluation means includes the unobserved region in the route plan planned by the route planning means, and the number of steps of the robot device from the current position to the unobserved region is a predetermined threshold value. 3. The route planning apparatus according to claim 2, wherein the line-of-sight control by the line-of-sight control unit is adjusted so that the unobserved region is observed at a distance when the value is less than 1.
にて計画された経路計画に前記未観測領域が含まれない
ときには、前記経路計画手段に移動可能経路を出力させ
ることを特徴とする請求項1記載の経路計画装置。5. The route evaluation unit causes the route planning unit to output a movable route when the route plan planned by the route planning unit does not include the unobserved area. Item 1. The route planning device according to item 1.
装置が現在位置から目的位置まで障害物を避けながら移
動するための経路を計画する経路計画方法において、 移動型ロボット装置の視線を制御する視線制御工程と、 前記障害物に関する情報に基づいて障害物領域、自由空
間領域及び未観測領域からなる障害物地図を作成又は更
新する障害物地図更新工程と、 前記障害物地図更新工程により更新された障害物地図上
の前記自由空間領域と未観測領域を移動可能空間である
として前記移動型ロボット装置の経路を計画する経路計
画工程と、 前記経路計画工程にて計画された経路計画を評価する経
路評価工程とを備え、 前記経路評価工程は前記経路計画工程にて計画された経
路計画に前記未観測領域が含まれているか否かによって
前記経路計画工程及び前記視線制御工程を調整すること
を特徴とする経路計画方法。6. A path planning method for planning a path for a mobile robot device to move from a current position to a target position while avoiding obstacles in an environment with obstacles, wherein the line of sight of the mobile robot device is controlled. Eye gaze control step, an obstacle map update step of creating or updating an obstacle map consisting of an obstacle area, a free space area and an unobserved area based on the information about the obstacle, and updated by the obstacle map updating step A route planning step of planning the route of the mobile robot device by assuming that the free space area and the unobserved area on the obstacle map are movable spaces, and evaluating the route plan planned in the path planning step. And a route evaluation step for performing the route evaluation process according to whether or not the unobserved region is included in the route plan planned in the route planning process. Path planning method characterized by adjusting the image process and the sight line control process.
にて計画された経路計画に前記未観測領域が含まれてい
るときにはその未観測領域のみを再観測するように前記
視線制御工程による視線制御を調整することを特徴とす
る請求項6記載の経路計画方法。7. The line-of-sight control step so as to re-observe only the unobserved region in the route evaluation step when the unplanned region is included in the route plan planned in the route planning step. 7. The route planning method according to claim 6, wherein the control is adjusted.
にて計画された経路計画に前記未観測領域が含まれ、か
つ現在位置から未観測領域までのロボット装置の歩数が
所定のしきい値を超えるときには、前記未観測領域まで
の移動可能経路を出力した後、前記目的地方向に視線を
向けるように前記視線制御工程による視線制御を調整す
ることを特徴とする請求項7記載の経路計画方法。8. The route evaluation step includes the step plan of the route planning step including the unobserved area, and the number of steps of the robot apparatus from the current position to the unobserved area is a predetermined threshold value. 8. When it exceeds, the route plan according to claim 7, wherein the line-of-sight control by the line-of-sight control step is adjusted so as to direct the line of sight to the destination after outputting a movable route to the unobserved region. Method.
にて計画された経路計画に前記未観測領域が含まれ、か
つ現在位置から未観測領域までのロボット装置の歩数が
所定のしきい値に満たないときには、前記未観測領域が
距離観測されるように前記視線制御工程による視線制御
を調整することを特徴とする請求項6記載の経路計画方
法。9. In the route evaluation step, the route plan planned in the route planning step includes the unobserved region, and the number of steps of the robot apparatus from the current position to the unobserved region is a predetermined threshold value. 7. The route planning method according to claim 6, wherein the line-of-sight control in the line-of-sight control step is adjusted so that the unobserved region is observed when the distance is less than.
ト装置を現在位置から目的位置まで障害物を避けながら
移動させるための経路を計画する経路計画プログラムに
おいて、 移動型ロボット装置の視線を制御する視線制御工程と、 前記障害物に関する情報に基づいて障害物領域、自由空
間領域及び未観測領域からなる障害物地図を作成又は更
新する障害物地図更新工程と、 前記障害物地図更新工程により更新された障害物地図上
の前記自由空間領域と未観測領域を移動可能空間である
として前記移動型ロボット装置の経路を計画する経路計
画工程と、 前記経路計画工程にて計画された経路計画を評価する経
路評価工程とを備え、 前記経路評価工程は前記経路計画工程にて計画された経
路計画に前記未観測領域が含まれているか否かによって
前記経路計画工程及び前記視線制御工程を調整すること
により前記移動型ロボット装置を現在位置から目的位置
まで障害物を避けながら移動させることを特徴とする経
路計画プログラム。10. In a path planning program for planning a path for moving a mobile robot device from a current position to a target position while avoiding obstacles in an environment with obstacles, the line of sight of the mobile robot device is controlled. Eye gaze control step, an obstacle map update step of creating or updating an obstacle map consisting of an obstacle area, a free space area and an unobserved area based on the information about the obstacle, and updated by the obstacle map updating step A route planning step of planning the route of the mobile robot device by assuming that the free space area and the unobserved area on the obstacle map are movable spaces, and evaluating the route plan planned in the path planning step. And a route evaluation process for performing the route evaluation process according to whether or not the unobserved region is included in the route plan planned in the route planning process. Route planning program for causing movement while avoiding an obstacle to the target position the mobile robot device from the current position by adjusting the path planning step and the eye control process.
可動脚ユニットと、情報処理手段を有する胴体ユニット
とを備えてなり、障害物のある環境下にて現在位置から
目的位置まで前記可動脚ユニットを用いて障害物を避け
ながら移動する移動型ロボット装置において、 前記頭部ユニットに配設された視認手段による視線を制
御する視線制御手段と、 前記障害物に関する情報に基づいて障害物領域、自由空
間領域及び未観測領域からなる障害物地図を作成又は更
新する障害物地図更新手段と、 前記障害物地図更新手段により更新された障害物地図上
の前記自由空間領域と未観測領域を移動可能空間である
として移動の経路を計画する経路計画手段と、 前記経路計画手段にて計画された経路計画に前記未観測
領域が含まれているか否かによって前記経路計画手段及
び前記視線制御手段を調整する経路評価手段とからなる
経路計画装置を前記胴体ユニット内に備えてなることを
特徴とする移動型ロボット装置。11. The movable leg unit, comprising a head unit, at least one or more movable leg units, and a body unit having information processing means, and the movable leg unit from a current position to a target position under an obstacle environment. In a mobile robot apparatus that moves while avoiding obstacles by using a line-of-sight control unit that controls the line-of-sight by the visual recognition unit disposed in the head unit, an obstacle region based on information about the obstacle, Obstacle map updating means for creating or updating an obstacle map consisting of a spatial area and an unobserved area, and a free space area and an unobserved area movable space on the obstacle map updated by the obstacle map updating means And a route planning means for planning a movement route, and whether or not the unobserved area is included in the route plan planned by the route planning means. Mobile robot apparatus characterized by including a path planning device comprising a route evaluation means for adjusting the path planning unit and the eye control means within the body unit.
段にて計画された経路計画に前記未観測領域が含まれて
いるときにはその未観測領域のみを再観測するように前
記視線制御手段による視線制御を調整することを特徴と
する請求項11記載の移動型ロボット装置。12. The line of sight by the line-of-sight control unit, so that the route evaluation unit re-observes only the unobserved region when the route plan planned by the route planning unit includes the unobserved region. The mobile robot apparatus according to claim 11, wherein the control is adjusted.
段にて計画された経路計画に前記未観測領域が含まれ、
かつ現在位置から未観測領域までのロボット装置の歩数
が所定のしきい値を超えるときには、前記未観測領域ま
での移動可能経路を出力した後、前記目的地方向に視線
を向けるように前記視線制御手段による視線制御を調整
することを特徴とする請求項12記載の移動型ロボット
装置。13. The route evaluation means includes the unobserved area in the route plan planned by the route planning means,
And when the number of steps of the robot apparatus from the current position to the unobserved area exceeds a predetermined threshold, after outputting the movable route to the unobserved area, the line-of-sight control is performed so as to direct the line of sight to the destination direction. 13. The mobile robot apparatus according to claim 12, wherein the line-of-sight control by the means is adjusted.
段にて計画された経路計画に前記未観測領域が含まれ、
かつ現在位置から未観測領域までのロボット装置の歩数
が所定のしきい値に満たないときには、前記未観測領域
が距離観測されるように前記視線制御手段による視線制
御を調整することを特徴とする請求項11記載の移動型
ロボット装置。14. The route evaluation means includes the unobserved area in the route plan planned by the route planning means,
Further, when the number of steps of the robot device from the current position to the unobserved region does not reach a predetermined threshold value, the gaze control by the gaze control means is adjusted so that the unobserved region is observed by a distance. The mobile robot apparatus according to claim 11.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2002073770A JP2003266345A (en) | 2002-03-18 | 2002-03-18 | Path planning device, path planning method, path planning program, and moving robot device |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2002073770A JP2003266345A (en) | 2002-03-18 | 2002-03-18 | Path planning device, path planning method, path planning program, and moving robot device |
Publications (1)
Publication Number | Publication Date |
---|---|
JP2003266345A true JP2003266345A (en) | 2003-09-24 |
Family
ID=29203345
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2002073770A Withdrawn JP2003266345A (en) | 2002-03-18 | 2002-03-18 | Path planning device, path planning method, path planning program, and moving robot device |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP2003266345A (en) |
Cited By (27)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2005326944A (en) * | 2004-05-12 | 2005-11-24 | Hitachi Ltd | Device and method for generating map image by laser measurement |
JP2007257094A (en) * | 2006-03-22 | 2007-10-04 | Toyota Motor Corp | Method for creating path, moving element and moving element control system |
JP2007319944A (en) * | 2006-05-30 | 2007-12-13 | Toyota Motor Corp | Route creating device and route creating method |
JP2008197884A (en) * | 2007-02-13 | 2008-08-28 | Toyota Motor Corp | Generation method for environmental map and mobile robot |
US7474945B2 (en) | 2004-12-14 | 2009-01-06 | Honda Motor Company, Ltd. | Route generating system for an autonomous mobile robot |
US7769491B2 (en) | 2005-03-04 | 2010-08-03 | Sony Corporation | Obstacle avoiding apparatus, obstacle avoiding method, obstacle avoiding program, and mobile robot apparatus |
JP2011248441A (en) * | 2010-05-24 | 2011-12-08 | Nissan Motor Co Ltd | Image processing apparatus and method of estimating location of mobile body |
JP2014164424A (en) * | 2013-02-22 | 2014-09-08 | Ihi Aerospace Co Ltd | Route generation device and method thereof |
US8849559B2 (en) | 2009-02-18 | 2014-09-30 | Samsung Electronics Co., Ltd. | Apparatus and method for generating and using a grid map path |
JP2017096725A (en) * | 2015-11-20 | 2017-06-01 | キヤノン株式会社 | Information processor and information processing method |
CN107024934A (en) * | 2017-04-21 | 2017-08-08 | 山东大学 | A kind of hospital service robot and method based on cloud platform |
CN107160402A (en) * | 2017-06-27 | 2017-09-15 | 华北电力大学(保定) | A kind of mechanical arm mobile route planning system and method |
WO2018070354A1 (en) * | 2016-10-14 | 2018-04-19 | 富士フイルム株式会社 | Image-capturing plan generation device, image-capturing plan generation method, and program |
CN108931246A (en) * | 2017-05-26 | 2018-12-04 | 杭州海康机器人技术有限公司 | A kind of method and apparatus for the barrier existing probability detecting unknown position |
CN109814557A (en) * | 2019-01-23 | 2019-05-28 | 西北工业大学 | A kind of robot path planning method that Global motion planning device is leading |
CN110502011A (en) * | 2019-08-16 | 2019-11-26 | 湖南格兰博智能科技有限责任公司 | A kind of sweeper obstacles borders detection method |
KR20200045321A (en) * | 2018-10-22 | 2020-05-04 | 에스케이텔레콤 주식회사 | Space scanning apparatus and information processing method thereof |
CN112703092A (en) * | 2018-07-16 | 2021-04-23 | 快砖知识产权私人有限公司 | Backup tracking for interactive systems |
CN112799404A (en) * | 2021-01-05 | 2021-05-14 | 佛山科学技术学院 | Global path planning method and device for AGV and computer readable storage medium |
CN114167856A (en) * | 2021-11-05 | 2022-03-11 | 杭州电子科技大学 | Service robot local path planning method based on artificial emotion |
US11318612B2 (en) | 2018-08-09 | 2022-05-03 | Kabushiki Kaisha Toshiba | Control device, control method, and storage medium |
WO2022091578A1 (en) * | 2020-10-26 | 2022-05-05 | オムロン株式会社 | Control device, robot, control method, and program |
CN114440882A (en) * | 2022-02-07 | 2022-05-06 | 电子科技大学 | Multi-intelligent-home mobile equipment and cooperative path-finding anti-collision method thereof |
US11435192B1 (en) * | 2017-10-17 | 2022-09-06 | AI Incorporated | Method for constructing a map while performing work |
CN115033110A (en) * | 2022-08-09 | 2022-09-09 | 环球数科集团有限公司 | Virtual human gait simulation and three-dimensional scene path planning system |
US11499832B1 (en) * | 2017-10-17 | 2022-11-15 | AI Incorporated | Method for constructing a map while performing work |
WO2022240256A1 (en) * | 2021-05-14 | 2022-11-17 | (주)로보티즈 | Distance transform map based responsive navigation for autonomous driving robot |
-
2002
- 2002-03-18 JP JP2002073770A patent/JP2003266345A/en not_active Withdrawn
Cited By (43)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP4533659B2 (en) * | 2004-05-12 | 2010-09-01 | 株式会社日立製作所 | Apparatus and method for generating map image by laser measurement |
JP2005326944A (en) * | 2004-05-12 | 2005-11-24 | Hitachi Ltd | Device and method for generating map image by laser measurement |
US7474945B2 (en) | 2004-12-14 | 2009-01-06 | Honda Motor Company, Ltd. | Route generating system for an autonomous mobile robot |
US7769491B2 (en) | 2005-03-04 | 2010-08-03 | Sony Corporation | Obstacle avoiding apparatus, obstacle avoiding method, obstacle avoiding program, and mobile robot apparatus |
JP2007257094A (en) * | 2006-03-22 | 2007-10-04 | Toyota Motor Corp | Method for creating path, moving element and moving element control system |
JP4518033B2 (en) * | 2006-03-22 | 2010-08-04 | トヨタ自動車株式会社 | Route creation method, moving body, and moving body control system |
JP2007319944A (en) * | 2006-05-30 | 2007-12-13 | Toyota Motor Corp | Route creating device and route creating method |
JP4645601B2 (en) * | 2007-02-13 | 2011-03-09 | トヨタ自動車株式会社 | Environmental map generation method and mobile robot |
US7987021B2 (en) | 2007-02-13 | 2011-07-26 | Toyota Jidosha Kabushiki Kaisha | Environment map generating method and mobile robot |
JP2008197884A (en) * | 2007-02-13 | 2008-08-28 | Toyota Motor Corp | Generation method for environmental map and mobile robot |
US8849559B2 (en) | 2009-02-18 | 2014-09-30 | Samsung Electronics Co., Ltd. | Apparatus and method for generating and using a grid map path |
JP2011248441A (en) * | 2010-05-24 | 2011-12-08 | Nissan Motor Co Ltd | Image processing apparatus and method of estimating location of mobile body |
JP2014164424A (en) * | 2013-02-22 | 2014-09-08 | Ihi Aerospace Co Ltd | Route generation device and method thereof |
JP2017096725A (en) * | 2015-11-20 | 2017-06-01 | キヤノン株式会社 | Information processor and information processing method |
US10839544B2 (en) | 2015-11-20 | 2020-11-17 | Canon Kabushiki Kaish | Information processing apparatus, information processing method, and non-transitory computer readable storage medium |
JPWO2018070354A1 (en) * | 2016-10-14 | 2019-08-15 | 富士フイルム株式会社 | Imaging plan generation apparatus, imaging plan generation method, and program |
US10742874B2 (en) | 2016-10-14 | 2020-08-11 | Fujifilm Corporation | Imaging plan generation device, imaging plan generation method, and program |
WO2018070354A1 (en) * | 2016-10-14 | 2018-04-19 | 富士フイルム株式会社 | Image-capturing plan generation device, image-capturing plan generation method, and program |
CN107024934A (en) * | 2017-04-21 | 2017-08-08 | 山东大学 | A kind of hospital service robot and method based on cloud platform |
CN107024934B (en) * | 2017-04-21 | 2023-06-02 | 山东大学 | Hospital service robot and method based on cloud platform |
CN108931246A (en) * | 2017-05-26 | 2018-12-04 | 杭州海康机器人技术有限公司 | A kind of method and apparatus for the barrier existing probability detecting unknown position |
CN108931246B (en) * | 2017-05-26 | 2020-12-11 | 杭州海康机器人技术有限公司 | Method and device for detecting existence probability of obstacle at unknown position |
CN107160402A (en) * | 2017-06-27 | 2017-09-15 | 华北电力大学(保定) | A kind of mechanical arm mobile route planning system and method |
US11435192B1 (en) * | 2017-10-17 | 2022-09-06 | AI Incorporated | Method for constructing a map while performing work |
US11499832B1 (en) * | 2017-10-17 | 2022-11-15 | AI Incorporated | Method for constructing a map while performing work |
CN112703092A (en) * | 2018-07-16 | 2021-04-23 | 快砖知识产权私人有限公司 | Backup tracking for interactive systems |
US11318612B2 (en) | 2018-08-09 | 2022-05-03 | Kabushiki Kaisha Toshiba | Control device, control method, and storage medium |
KR20200045321A (en) * | 2018-10-22 | 2020-05-04 | 에스케이텔레콤 주식회사 | Space scanning apparatus and information processing method thereof |
KR102158323B1 (en) * | 2018-10-22 | 2020-09-21 | 에스케이텔레콤 주식회사 | Space scanning apparatus and information processing method thereof |
CN109814557A (en) * | 2019-01-23 | 2019-05-28 | 西北工业大学 | A kind of robot path planning method that Global motion planning device is leading |
CN110502011A (en) * | 2019-08-16 | 2019-11-26 | 湖南格兰博智能科技有限责任公司 | A kind of sweeper obstacles borders detection method |
WO2022091578A1 (en) * | 2020-10-26 | 2022-05-05 | オムロン株式会社 | Control device, robot, control method, and program |
CN112799404A (en) * | 2021-01-05 | 2021-05-14 | 佛山科学技术学院 | Global path planning method and device for AGV and computer readable storage medium |
CN112799404B (en) * | 2021-01-05 | 2024-01-16 | 佛山科学技术学院 | Global path planning method and device of AGV and computer readable storage medium |
WO2022240256A1 (en) * | 2021-05-14 | 2022-11-17 | (주)로보티즈 | Distance transform map based responsive navigation for autonomous driving robot |
KR20220154996A (en) * | 2021-05-14 | 2022-11-22 | (주)로보티즈 | Distance transform map-based reactive navigation for autonomous driving mobile robots |
KR102551275B1 (en) * | 2021-05-14 | 2023-07-04 | (주)로보티즈 | Distance transform map-based reactive navigation for autonomous driving mobile robots |
CN114167856A (en) * | 2021-11-05 | 2022-03-11 | 杭州电子科技大学 | Service robot local path planning method based on artificial emotion |
CN114167856B (en) * | 2021-11-05 | 2023-07-18 | 杭州电子科技大学 | Service robot local path planning method based on artificial emotion |
CN114440882A (en) * | 2022-02-07 | 2022-05-06 | 电子科技大学 | Multi-intelligent-home mobile equipment and cooperative path-finding anti-collision method thereof |
CN114440882B (en) * | 2022-02-07 | 2023-10-31 | 电子科技大学 | Multi-intelligent home mobile device and collaborative road-finding anti-collision method thereof |
CN115033110A (en) * | 2022-08-09 | 2022-09-09 | 环球数科集团有限公司 | Virtual human gait simulation and three-dimensional scene path planning system |
CN115033110B (en) * | 2022-08-09 | 2022-10-25 | 环球数科集团有限公司 | Virtual human gait simulation and three-dimensional scene path planning system |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP3945279B2 (en) | Obstacle recognition apparatus, obstacle recognition method, obstacle recognition program, and mobile robot apparatus | |
JP2003266345A (en) | Path planning device, path planning method, path planning program, and moving robot device | |
US20040230340A1 (en) | Behavior controlling apparatus, behavior control method, behavior control program and mobile robot apparatus | |
US20060064202A1 (en) | Environment identification device, environment identification method, and robot device | |
JP3714268B2 (en) | Robot device | |
JP3994950B2 (en) | Environment recognition apparatus and method, path planning apparatus and method, and robot apparatus | |
US20230154015A1 (en) | Virtual teach and repeat mobile manipulation system | |
JP3855812B2 (en) | Distance measuring method, apparatus thereof, program thereof, recording medium thereof, and robot apparatus mounted with distance measuring apparatus | |
JP4032793B2 (en) | Charging system, charging control method, robot apparatus, charging control program, and recording medium | |
JP4016180B2 (en) | Planar extraction method, apparatus thereof, program thereof, recording medium thereof, and imaging apparatus | |
US7769491B2 (en) | Obstacle avoiding apparatus, obstacle avoiding method, obstacle avoiding program, and mobile robot apparatus | |
JP4609584B2 (en) | Robot device, face recognition method, and face recognition device | |
JP2004110802A (en) | Device, method for identifying environment, program, recording medium and robot device | |
JP2003266349A (en) | Position recognition method, device thereof, program thereof, recording medium thereof, and robot device provided with position recognition device | |
JP4535096B2 (en) | Planar extraction method, apparatus thereof, program thereof, recording medium thereof, and imaging apparatus | |
US11915523B2 (en) | Engagement detection and attention estimation for human-robot interaction | |
Fitzpatrick et al. | Humanoids | |
Kim et al. | Providing services using network-based humanoids in a home environment | |
Kemp et al. | Humanoids | |
Lee et al. | Fast perception, planning, and execution for a robotic butler: Wheeled humanoid m-hubo | |
JP2003271958A (en) | Method and processor for processing image, program therefor, recording medium therefor, and robot system of type mounted with image processor | |
JP2003266348A (en) | Robot device and control method therefor | |
US20240202969A1 (en) | Depth-Based 3D Human Pose Detection and Tracking | |
JP2004299006A (en) | Robot device and face recognition state presenting method by robot |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A300 | Application deemed to be withdrawn because no request for examination was validly filed |
Free format text: JAPANESE INTERMEDIATE CODE: A300 Effective date: 20050607 |