Nothing Special   »   [go: up one dir, main page]

JPS62179003A - Autonomous mobile robot - Google Patents

Autonomous mobile robot

Info

Publication number
JPS62179003A
JPS62179003A JP61019849A JP1984986A JPS62179003A JP S62179003 A JPS62179003 A JP S62179003A JP 61019849 A JP61019849 A JP 61019849A JP 1984986 A JP1984986 A JP 1984986A JP S62179003 A JPS62179003 A JP S62179003A
Authority
JP
Japan
Prior art keywords
robot
cpu
data
teaching
route
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP61019849A
Other languages
Japanese (ja)
Inventor
Takashi Sato
隆 佐藤
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Casio Computer Co Ltd
Original Assignee
Casio Computer Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Casio Computer Co Ltd filed Critical Casio Computer Co Ltd
Priority to JP61019849A priority Critical patent/JPS62179003A/en
Publication of JPS62179003A publication Critical patent/JPS62179003A/en
Pending legal-status Critical Current

Links

Landscapes

  • Control Of Position, Course, Altitude, Or Attitude Of Moving Bodies (AREA)
  • Management, Administration, Business Operations System, And Electronic Commerce (AREA)

Abstract

PURPOSE:To obtain a robot which has the universatility for traveling and can set freely a moving scope by executing autonomously up to the destination while an obstacle is avoided by a driving means based on the calculating result of a calculating means. CONSTITUTION:The distance of one path composed of a linear segment and the attitude changing angle of a robot main body until the robot arrives at it are calculated, stored and plural paths from a starting point to a final destination are stored as the linking of respective linear paths into a RAM 65. The teaching path data are shifted to a communication memory 43 and a RAM 61 by a CPU 18, a CPU 17 prepares the map data from the teaching data of the RAM 61 and displays them onto a CRT display 11. For the displayed channel data, various paths can be optionally written and come to be the paths which are the traveling target. During the traveling, basic path data controlled always at the CPU 17 and the traveling data to occur by the actual movement controlled at CPUs 18 and 19 are mutually compared, corrected and traveled.

Description

【発明の詳細な説明】 [発明の技術分!?] この発明はロボット自身が径路の状態を検知し1判断し
ながら移動する自律移動ロボットに関する。
[Detailed description of the invention] [Technical portion of the invention! ? ] The present invention relates to an autonomous mobile robot that moves while detecting the state of a route and making decisions.

[従来技術とその閤題点] 従来、工場等において移動ロボットを使用して品物等を
搬送するようにしたシステムが知られており、これには
中央コントロールタイプと、1゛目1【移動タイプがあ
る。中央コントロールタイプは。
[Prior art and its issues] Conventionally, systems have been known that use mobile robots to transport goods in factories, etc., and these include a central control type and a mobile type. There is. Central control type.

例えば゛llj:磁誘導方式誘導方式中央コントローラ
からロポー2トの連行管理を行うもので、床に誘導用の
配線を設けるため実質的には軌道型となっている。この
ため配線に沿った所しか走行できず、11111に移動
範囲を設定することができないという欠点があった。
For example, ゛llj: A magnetic induction type guidance type central controller that manages the transportation of two robots, and has wiring for guidance on the floor, so it is essentially a track type. For this reason, there was a drawback that it could only travel along the wiring, and it was not possible to set a movement range at 11111.

一方自律移動タイブは移動ロボット自身が座標等を11
断じながら所定の走行路を指定された場所まで走行する
ものである。このタイプは中−の走行ループが1没定で
きるロボットであり、これも汎用性に欠けるものである
。走行に汎用性のある、自由に移動範囲を設定できるロ
ボットは、極めて1°i’rI価になるため一般?撃及
型のものは未だ実現されていない。
On the other hand, in the autonomous mobile type, the mobile robot itself determines the coordinates etc.
The vehicle travels along a predetermined route to a designated location while making decisions. This type is a robot that can only have one medium running loop, and it also lacks versatility. Is it common for robots that are versatile in running and can freely set their movement range to be extremely 1° i'rI? The impact type has not yet been realized.

[発明の目的] この発明は1.述した・11情に鑑みてなされたもので
、その目的とするところは、環境の限定されたL場等の
場所のみならず、オフィス、病院、学校等の様l/な場
所で、ロボット自身で径路状態を検知しr4断じて、心
安により指定したII目的地で障11r物を避けながら
移動できる自律移動ロボットを提供しようとするもので
ある。
[Object of the invention] This invention accomplishes the following: 1. This was done in consideration of the above-mentioned circumstances, and its purpose is not only in places with limited environments such as L fields, but also in other places such as offices, hospitals, schools, etc. The present invention aims to provide an autonomous mobile robot that can detect the route state at 11r, and move to a designated destination with peace of mind while avoiding obstacles.

[発明の要点] この発暉1は上述した目的を達成するために、ロボット
に操舵可能及び回転+ii能に設けられた車輪を駆動し
前記ロボットを移動させる駆動手段と。
[Summary of the Invention] In order to achieve the above-mentioned object, this invention 1 includes a driving means for moving the robot by driving wheels provided on the robot so that the robot can be steered and rotated.

目的地までのIY路を前記ロボットに教示する教示手段
と、前記ロボットに設けられて径路を記憶する記憶手段
と、該記憶「1段にli目的地情報を入力する入力1段
と、前記記憶手段に記憶された径路及び目的地情報にノ
、(づいて所定[1的地までの車輪の操舵t、Hと回転
数を計算する計算r一段と、iti記ロポロボット障害
物までの距離と方向を検知する障害検知1段とを備え、
計算1段の、;1−算結果に)、(づいて11−輪によ
り障害物を避けながら目的地まで1111’的に走行す
るようにしたことを要点としている・ [実施例の構t&、] 以ド、この発明の一実施例を図面に基づいて説明する。
a teaching means for teaching the robot the IY route to the destination; a storage means provided in the robot for storing the route; an input stage for inputting destination information into the first stage of the memory; Based on the route and destination information stored in the means, (1) a calculation is made to calculate the steering t, H and rotation speed of the wheels to the destination, and the distance and direction to the robot obstacle is calculated. Equipped with one stage of failure detection,
The main point is that the vehicle runs in a 1111' manner to the destination while avoiding obstacles using the 11-wheels. ] Hereinafter, one embodiment of the present invention will be described based on the drawings.

第1図は本発明の自律移動ロボットの外観図であり、1
は棚型のロボット本体である。このロボット本体lには
商品や加工物等荷物が載置されるテーブル2が設けられ
、テーブル2はに面のテーブル2a、中段のテーブル2
b、)段のテーブル2cからなっている。
FIG. 1 is an external view of the autonomous mobile robot of the present invention.
is a shelf-shaped robot body. This robot main body l is provided with a table 2 on which goods such as products and processed products are placed.
It consists of a table 2c with tiers b and ).

ロボット本体1の外周には30度毎に12個の通路用の
超音波センサ3(3a〜39.)が配設され、この各超
音波センサ3a〜3交は対をなす超音波受信器4と超音
波受信′a5のL下方向に2組づつ備えて構成されてい
る。一方の超;(波速信器4は中段テーブル2bの外壁
に、これと対をなす超音波受信器5は下段テーブル2c
の外壁に、もう一方の超l″を液受信器5も同じく下段
テーブル2Cの外壁に、これと対をなす超音波送信器4
はロボット本体1の下端部外壁に!fいに略直線にに配
設されている。
Twelve ultrasonic sensors 3 (3a to 39.) for the passage are arranged on the outer periphery of the robot body 1 every 30 degrees, and each ultrasonic sensor 3a to 3 cross connects to a pair of ultrasonic receivers 4. and two sets each in the L downward direction of the ultrasonic wave receiver 'a5. (The wave speed transmitter 4 is mounted on the outer wall of the middle table 2b, and the paired ultrasonic receiver 5 is mounted on the lower table 2c.
The other ultrasonic transmitter 4 is connected to the outer wall of the lower table 2C, and the other ultrasonic wave transmitter 4 is connected to the outer wall of the lower table 2C.
is on the outer wall of the lower end of robot body 1! It is arranged approximately in a straight line.

この超7’S波センサ3は第2図に示すように、ロボッ
ト本体lの水f面」−で12方向に放射状となって3a
〜3文まで等角に配6没されており1回りの障害物まで
の距離を検知する。
As shown in FIG.
Up to three sentences are arranged equiangularly and detect the distance to an obstacle in one rotation.

ロボット本体1の底面には4MIの11t、輪6(6a
〜6d)が回転11丁能に設けられ、これらilj輪6
a〜6dによりロボット本体lは移動する。前輪6a、
6bは操舵Ii(能であり、後輪6c、6dはこれらに
追随するようになっている。
On the bottom of the robot body 1 are 4MI 11t and a ring 6 (6a
~6d) are provided with 11 rotating wheels, and these ilj wheels 6
The robot main body l moves according to steps a to 6d. front wheel 6a,
6b is a steering wheel Ii (function), and the rear wheels 6c and 6d follow this.

ロボット本体1の底面で各i1i輪6(6a〜6d)の
外力には床面方向の超音波センサ7(7a〜7d)が4
組夫々配置没され、この超音波センサ7はILいに隣接
しかつ対となる超音波送信器8と、tfIr’i波受信
器9上受信器9ている。この超音波センサ7は床面の凹
凸を検知し、ロボット本体1が階段Tから転落しないよ
うにする。
At the bottom of the robot body 1, ultrasonic sensors 7 (7a to 7d) in the floor direction are used to detect the external force of each i1i wheel 6 (6a to 6d).
The ultrasonic sensor 7 is located adjacent to the IL and has a paired ultrasonic transmitter 8 and a tfIr'i wave receiver 9. This ultrasonic sensor 7 detects irregularities on the floor surface and prevents the robot body 1 from falling down the stairs T.

又ロボット本体lの’F部外周には接触センサ10が8
個等角度に配設されており、この接触センサ10は超;
°f波センサ3で捕えられなかった鋭利な突起状障害物
を接触検知する。
Also, there are 8 contact sensors 10 on the outer periphery of the 'F section of the robot body l.
The contact sensors 10 are arranged at equal angles.
Contact of a sharp protruding obstacle that cannot be detected by the °F wave sensor 3 is detected.

■二段テーブル2aは中下没テーブル2b、2Cより面
積が小さくなっており、L段テーブル2aと中段テーブ
ル2bとの間の外壁には表示用のCRTディスプレイ1
1が設けられ、このCRTディスプレイ11は使用者に
操作F顆を指示したり、後述する教示された径路の地図
を表示する。
■The area of the two-tiered table 2a is smaller than that of the sunken tables 2b and 2C, and there is a CRT display 1 on the outer wall between the L-tiered table 2a and the middle-tiered table 2b.
1 is provided, and this CRT display 11 instructs the user to operate the F condyle and displays a map of the taught route, which will be described later.

中段テーブル2bの片間には入力用のキ一群12が配設
されておりキ一群12はロボットに指示を′j、えるた
めの操作キーである。
A group of keys 12 for input is arranged between one side of the middle table 2b, and the group of keys 12 are operation keys for giving instructions to the robot.

に1段テーブル2aの片隅には後述する通路教示用誘導
装置と交信する超H’7波送信器14が設けられており
、この超i′を揚送仏器14は通路教示11′1に−・
定間隔で超ン1波パルスを送信し、この周波数は通路用
の超+′丁波センサ3のものと異なっている。
In one corner of the first stage table 2a, there is installed an ultra-H'7 wave transmitter 14 that communicates with a guide device for passage teaching, which will be described later.・
It transmits ultra-high pulses at regular intervals, and this frequency is different from that of the ultra+' wave sensor 3 for the passage.

」一段テーブル2aの外周方には第3図に示すように8
9個のフォトダイオード等からなる赤外線受光部15 
(15a−15h)配設されている。赤外線受光部15
の15a、15b、15c及び15h、15g、15f
はロボット本体lの前方即ち、中段テーブル2b方向に
、15d、15eは後方に夫々1没けられている。
” As shown in FIG.
Infrared receiver 15 consisting of nine photodiodes, etc.
(15a-15h) are arranged. Infrared receiver 15
15a, 15b, 15c and 15h, 15g, 15f
are sunk in the front of the robot body l, that is, in the direction of the middle table 2b, and 15d and 15e are sunk in the back.

第1図において、16は人手に保持された通路゛教示用
の誘導装置であり、この誘導装置16はロボット本体l
に内蔵された制御装置に通路教示のために入力を4える
ものである。
In FIG. 1, reference numeral 16 denotes a guidance device for teaching the path, which is manually held, and this guidance device 16 is connected to the robot main body.
4 inputs are sent to the built-in control device for path teaching.

第4図は自律移動ロボットの制御装置のブロック[h)
路間であり、この制御装置には3個のCPU17.18
.19が設けられている。CPU17はFに通路セッサ
部24、床面センサ部30及び接触センサ10を制御し
、キ一群12や通路教示セッサ部32も制御し、各セン
サ部からのデータによって、in路の状況を判断しロボ
ットの進行方向と速度を決定する。又、CPU1B、1
9は+lj輪6の動作やロボット本体lの経路情報を制
御する。
Figure 4 is a block of the autonomous mobile robot control device [h]
This control device has three CPUs 17.18
.. 19 are provided. The CPU 17 controls the path sensor section 24, floor sensor section 30, and contact sensor 10, and also controls the key group 12 and the path teaching sensor section 32, and determines the condition of the inbound road based on the data from each sensor section. Determine the direction and speed of the robot. Also, CPU1B, 1
9 controls the movement of the +lj wheel 6 and the route information of the robot body l.

CPU17にはまず、通路センサ’111gg回路20
がパスラインaを介して接続され、この通路センサ制御
回路20は送信器駆動回路群21と受信回路群22を制
御し、カウンタ群23にカウント開始を指令する。送信
器駆動回路群21は12個からなる通路用の超ff波セ
ンサ3a〜3文の超1“f揚送信器4(4a〜4立)を
駆動してItflh波を発信させ、受信回路群22は超
音波送信器4から発射されて、障害物により反射された
Jfl rf波を受信する。tfli°f波受信器5(
5a〜5文)からの信号を夫々入力する。この発射から
入射までの時間をカウンタ群23で夫々計測し、CPU
17は周囲の障害物までの距離と12分割方向の障害物
の有無を検知する。このようにして超音波センサ31通
路センサ制御回路20、送信器駆動回路群21.受信回
路群22、カウンタ群23は通路センサ部24を構成す
る。
The CPU 17 first has a passage sensor '111gg circuit 20.
are connected via path line a, and this passage sensor control circuit 20 controls a transmitter drive circuit group 21 and a receiver circuit group 22, and instructs a counter group 23 to start counting. The transmitter drive circuit group 21 drives the 12 ultra-FF wave sensors 3a to 3 for the passageway, and the ultra-1"f transmitters 4 (4a to 4) to transmit Itflh waves, and the receiver circuit group 22 receives the Jfl rf waves emitted from the ultrasonic transmitter 4 and reflected by obstacles. tfli°f wave receiver 5 (
Input the signals from sentences 5a to 5), respectively. Each counter group 23 measures the time from the launch to the injection, and the CPU
17 detects the distance to surrounding obstacles and the presence or absence of obstacles in the 12-division direction. In this way, the ultrasonic sensor 31, passage sensor control circuit 20, transmitter drive circuit group 21. The receiving circuit group 22 and the counter group 23 constitute a passage sensor section 24.

又CPU17には床面センサ制御回路26がパスライン
aを介して接続され、この床面センサ制御回路26は送
信器駆動回路群27と受信回路群28とを制御し、カウ
ンタ群29とにカウント開始を指令する。送信器駆動回
路群27は4個からなる床面用の超;゛を波センサ7a
〜7dの超音波送信器8(8a〜8d)を駆動してM+
’を波を発信させ、受信回路群28は、tflrf波送
信器8から発射されて、床面により反射された超音波を
受信する超1°1波受イ2’JA9(9a 〜9 gか
らの信′−)を夫々入力する。この発射から入射までの
時間をカウンタ群29で夫々計測し、CPU17は床面
までの距離と各1j輪6周り床面の凹凸を検知する。こ
のようにして超音波センサ7、床面センサ制御回路26
、送信器駆動回路群27.受信回路群28、カウンタ群
29は床面センサ部30を構成する。
A floor sensor control circuit 26 is also connected to the CPU 17 via a path line a, and this floor sensor control circuit 26 controls a transmitter drive circuit group 27 and a receiver circuit group 28, and controls a counter group 29 and a counter group 29. Command start. The transmitter drive circuit group 27 includes four floor wave sensors 7a.
~7d ultrasonic transmitter 8 (8a~8d) is driven to M+
The receiving circuit group 28 receives the ultrasonic wave emitted from the TFLRF wave transmitter 8 and reflected by the floor surface. input the respective values. The counter group 29 measures the time from the launch to the injection, and the CPU 17 detects the distance to the floor and the unevenness of the floor around each 1j wheel 6. In this way, the ultrasonic sensor 7 and the floor sensor control circuit 26
, transmitter drive circuit group 27. The receiving circuit group 28 and the counter group 29 constitute a floor sensor section 30.

CPU17にはパスラインaを介して接触センサ入力回
路31が接続され、この接触センナ入力回路31には前
述した8個の接触センサ10の各チャンネル出力が入力
されている。この接触センサ10は例えば接触スイッチ
からなり、12個の超音波センサ3のいずれにも捕えら
れなかった突起状の障害物を直接接触により検知する。
A contact sensor input circuit 31 is connected to the CPU 17 via a path line a, and each channel output of the eight contact sensors 10 described above is input to this contact sensor input circuit 31. This contact sensor 10 is composed of, for example, a contact switch, and detects a protruding obstacle that is not caught by any of the 12 ultrasonic sensors 3 by direct contact.

又CPU17にはパスラインaを介して通路教示センサ
uノ御回路33が接続され、この通路教示センサ制御回
路33は超音波送信器駆動回路34と赤外線受光回路群
35とを制御し、カウンタ36aにカウント開始を指令
する。超音波送信器駆動回路34は上段テーブル2a、
ヒの、tfl;’t、波送揚送振器14動し一定間隔で
超7″i波パルスを誘導装置16に向けて送信する。
A path teaching sensor U control circuit 33 is also connected to the CPU 17 via a path line a, and this path teaching sensor control circuit 33 controls an ultrasonic transmitter drive circuit 34 and an infrared light receiving circuit group 35, and controls a counter 36a. command to start counting. The ultrasonic transmitter drive circuit 34 is connected to the upper table 2a,
First, the wave pumping vibration transmitter 14 is activated to transmit ultra-7'' i-wave pulses toward the guidance device 16 at regular intervals.

この超f’f波の周波数は通路用の趙7’f波送信器4
や床面用の、1fli°f波送信器8から発射される超
i:を波の周波数とは異なる。赤外線受光回路群35は
赤外線を受信した赤外線受光部15(15a−15h)
からのt−;t;−を入力する。而して誘導装:;11
6からの赤外線は赤外線受光部15の15a〜15hの
うちいずれか一個に最大信−)となって受信され、その
鼓大イハ号を受信した赤外線受光部15a〜15hのい
ずれかからの信すがCPU17にパスラインbを介して
知らされる。
The frequency of this super f'f wave is the frequency of the passageway's 7'f wave transmitter 4.
The frequency of the ultra-i: waves emitted from the 1fli°f wave transmitter 8 for use on or on the floor is different from the frequency of the waves. The infrared receiver circuit group 35 includes the infrared receivers 15 (15a-15h) that receive infrared light.
Input t-;t;- from . And guidance equipment: ;11
The infrared rays from 6 are received by any one of the infrared receivers 15a to 15h as the maximum signal (-), and the infrared rays from any one of the infrared receivers 15a to 15h that received the drum dai Iha signal are received by one of the infrared receivers 15a to 15h. is notified to the CPU 17 via path line b.

カウンタ36は通路教示センサ制御回路33の指令によ
り超HT、揚送信泰14が誘導装置16に向けて超r7
波を発した蒔から、誘導装置16からの赤外線信t′i
が赤外線受光部15を介して赤外線受光回路4T35に
入力されるまでの時間を計測する。CPU17はこの趙
7f波送信から赤外線受光までの11′1間と、赤外線
受光n l 5 (7) l 5 a −15hのいず
れで受光したかとにより、ロボット本体lから誘導装7
116までの距離とその方向を検知する。又、カウンタ
36bはこの誘導装置16からの赤外線のパルス幅を計
測するものであり、このパルス幅は命令の種類により異
なっている。このようにして、超音波送信器14、赤外
線受光部15、通路教示センサ制御回路33、超FT波
送信器駆動回路34、赤外線受光回路A¥ 35 、カ
ウンタ36a、36bは通路教示センサ部32を構成し
、誘導装置16からの経路及び「1的地までの教示を受
1.1して、CPU17に/(スラインaを介して入力
する。
The counter 36 is set to super HT according to the command from the passage teaching sensor control circuit 33, and the lift transmission Tai 14 is set to super r7 towards the guidance device 16.
The infrared signal t'i from the guidance device 16 from the sow that emitted the wave
The time required for the signal to be input to the infrared light receiving circuit 4T35 via the infrared light receiving section 15 is measured. The CPU 17 determines whether the light is received during the period 11'1 from the transmission of the 7f wave to the reception of the infrared light, or between the time of the infrared light reception n l 5 (7) l 5 a -15h, from the robot body l to the guidance system 7.
Detects the distance and direction up to 116. Further, the counter 36b measures the pulse width of the infrared rays from this guiding device 16, and this pulse width differs depending on the type of command. In this way, the ultrasonic transmitter 14, the infrared light receiving section 15, the path teaching sensor control circuit 33, the ultra FT wave transmitter drive circuit 34, the infrared light receiving circuit A\35, and the counters 36a and 36b control the path teaching sensor section 32. 1.1, and inputs it to the CPU 17 via line a.

ここで誘導JA置16の内部構成を説明すると。The internal configuration of the guide JA station 16 will now be explained.

超H’f波受信器37はロボット本体lのJnr“を液
送信器14から送信された超rf波を受信し、この信号
は受信回路38で波形整形され発光時間制御回路39に
り“−えられる0発光時間制御回路39はこの信号を受
けると同時に赤外線発光回路40に駆動信5)を送り、
赤外線発光回路40は赤外線発光素r・41から所定パ
ルスの赤外線を発光させる。この発光持続時間及びパル
ス幅はキ一群42により制御されるが、径路教示終了、
所定fl的地点の設定等によりキー操作を行うことによ
りパルス幅の、浸室等が行なわれる。
The ultra-H'f wave receiver 37 receives the ultra-RF wave transmitted from the liquid transmitter 14, and this signal is waveform-shaped by the receiving circuit 38 and sent to the light emission time control circuit 39. The 0 emission time control circuit 39 received this signal and at the same time sends a drive signal 5) to the infrared emission circuit 40.
The infrared light emitting circuit 40 causes an infrared light emitting element r41 to emit a predetermined pulse of infrared light. This light emission duration and pulse width are controlled by the key group 42, but when the route teaching is finished,
By performing key operations such as setting a predetermined fl point, the pulse width, immersion chamber, etc. are performed.

而して、ロボット本体1は誘導装置16を保持した操作
人により床面上を誘導されて所定の出発地から経由地、
途中U画壇、最終目的地を予め教示されるが、CPU1
7はこれらの教示データ。
The robot body 1 is guided on the floor by the operator holding the guidance device 16 from a predetermined starting point to a stopover point,
On the way, I was told in advance the final destination of U Art Hall, but CPU1
7 is these teaching data.

11pち進行方向、距離、速度等をコミュニケーション
メモリ43に記憶する。このコミュニケーションメモリ
43は、CPU17のみならずCPUl8.19からも
アクセス可能で、CPU17.18.19間での命令の
授受に使用され、その記憶データはこれらCPU17.
18.19に利用される。これらCPU17.18.1
9からのアクセスタイミングはコミュニケーションメモ
リ制御回路44によりコントロールされる。
11p, the traveling direction, distance, speed, etc. are stored in the communication memory 43. This communication memory 43 is accessible not only from the CPU 17 but also from the CPU 18.19, and is used for exchanging commands between the CPUs 17, 18, and 19, and its stored data is stored in these CPUs 17.
Used on 18.19. These CPU17.18.1
The access timing from 9 is controlled by the communication memory control circuit 44.

CPU17は表示駆動回路25を介してCRTディスプ
レイ11を制御し、又キー入力回路48を介してキ一群
12から径路情報や後述する到ri確、ツ情報をキー入
力される。
The CPU 17 controls the CRT display 11 via the display drive circuit 25, and receives route information and arrival information (to be described later) from the key group 12 via the key input circuit 48.

パスラインaを介して接続されるROM49にはCPU
17を動作させるプログラムがtめ記憶されている。R
AM61はカウンタ群23.29、カウンタ36a、3
6bの出力信りを種々の演算のため−・時記憶する。而
してCPU17は。
The ROM 49 connected via path line a includes a CPU.
A program for operating 17 is stored for the tth time. R
AM61 has counter group 23.29, counter 36a, 3
The output signal of 6b is stored for various calculations. And CPU17.

コミュニケーションメモリ43を通じ、CPUl9及び
CPU19で算出されたロボット本体■の移動によるリ
アルタイムの座標データ、距離データを受は取る。又C
PU17は、誘導装置16からの通路教示時には、通路
データを地図データとしてRAM61に記憶し、ロボッ
ト本体lの「1律走行時には、地図データと比較して各
センサ部からのデータと共にその進行方向を決定する。
The communication memory 43 receives and receives real-time coordinate data and distance data calculated by the CPU 19 and the CPU 19 based on the movement of the robot body (2). Also C
When the guidance device 16 teaches a path, the PU 17 stores the path data as map data in the RAM 61, and when the robot body 1 is running uniformly, it compares it with the map data and determines its traveling direction along with the data from each sensor section. decide.

ロボット本体lの内部にはジャイロ45が取付けられ、
このジャイロ45はロボット本体lの姿勢変更による回
転角速度を計測する。ジャイロ45の出力電圧はA/D
f換部46でデジタル信−yに変換され、パスラインを
介してCPU18に+pえられる。A/D変換部46の
タイミングはジャイロ制御回路47でコントロールされ
、CPUl8はA/D変換部46から入力される角速度
信号を1111分して、車輪6の動作により回転される
ロボット本体1の旋回回転角を求め、角度データとして
コミュニケーションメモリ43に11″Iき込む。
A gyro 45 is installed inside the robot body l,
This gyro 45 measures the rotational angular velocity due to a change in the posture of the robot body l. The output voltage of the gyro 45 is A/D
The signal is converted into a digital signal -y by the f conversion unit 46, and sent to the CPU 18 via a pass line. The timing of the A/D converter 46 is controlled by the gyro control circuit 47, and the CPU 18 divides the angular velocity signal inputted from the A/D converter 46 into 1111 parts to control the turning of the robot body 1 rotated by the operation of the wheels 6. The rotation angle is determined and written into the communication memory 43 as angle data.

又CP018は、コミュニケーションメモリ43を通じ
、CPU17から進行方向及び速度命令を受け、■1(
輪6によるステアリングの動作及び走行の加減速が最適
の加速度で行なわれるように一定時間毎に速度命令をモ
ータ制御回路52.57に′j−える。
In addition, the CP018 receives the direction and speed command from the CPU 17 through the communication memory 43, and executes ■1(
A speed command is sent to the motor control circuit 52, 57 at regular intervals so that the steering operation and acceleration/deceleration of running by the wheels 6 are performed at the optimum acceleration.

ロボット本体Iには前述した・1(輪6の前輪6a、6
bを同時に操舵するステアリングモータ51が設けられ
、ステアリングモータ51はモータ制御回路52により
モータ駆動回路53を介して駆動される。ステアリング
モータ51には、その回転数を検出する光学式ロータリ
ーエンコーダ54が設けられ、このエンコーダ54の出
力信−Jはカウンタ55にり−・えられ、ロボット本体
lの姿勢変更1.りとして換算されてCPU1B、19
及びコミュニケーションメモリ43に入力されル、CP
U19は、この分周結果及びコミュニケーションメモリ
43を通じ、CPU18から得られるロボット本体lの
角度データをもとに、ロボット本体1の位置を示す座標
を計算する。そしてその結果データはコミュニケーショ
ンメモリ43にM込まれる。
The robot body I has the aforementioned 1 (front wheels 6a, 6 of the wheels 6).
A steering motor 51 is provided for simultaneously steering the motors b, and the steering motor 51 is driven by a motor control circuit 52 via a motor drive circuit 53. The steering motor 51 is provided with an optical rotary encoder 54 that detects its rotational speed, and the output signal -J of the encoder 54 is sent to a counter 55 to change the posture of the robot body 1. It is converted as CPU1B, 19
and input into the communication memory 43, CP
U19 calculates the coordinates indicating the position of the robot body 1 based on the frequency division result and the angle data of the robot body 1 obtained from the CPU 18 through the communication memory 43. The resulting data is then stored in the communication memory 43.

又ロボット本体1内には11輪6の前輪6a、6b(或
は後輪6C16d)を回転させる走行用のDCモータ5
6が設けられ、DCモータ56はモータ制御回路57に
よりモータ駆動回路58を介して回転駆動される。DC
モータ56にはその回転哉を検出する光学式ロータリー
エンコータ59が設けられ、このエンコーダ59の出力
信りはカウンタ60に!j−えられ、ロボット本体lの
移動jI;として換算されてCPU19及びコミニュケ
ーノコンメモリ43に入力される。
Also, inside the robot body 1, there is a DC motor 5 for driving that rotates the front wheels 6a, 6b (or the rear wheels 6C16d) of the 11 wheels 6.
6 is provided, and the DC motor 56 is rotationally driven by a motor control circuit 57 via a motor drive circuit 58. D.C.
The motor 56 is provided with an optical rotary encoder 59 that detects its rotation, and the output of this encoder 59 is sent to a counter 60! j- is obtained, is converted into the movement jI of the robot body l, and is input to the CPU 19 and communication controller memory 43.

ROM62にはCPU18を制御するプログラムが予め
記憶されており、又ROM64には座標計算のための三
角函数テーブル及びCPU19のプログラムがfめ記憶
されている。RAM65はジャイロ45の出力信器をデ
ジタル信器としてA/D変換部44より受けて、又RA
M63はエンコーダ55.60の出力(14を受けて種
々の演算のため夫々一時記憶する。
A program for controlling the CPU 18 is stored in the ROM 62 in advance, and a trigonometric function table for coordinate calculation and a program for the CPU 19 are stored in the ROM 64 in advance. The RAM 65 receives the output signal of the gyro 45 as a digital signal from the A/D converter 44, and also receives the output signal from the RA
M63 receives the outputs (14) of encoders 55 and 60 and temporarily stores them for various calculations.

誘導装置16でロボット本体lに直線線分からなる一径
路を教示するには、まず、ロボット本体1を出発点に置
き、ロボット本体lの超音波送信器14から送信された
超η波信シ)を、誘導装置16のMia波受波器信器3
7信させ、折り返し誘導装2116の赤外線発光素子4
1からロボット本体lの赤外線受光i−1!15に赤外
線を発信する。これによりCPU17はロボット本体1
と誘導装置16との距離と方位を知り、ロボット本体1
は誘導装置16方向に向って走行する。
In order to teach the robot body 1 a path consisting of a straight line segment using the guidance device 16, first, the robot body 1 is placed as a starting point, and the super η wave signal transmitted from the ultrasonic transmitter 14 of the robot body 1 is transmitted. , the Mia wave receiver 3 of the guidance device 16
7, the infrared light emitting element 4 of the folding guidance device 2116
1 transmits infrared rays to the infrared receiver i-1!15 of the robot body l. As a result, the CPU 17
Knowing the distance and direction between the robot body 1 and the guidance device 16,
The vehicle travels in the direction of the guidance device 16.

このときロボット本体1の赤外線受光部15の正面の1
5aが誘導装置16に正対していない場合はロボット本
体lは、前輪6a、6bの操舵による方向変更を行い、
iE対した後1.清4装置16の方へ接近走行を始める
。赤外線信−)の送受により得られた誘導装7116ま
での計測された距離データは、CPU17により−まず
コミュニケーションメモリ43に記憶される。前輪6a
、6bをステアリングモータ51で操舵しながらDCモ
ータ56で前輪6a、6bを回転させて、赤外線受光部
15の15aが誘導装置16に正対するまでロボット本
体lを回動させるが、このときステアリングモータ51
の回転に関するエンコーダ54のイft、Dcモータ5
6の回転に関するエンコーダ59のイ〆1がカウンタ5
5,60を介してCPUl9のRAM63に記憶される
At this time, 1 in front of the infrared receiving section 15 of the robot body 1
If 5a is not directly facing the guidance device 16, the robot main body 1 changes direction by steering the front wheels 6a and 6b,
After dealing with iE 1. Start approaching Sei 4 equipment 16. The measured distance data to the guidance device 7116 obtained by sending and receiving infrared signals is first stored in the communication memory 43 by the CPU 17. Front wheel 6a
, 6b with the steering motor 51, rotate the front wheels 6a, 6b with the DC motor 56, and rotate the robot body l until 15a of the infrared receiver 15 directly faces the guidance device 16. At this time, the steering motor 51
Ift of the encoder 54 regarding the rotation of the Dc motor 5
1 of the encoder 59 regarding the rotation of 6 is the counter 5
5 and 60, and is stored in the RAM 63 of the CPU 19.

このときロボット本体lの方向変更角度はジャイロ45
により検出されRAM65に記憶される0次にロボット
本体1は11(輪6の回転により誘導装置16方向に所
定位置まで一径路分接近するが、このとき走行用DCモ
ータ56の回転に関するエンコーダ59のイ〆iはカウ
ンタ60を介してCPU19のRAM63に記憶される
At this time, the direction change angle of the robot body l is gyro 45
The robot main body 1 approaches the predetermined position by one path in the direction of the guidance device 16 due to the rotation of the wheels 6. i is stored in the RAM 63 of the CPU 19 via the counter 60.

次にCPU18はジャイロ45の検出角度とエンコーダ
54.59の出カイfiからロボット本体lが所定の姿
勢(方向)変更に必要なステアリングモータ51及び走
行用のDCモータ56の回転数を算出し、CPU18の
RAM65に記憶する。
Next, the CPU 18 calculates the rotational speed of the steering motor 51 and the driving DC motor 56 necessary for the robot body l to change the predetermined posture (direction) from the detected angle of the gyro 45 and the output fi of the encoders 54 and 59. It is stored in the RAM 65 of the CPU 18.

又CPU18はCPU17が計Jfi した、′A4装
置16までの距離をRAM61から1洸み出し、CPU
19のRAM63内のエンコーダ59に関するデータか
ら、その距離に必要なりCモータ56の回転数を算出し
RAM65に記憶する。
In addition, the CPU 18 retrieves the distance to the 'A4 device 16 calculated by the CPU 17 from the RAM 61, and stores it in the CPU 18.
From the data regarding the encoder 59 in the RAM 63 of No. 19, the number of rotations of the C motor 56 required for the distance is calculated and stored in the RAM 65.

に記のようにして直線線分からなる一径路の距離と、そ
こに到るまでのロボット本体1の姿勢変更角度が算出さ
れて、RAM65に記tQされる。
The distance of one path consisting of a straight line segment and the attitude change angle of the robot body 1 until reaching the distance are calculated as shown in , and are stored in the RAM 65.

以ド同様にして出発点から第1径路、第2径路・・・・
・・岐路[1的地までの複数径路が各直!a径路の結合
としてRAM65に記憶される。この教示径路データは
、CPU18によりコミュニケーションメモリ43に移
され1次にRAM61に移送される。そしてCPU17
はRAM61の教示データから地図データを作成し表示
駆動回路25を介してCRTディスプレイ11 J:に
表示する。
Thereafter, proceed in the same manner from the starting point to the first route, second route, etc.
... Crossroads [Multiple routes to one target are each direct! It is stored in the RAM 65 as a combination of paths a. This teaching route data is transferred to the communication memory 43 by the CPU 18 and then transferred to the RAM 61 first. and CPU17
creates map data from the teaching data in the RAM 61 and displays it on the CRT display 11 J: via the display drive circuit 25.

このCRTディスプレイ11に表示された径路データは
種々の径路が任意に1ri述した方法で古き込めるよう
になっており、教示後口ボット本体lが走行[1標とす
べき径路となる。又走行中は常にCPU17に管理され
た基本径路データと、CPU18.19に管理される実
際の移動により発生する走行データとを〃いに比較し修
正しながら走行するようになる。
The route data displayed on the CRT display 11 is such that various routes can be arbitrarily updated using the method described above, and the route that the bot main body 1 should travel after teaching becomes the route that should be set as one target. Also, while driving, the basic route data managed by the CPU 17 and the driving data generated by actual movement managed by the CPUs 18 and 19 are constantly compared and corrected while driving.

[実施例の動作] 次に実施例の動作について第5図(1)〜(4)及び第
6図(1)〜(3)を参照して説IN+する。
[Operation of the Embodiment] Next, the operation of the embodiment will be explained with reference to FIGS. 5 (1) to (4) and FIGS. 6 (1) to (3).

第51.4(1)〜(4)のフローチャートに示す処理
はCPU17の制御に従って行なわれ、第6図のフロー
チャートに示す処理はCPUL8とCPU19の制御に
従って行なわれる。
The processes shown in the flowcharts 51.4(1) to (4) are performed under the control of the CPU 17, and the processes shown in the flowchart of FIG. 6 are performed under the control of the CPUL8 and CPU19.

1に源が投入されると各CPU17.18.19はRO
M49,62.64により夫々の初期設定動作を行い、
各々並行して処理を開始する。
When the power is turned on to 1, each CPU 17, 18, 19 goes to RO.
Perform initial setting operations using M49, 62.64,
Each starts processing in parallel.

CPU17はスタートすると先ず、第5図(1)のステ
ップAIの通路教示ルーチンを実行する。ここでステッ
プA1の処理内容は第5図(2)のステップBl〜ステ
ップB7に従って実行される。
When the CPU 17 starts, it first executes the path teaching routine of step AI in FIG. 5(1). Here, the processing contents of step A1 are executed according to steps B1 to B7 in FIG. 5(2).

すなわちステップB1において、径路学習のためにCP
U17から1通路教示センサ部32の通路教示センサ制
御回路33に教示受信開始命令が送られる。すると、超
音波送信器駆動回路34に駆動されて超音波送信″A1
4から、tfl汗波が一定時間(数百ル5ec)、+d
導装2116に向って送信される。この送信と同時に通
路教示センサ制御回路33は、カウンタ36にカウント
lH始命令を発し、カウンタ36aは誘導装置16から
赤外線の教示信号が反答として送信されてくるまでの時
間をカウントし始める。更に同時にセンサ制御回路33
は、誘導装置16からくる赤外線信号を受信する許II
r信号を赤外線受光回路群35に4える。
That is, in step B1, CP is used for route learning.
A teaching reception start command is sent from U17 to the passage teaching sensor control circuit 33 of the one passage teaching sensor section 32. Then, the ultrasonic transmitter drive circuit 34 drives the ultrasonic transmitter ``A1''.
From 4, TFL sweat wave for a certain period of time (several hundred le 5ec), +d
The signal is sent to the transceiver 2116. At the same time as this transmission, the passage teaching sensor control circuit 33 issues a count lH start command to the counter 36, and the counter 36a starts counting the time until the infrared teaching signal is transmitted from the guidance device 16 as a counter answer. Furthermore, at the same time, the sensor control circuit 33
is a device that receives infrared signals coming from the guidance device 16.
The r signal is sent to the infrared receiving circuit group 35.

そして超音波送信器14からの超BY波信号が誘導装置
16により受信されると、誘導装7116の赤外vj発
光素子41は赤外光を、一定時間(300pLsec程
度)ロボット本体lの赤外線受光部15に向って発光す
る。赤外線受光部15の15a −15hのいずれかが
これを受光すると赤外線受光回路群35はカウンタ36
aにカウント停止にパルスを出力し、カウンタ36aは
カウントを停止二する。カウンタ36のこれまでのカウ
ント(/iは即ち超音波の飛翔時間はCPU17により
ロボット本体lから誘導装置16までの距離値に変換さ
れRAM61に記憶される。
When the ultra BY wave signal from the ultrasonic transmitter 14 is received by the guidance device 16, the infrared vj light emitting element 41 of the guidance device 7116 transmits the infrared light for a certain period of time (about 300 pLsec) to the robot body l. Light is emitted toward the section 15. When any one of the infrared receivers 15a to 15h of the infrared receiver 15 receives this light, the infrared receiver circuit group 35 activates the counter 36.
A pulse is output to stop the count, and the counter 36a stops counting. The count (/i) of the counter 36 so far (that is, the flight time of the ultrasonic wave) is converted by the CPU 17 into a distance value from the robot body 1 to the guidance device 16 and stored in the RAM 61.

一方カウンタ36bは赤外線受光回路群35の停止パル
スにより逆にカウントを開始し、到来する赤外光のパル
ス幅を計測し始める。呑らくして赤外線信号が来なくな
ると、赤外線受光回路群35から受光終了の信号により
カウンタ36bのカウントは停止1:される。
On the other hand, the counter 36b starts counting in response to the stop pulse of the infrared receiving circuit group 35, and starts measuring the pulse width of the incoming infrared light. When the infrared signal stops coming, the counter 36b stops counting by 1 in response to a signal from the infrared receiving circuit group 35 indicating the end of light reception.

同時に赤外線受光回路群35は信号mbを通じてCPU
17に−1,1り込みをかける。これは−経路の教示が
終ったことであり、CPU17は第5図(4)の、1.
1込みルーチンに処理を移す、ステップDi、D4、D
7で割込みの種類を′I別するが、今は通路教示センサ
部32からの割込みなのでステップD8を実行する。
At the same time, the infrared receiving circuit group 35 communicates with the CPU through the signal mb.
Multiply 17 by -1,1. This means that the teaching of the route has been completed, and the CPU 17 performs step 1 in FIG. 5 (4).
Steps Di, D4, and D move the process to the 1-inclusive routine.
At step 7, the type of interruption is classified by 'I', but since it is an interruption from the path teaching sensor section 32, step D8 is executed.

このステップD8では超音波送信器14による超7’7
波の送信から、赤外線受光部15による赤外線受光まで
の時間(ロボット本体1から誘導装置16までの距離相
′I/I)をカウンタ36aから読み出し、赤外光のパ
ルス幅をカウンタ36bから読み出す6又赤外線受光部
15のどの受光素J’15a〜15hが最大値をグ・え
たか、その最大値を111だ正面、CPTIIの而に対
する方向のデータをパスラインaを介してCPU17に
読み込み、これらデータは直ちにRAM61に書込まれ
る。
In this step D8, the ultrasonic transmitter 14
The time from the transmission of the wave to the reception of the infrared light by the infrared receiver 15 (distance phase 'I/I from the robot body 1 to the guidance device 16) is read out from the counter 36a, and the pulse width of the infrared light is read out from the counter 36b6. Also, which light receiving element J'15a to 15h of the infrared light receiving section 15 has reached the maximum value, the maximum value is read into the CPU 17 via the path line a, and the data of the direction relative to the front and CPT II is read. The data is immediately written to RAM 61.

このようにして−経路の教示が終了すると第514(2
)のステップB2に戻り、カウンタ37で1;1測した
赤外光のパルス幅データを参照し、CPU17は教示の
終了かどうかのI断を行う、全径路の終rの場合は誘導
袋2116のキ一群42の操作により、赤外線発光素子
41から送信される赤外光のパルス幅が約900g5e
cに設定されているので、カウンタ36bのデータを調
べて判断する。
In this way, when the teaching of the route is completed, the 514th (2nd
) Returning to step B2, the CPU 17 refers to the pulse width data of the infrared light measured 1:1 by the counter 37, and determines whether or not the teaching has ended. By operating the key group 42, the pulse width of the infrared light transmitted from the infrared light emitting element 41 is set to approximately 900g5e.
Since the counter 36b is set to c, the data of the counter 36b is checked to make a decision.

全径路の教示終了でなければステップB3に進み、CP
U17は通路センサ部24の通路センサ制御回路20に
パスラインaを通じて障害物検知命令を発する(これは
教示径路上に障害物があるかどうかを調へるためである
)、そこで通路センサ制御回路20は、送信器駆動回路
群21を介して12個の超7.7波送り器4を時分割で
駆動し、超:′7波をロボット本体lの周囲に発信させ
る1回時に夕、I応する各趙H’?波受4′X塁5を受
信状yLに設定し、30度毎各方向に趙;(揚送信から
1反射波の受信までの時間をカウンタ群23で計測する
。この時間と;“f速により距離が求められ全方向のJ
fl i’7波センサ3(3a〜3文)から障害物まで
の距離データが1!Iられるとc呼線Cを通じてカウン
タIT23からCPU17に割込みがかかる。
If the teaching of all routes is not completed, proceed to step B3, and CP
U17 issues an obstacle detection command to the passage sensor control circuit 20 of the passage sensor section 24 through the path line a (this is to check whether there is an obstacle on the taught path), and then the passage sensor control circuit 20 drives the 12 ultra-7.7 wave senders 4 in a time-division manner via the transmitter driving circuit group 21, and transmits the ultra-7.7 wave around the robot body l at one time in the evening and at the same time. Each Zhao H'? Set the wave receiver 4' The distance is calculated by J in all directions.
The distance data from fl i'7 wave sensor 3 (3a to 3 sentences) to the obstacle is 1! When the counter IT23 interrupts the CPU 17 through the call line C.

ここでCPU17は第5図(4)の、I、1込みルーチ
ンに処理を移しステップDi、D4、D7、D9で;1
,1込みの種類をr1別する。今は通路センサ部24か
らの;I3込みなのでステップDIOを実行する。
Here, the CPU 17 moves the processing to the routine including I and 1 in FIG. 5 (4), and at steps Di, D4, D7, and D9;
, 1-inclusive types are classified by r1. At present, since ;I3 from the passage sensor section 24 is included, step DIO is executed.

このステップDIOでは、30度fσ方向別の超;″を
揚送信から受信までの時間を(障害物までの距離に相当
)をカウンタ823から全部読み込みRAM61に記憶
する0通路センサ部24からの障害物検知が終rしたの
で第5図(2)のステップB4に戻る。
In this step DIO, the time from transmission to reception (corresponding to the distance to the obstacle) is read from the counter 823 and stored in the RAM 61. Since the object detection has been completed, the process returns to step B4 in FIG. 5(2).

ステップB4ではCPU18で計算されコミュニケーシ
ョンメモリ43に書込まれている走行用のDCモータ5
6の回転数即ち車輪6の回転数に対するロボット本体l
の走行距離及び、その時々の座標データからロボットの
移動方向を求め、ざらに、ステップB1で求めた誘導装
置16の方向を加味して、ロボット本体lの進むべき走
行方向を発生させる。そしてここで学習のためCPUl
7はロボット本体1を:A導装置16に向って走行させ
る。
In step B4, the DC motor 5 for driving, which is calculated by the CPU 18 and written in the communication memory 43,
6, that is, the robot body l for the rotation speed of the wheel 6.
The moving direction of the robot is determined from the traveling distance and the coordinate data at each time, and the direction in which the robot body l should move is generated by roughly taking into account the direction of the guidance device 16 determined in step B1. And here for learning CPUl
7 causes the robot body 1 to travel toward the :A guide device 16.

通路センサi24が障害物検知を全方向にスキャンして
終了するステップB3までは百数十m5ecの時間を要
するため、その間にステップB4の走行方向発生処理は
並行して行なわれる。
Since the passage sensor i24 scans the obstacle detection in all directions until step B3, which is completed, takes a time of more than 100 m5ec, the running direction generation process in step B4 is performed in parallel.

なお1通路センサ部24はロボット本体1の全周にわた
って1回検知作業を行った時点で自動的にオフとなる。
Note that the one-passage sensor section 24 is automatically turned off when the detection operation is performed once around the entire circumference of the robot body 1.

ステップB5では一経路の区9Jりを記憶する処理で、
ロボット本体lと誘導装置16との距離が大きすぎて超
音波と赤外線の交信が弱まりそうな場合や、誘導装置1
6のキ一群42の操作により一時停+Lすべきlの目的
地であることを誘導装置16から教示された場合(この
とき赤外線発光素:/−41から発光されるパルス幅が
約800pSeCとなる)は、そのときの誘導装置16
の位置する地点を一区切の分岐点としてその座標を記憶
する。ただし電源投入後初めてのこのステー7プの処理
では無条件に座標を記憶する。
Step B5 is a process of storing the ward 9J of one route.
If the distance between the robot body l and the guidance device 16 is too large and communication between ultrasonic waves and infrared rays is likely to weaken, or if the distance between the robot body l and the guidance device 16 is too large,
When the guidance device 16 teaches that it is the destination of 1 which should be temporarily stopped +L by operating the key group 42 of 6 (at this time, the pulse width emitted from the infrared light emitting element:/-41 becomes about 800 pSeC) ) is the guidance device 16 at that time.
The point where is located is regarded as a branching point, and its coordinates are memorized. However, in the process of step 7, which is the first time after the power is turned on, the coordinates are stored unconditionally.

学習のためロボット本体lが走行中に接触センサ10の
1個所でもオンになると何らかの障害物が進路中にある
ことになるので、センサ入力回路31から信号線dを介
してCPU17に1+、1込みがかかる。  ′ ここでCPU l 7は第5図(4)の11,1込みル
ーチンに処理を移しステップD1、D4で−13込みの
種類を11別する。今は接触センサlOからの−13込
みなのでステップD5に進む、ステップD5では8箇の
うちどの方向の接触センナがオンしたかその位置を示す
データをセンサ入力回路31から読み込む0次のステッ
プD6ではCPU17はCPU18に信号−線eを介し
て最優先の;’、l込みをかける。
For learning purposes, if even one contact sensor 10 turns on while the robot main body l is running, it means that there is some kind of obstacle in the path, so input signals 1+ and 1 are sent from the sensor input circuit 31 to the CPU 17 via the signal line d. It takes. ' Here, the CPU 17 moves the process to the 11,1 inclusion routine in FIG. 5(4) and separates the -13 inclusion type into 11 in steps D1 and D4. Since the current value includes -13 from the contact sensor IO, the process advances to step D5. In step D5, data indicating which direction of the eight contact sensors is turned on and its position is read from the sensor input circuit 31. In the zero-order step D6, The CPU 17 applies top priority ;', l input to the CPU 18 via the signal line e.

すると、CPU18はモータIJI御回路52,57に
対し非常停止にの命令を出力しロボット本体lは停止1
−する。
Then, the CPU 18 outputs an emergency stop command to the motor IJI control circuits 52 and 57, and the robot main body l stops 1.
- to do.

一方床面センサ部30は電源投入後自動的に動作する。On the other hand, the floor sensor section 30 automatically operates after power is turned on.

すなわち床面センサ制御回路26からの送信命令によっ
て各超rf揚送(i器8から超11波パルスを発射する
。同時にカウンタ群29が受信までの時間を計測し始め
る。そして対になった6超;(波器信器9が床面からの
反射波を受信し、対応する各カウンタのカウントを停止
する。カウントの値がある値以上になる所があると1反
射する床面が四部となっているか、極端に段差となって
いる所なので、カウンタ群29は信号線fを介してCP
U17に;I、1込みをかける。
That is, in response to a transmission command from the floor sensor control circuit 26, each ultra-RF pumping device 8 emits ultra-11 wave pulses.At the same time, the counter group 29 starts measuring the time until reception. (The wave signal device 9 receives the reflected wave from the floor and stops counting the corresponding counters. If there is a place where the count value exceeds a certain value, the number of the reflected waves from the floor becomes four. The counter group 29 is connected to the CP via the signal line f.
Multiply U17 by ;I, including 1.

ここでCPU17は同様に第5図(4)の割込みルーチ
ンに処理を移しステップDIで割り込みの種類を判別す
る。今は床面センサ部30からの:11込みなのでステ
ップD2に進む、ステップD2では4箇のうちどの超1
″を波センサ7が反応したかその位置を示すデータを受
信回路1128から読み込む0次のステップD3ではC
PU17はCPU18に41号i9eを介して最優先の
;1,1込みをかける。
Here, the CPU 17 similarly moves the process to the interrupt routine shown in FIG. 5(4) and determines the type of interrupt in step DI. Now, since the signal from the floor sensor section 30 includes :11, proceed to step D2. In step D2, which of the four
In the next step D3, data indicating whether the wave sensor 7 has responded or its position is read from the receiving circuit 1128.
The PU 17 applies the highest priority ;1,1 to the CPU 18 via the No. 41 i9e.

すると、CPU18は接触セ/す群10による;1.1
込みと同様にモータ制御回路52.57に対しJ1常停
止りの命令を出力しロボット本体lを停止トして、転倒
や転落を防1トする。
Then, the CPU 18 uses the contact control group 10; 1.1
In the same way as the above, a J1 constant stop command is output to the motor control circuits 52 and 57 to stop the robot body and prevent it from tipping over or falling.

ステップB6に戻り、ここではステップB4で得られた
ロボット本体lが学習のため進んできた方向と距離に1
通路センサ部24、接触センサ群lO1床面センサ部3
0から得られた周囲の障害データを加味して実際的な進
行方向と距離の命令データを発生させ、これらデータは
コミュニケーションメモリ43に記憶され、又そこから
CPU18に送られる。又同時に周囲の障害物との間隔
により進行速度を決定してCPU18に送る。
Returning to step B6, here the robot body l obtained in step B4 is 1 in the direction and distance traveled for learning.
Passage sensor section 24, contact sensor group lO1 floor sensor section 3
Practical direction and distance command data is generated by taking into account the surrounding obstacle data obtained from 0, and these data are stored in the communication memory 43 and sent to the CPU 18 from there. At the same time, the traveling speed is determined based on the distance from surrounding obstacles and sent to the CPU 18.

ステップB7では一経路の教示が終了したかどうか確認
されるまで待機する。
In step B7, the process waits until it is confirmed whether the teaching of one route has been completed.

以上の処理がくり返されることにより操作人が持った誘
導装置16に向って、ロボット本体lは障害物を避けて
接近、追随して、複数の径路が教示され学習させられる
By repeating the above process, the robot main body l approaches and follows the guidance device 16 held by the operator while avoiding obstacles, and is taught and learned a plurality of routes.

径路と次の径路とが接続する分岐点の記憶時には、次の
分岐点までの道程と接続状況も同時に記憶される。全径
路の教示が終了すると第5図(1)のステップA2に進
み、これまで得られた分岐点の座標、接触情報1回避情
報からCRTディスプレイ11に合う座標変換を行い地
図を作成しCRTディスプレイ11Jzに表示する。又
教示中に停止トするように指示された複数の[目的地点
には各々固有の名曲例えば“A”、“B”、“C”等を
付して明確に表示する。
When storing a branch point where a route and the next route connect, the route to the next branch point and the connection status are also stored at the same time. When the teaching of the entire route is completed, the process proceeds to step A2 in FIG. 5(1), where a map is created by performing coordinate transformation to match the CRT display 11 from the coordinates of the branch points obtained so far and the contact information 1 avoidance information. Display on 11Jz. Also, each of the plurality of destination points to which the teacher is instructed to stop during teaching is clearly displayed with a unique famous song such as "A", "B", "C", etc.

ステップA3では中段テーブル2 b 、にのキ一群1
2から、L記[1的地を経由する順に、例えば“B、A
4C”というようにキー入力して指示を!j−える。
In step A3, the middle table 2 b, the key group 1
2 to L [In order of passing through 1 destination, for example, “B, A
Enter instructions like ``4C''.

ステップA4では前ステップA3で指示された目的地間
の適正な径路を選択し記憶する。このようにして決めら
れた径路を実際に走行するのが次のステップA5の走行
ルーチンである。
In step A4, an appropriate route between the destinations instructed in the previous step A3 is selected and stored. The next step A5 is a driving routine in which the vehicle actually travels along the route determined in this manner.

ステップA5の処理は第5図(3)のステップCl−C
5に従って実行される。
The process at step A5 is performed at step Cl-C in FIG. 5(3).
5.

すなわちステップCIでは経由地をすべて通過したかど
うか判断される、この判断はCPU19にヨリ、コミュ
ニケーションメモリ43を通して1’Jられる実際に通
過した座標データと、第5図(1)のステップA3で得
られた[1標経路データとを毎回比較することにより行
なわれる。
In other words, in step CI, it is determined whether all the waypoints have been passed.This determination is made by the CPU 19 based on the coordinate data of the actual passage passed through the communication memory 43 and the data obtained in step A3 of FIG. 5(1). This is done by comparing the [1 target route data] every time.

次のステップ02〜C5は基本的には第5図(2)の教
示センス時以降のステップB3〜B7と同様である。た
だしステップB4ではロボット本体lの進むべき方向を
得る時に、誘導装fi16の位置する方向を示すデータ
を用いたが、ステップC3ではそのかわりにステップA
4で選択した径路データ(径路の両端の座標から求めた
径路の向さ)を用いる。
The next steps 02 to C5 are basically the same as steps B3 to B7 after the teaching sense time in FIG. 5(2). However, in step B4, when obtaining the direction in which the robot body l should move, data indicating the direction in which the guidance device fi16 is located is used, but in step C3, data indicating the direction in which the guidance device fi16 is located is used instead.
The route data selected in step 4 (the direction of the route determined from the coordinates of both ends of the route) is used.

次にステップC4において、ロボット本体lのf;−+
トすべき目的地点に到着した時は、到着確認の入力操作
をキ一群12からCPU17が受けるまで停+L命令が
実行されロボット本体lはその目的地に停止している。
Next, in step C4, f;-+ of the robot body l
When the robot body 1 reaches the destination, the stop+L command is executed until the CPU 17 receives an input operation from the key group 12 to confirm arrival, and the robot body 1 stops at the destination.

キ一群12から入力操作を受けると、 l!IIち走行
命令が発生されるとロボット7(体lは次の目的地に向
は走行する。
When an input operation is received from the key group 12, l! When a travel command is issued, the robot 7 (body 1) travels toward the next destination.

このようにして第5図(1)のステップA3で指定した
目的地を全て通過する(ステップC5)。
In this way, all the destinations specified in step A3 of FIG. 5(1) are passed through (step C5).

次に:56図(1)及び(3)のフローチャートにより
CPU18の処理について説明する。CPU1Bは内部
にタイマ機走を有し20 m s e c毎に内部割込
みがかかる(ステップEl)、するとステップE2では
、ジャイロ45で得られたロボット本体lの姿勢変更に
よる回転角速度を、A/Df換部46でデジタル信号に
変換したものをRAM65に取り込み記憶する。
Next, the processing of the CPU 18 will be explained with reference to the flowcharts in FIGS. 56 (1) and (3). The CPU 1B has an internal timer and an internal interrupt is generated every 20 msec (step El). Then, in step E2, the rotational angular velocity due to the attitude change of the robot body l obtained by the gyro 45 is converted to A/ The digital signal converted by the Df converter 46 is taken into the RAM 65 and stored.

ステップE3ではRAM65に記憶された角速度を積分
し、ロボット本体1の回転角度データを算出する。
In step E3, the angular velocity stored in the RAM 65 is integrated to calculate rotation angle data of the robot body 1.

次にステップE4では、誘導装置16の教示によりCP
U17に処理されてコミュニケーションメモリ43に記
憶されたノ、(未走行データca行すべき方向、速度、
距離命令)をCPU1Bは読み込む。
Next, in step E4, the CP is guided by the guidance device 16.
Processed by U17 and stored in communication memory 43, (untraveled data ca direction, speed,
The CPU 1B reads the distance command).

ステップE5では、その命令データの中に特別の走行終
了命令が含まれていないかどうかをチェックする。
In step E5, it is checked whether the command data includes a special run end command.

終r命令がなければステップE6に進み、ステップE4
の基本走行データに従って、現在の進行方向と命令され
た進行方向とを比較して差を求め、ステアリングモータ
51の回転量を演算しその時の最適速度と回転方向を決
定する。また進行すべき速度命令と現在の進行速度とを
比較して差を求め走行DCモータ56の回転数を演算し
その時の最適の加速度となるような回転数を決定する。
If there is no end r command, proceed to step E6, and step E4
According to the basic traveling data, the current direction of travel and the commanded direction of travel are compared to determine the difference, the amount of rotation of the steering motor 51 is calculated, and the optimum speed and direction of rotation at that time are determined. Further, the speed command for traveling is compared with the current traveling speed, the difference is found, the rotational speed of the traveling DC motor 56 is calculated, and the rotational speed that provides the optimum acceleration at that time is determined.

ステップE7では算出された各モータ速度1回転数命令
をモータ制御回路52.57に送られ、ロボット本体l
は所定の径路を目的値に向って走行する。
In step E7, the calculated motor speed/revolution command is sent to the motor control circuit 52,57, and the robot main body l
travels along a predetermined route toward the target value.

第6図(3)のステップGlの処理はCPUl7からC
PU18へ、信号線eを介して最優先;1込時の処理で
、モータ制御回路52.57に速度“0”命令をかえロ
ボット本体1にブレーキをかけるものである。これは東
面に大きな四部や凸部があったり、通路上に障害物が発
生した場合に行なわれ、ロボット本体lは急停止する。
The process of step Gl in FIG. 6(3) is performed by CPU17 to C
The highest priority is sent to the PU 18 via the signal line e; in the processing when 1 is included, a speed "0" command is sent to the motor control circuits 52 and 57 to apply the brakes to the robot body 1. This is done when there is a large part or protrusion on the east side or an obstacle occurs on the path, and the robot body l suddenly stops.

第6図(2)はCPU19の処理を示すフローチャート
であり、ステップFlでは走行エンコーダ59の出力を
カウンタ60で分周して、一定距離を走行(回転a)毎
に、信号線gを介してCPU19に割込みがかかってい
たら、ステップF2に進む、ここではジャイロ45の出
力信号に)&づきCPU18が算出した角度データを、
コミュニケーションメモリ43から読み込む、ステップ
F3ではこの角度データ0に対するROM64内の三角
函数テーブルから5lnO,casOのデータを読み出
している。そしてステップF4ではこれら角度データと
5inO1casOテーブルデータにより座標計算を行
いロボット本体1の現在位tを算出しているゆ [発明の効果] 以り説明してきたようにこの発明によれば、ロボットに
操舵可能及び回転可能に設けられた車輪を駆動し前記ロ
ボットを移動させる駆動手段と、目的地までの径路を前
記ロボットに教示する教示手段と、前記ロボットに設け
られ径路を記憶する記憶手段と、該記憶手段に目的地の
情報を入力する入力1段と、前記記t12r一段に記憶
された径路及び目的地情報に基づいて所定II目的地で
の車輪の操舵量と回転数を計算する計算手段と、前記ロ
ボットから障害物までの距離と方向とを検知する障害検
知手段とを憐え、計算手段の計算結果に基づいて前記駆
動[没により障害物を避けながら自律的に所定目的地ま
で走行するようにしたので、)、(本走行データに従っ
て目的地に向けて走行しながらリアルタイムで自己の方
向及び走行距離を常時チェックすることができる。この
ようにしてオフィス、病院等で障害物を避けながら+1
1B走行する、心霊に応じて径路が「l山に変更設定で
きる「111’移動ロボツトが11多られるようになっ
た。
FIG. 6(2) is a flowchart showing the processing of the CPU 19. In step Fl, the output of the travel encoder 59 is frequency-divided by the counter 60, and every time the travel encoder 59 travels a certain distance (rotation a), the output is transmitted via the signal line g. If the CPU 19 is interrupted, proceed to step F2, where the angle data calculated by the CPU 18 is sent to the output signal of the gyro 45.
In step F3 of reading from the communication memory 43, data of 5lnO and casO is read from the trigonometric function table in the ROM 64 for this angle data 0. Then, in step F4, coordinates are calculated using these angle data and the 5inO1casO table data to calculate the current position t of the robot body 1. [Effects of the Invention] As explained above, according to the present invention, the robot a driving means for moving the robot by driving wheels provided rotatably and rotatably; a teaching means for teaching the robot a route to a destination; a storage means provided on the robot for storing the route; an input stage for inputting destination information into the storage means; and a calculation means for calculating the steering amount and rotation speed of the wheels at the predetermined destination II based on the route and destination information stored in the first stage t12r. , an obstacle detection means for detecting the distance and direction from the robot to the obstacle, and based on the calculation result of the calculation means, the robot autonomously runs to a predetermined destination while avoiding obstacles. ), (You can constantly check your own direction and distance traveled in real time while driving toward your destination according to this driving data. In this way, you can constantly check your direction and distance traveled in offices, hospitals, etc. while avoiding obstacles.) +1
There are now 11 more ``111'' mobile robots that travel in 1B, and whose path can be changed to ``L mountain'' depending on the spirit.

【図面の簡単な説明】[Brief explanation of drawings]

第1図は未発11に係る自律移動ロボットの外観斜視[
A、第2図は第1図の超i′丁波セ〉・すの配置f面図
、第3図は第1図の赤外線受光部の配置を面図、第4図
は自律移動ロボットの制御装置及び誘導装置のブロック
回路図、第5図(1)〜(4)及び第6図(1)〜(3
)は本発明の詳細な説明するためのフローチャートであ
る。 ■・・・・・・ロボット本体、3.7・・・・・・超1
°f波センサ、6・・・・・・車輪、10・・・・・・
接触センサ、12゜42・・・・・・キ一群、14・・
・・・・超音波送信器、15・・・・・・赤外線受光部
、16・・・・・・誘導装置、17.18.19・・・
・・・CPU、24・・・・−・通路センサ部、30・
・・・・・床面センサ部、32・・・・・・通路教示セ
ンサ部、37・・・・・・超音波受信器、41・・・・
・・赤外線発光J−f、43・・・・・・コミュニケー
ションメモリ、45・・・・・・ジャイロ、51.56
・・・・・・モータ、52゜57・・・・・・モータ制
御回路、54.59・・・・・・エンコーダ、61.6
3.65・・・・−・RAM。 第2図 15咄←郁 第3図 第6図 PUI8
Figure 1 is a perspective view of the exterior of the autonomous mobile robot related to Unexploded 11 [
A, Figure 2 is a side view of the arrangement of the ultra-i'-wave sensor in Figure 1, Figure 3 is a front view of the arrangement of the infrared receiver in Figure 1, and Figure 4 is a view of the arrangement of the infrared receiver in Figure 1. Block circuit diagrams of the control device and guidance device, Fig. 5 (1) to (4) and Fig. 6 (1) to (3)
) is a flowchart for explaining the present invention in detail. ■・・・Robot body, 3.7・・・Super 1
°F wave sensor, 6...Wheel, 10...
Contact sensor, 12°42...Key group, 14...
...Ultrasonic transmitter, 15...Infrared receiver, 16...Guidance device, 17.18.19...
... CPU, 24 ... - Passage sensor section, 30.
... Floor sensor section, 32 ... Passage teaching sensor section, 37 ... Ultrasonic receiver, 41 ...
...Infrared light emitting J-f, 43...Communication memory, 45...Gyro, 51.56
...Motor, 52゜57 ...Motor control circuit, 54.59 ...Encoder, 61.6
3.65...RAM. Figure 2 15 ← Iku Figure 3 Figure 6 PUI8

Claims (1)

【特許請求の範囲】[Claims] 床面上の複数の目的地間を自律走行するロボットにおい
て、該ロボットに操舵可能及び回転可能に、設けられた
車輪を駆動し前記ロボットを移動させる駆動手段と、前
記目的地までの径路を前記ロボットに教示する教示手段
と、前記ロボットに設けられ前記径路を記憶する記憶手
段と、該記憶手段に前記目的地の情報を入力する入力手
段と、前記記憶手段に記憶された前記径路及び目的地情
報に基づいて所定目的地までの前記車輪の操舵量と回転
数を計算する計算手段と、前記ロボットから障害物まで
の距離と方向を検知する障害検知手段とを備え、前記計
算手段の計算結果に基づいて前記駆動手段により障害物
を避けながら自律的に所定目的地まで走行することを特
徴とする自律移動ロボット。
In a robot that autonomously travels between a plurality of destinations on a floor surface, a driving means for driving wheels provided on the robot so as to be steerable and rotatable to move the robot; a teaching means for teaching a robot; a storage means provided in the robot for storing the route; an input means for inputting information about the destination into the storage means; and the route and the destination stored in the storage means. a calculation means for calculating the steering amount and rotation speed of the wheels to a predetermined destination based on information; and an obstacle detection means for detecting the distance and direction from the robot to the obstacle; and the calculation result of the calculation means. An autonomous mobile robot, characterized in that the robot autonomously travels to a predetermined destination while avoiding obstacles using the drive means.
JP61019849A 1986-01-31 1986-01-31 Autonomous mobile robot Pending JPS62179003A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP61019849A JPS62179003A (en) 1986-01-31 1986-01-31 Autonomous mobile robot

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP61019849A JPS62179003A (en) 1986-01-31 1986-01-31 Autonomous mobile robot

Publications (1)

Publication Number Publication Date
JPS62179003A true JPS62179003A (en) 1987-08-06

Family

ID=12010693

Family Applications (1)

Application Number Title Priority Date Filing Date
JP61019849A Pending JPS62179003A (en) 1986-01-31 1986-01-31 Autonomous mobile robot

Country Status (1)

Country Link
JP (1) JPS62179003A (en)

Cited By (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH01195513A (en) * 1988-01-29 1989-08-07 Nec Corp Drive control method for cart
JP2002533796A (en) * 1998-12-18 2002-10-08 ダイソン・リミテッド Sensor placement
JP2006048631A (en) * 2004-07-30 2006-02-16 Lg Electronics Inc Apparatus and method for calling mobile robot
JP2006141669A (en) * 2004-11-19 2006-06-08 Shimadzu Corp Mobile x-ray equipment
JP2009012668A (en) * 2007-07-06 2009-01-22 Sharp Corp Controller, and mobile robot system using it
USD920411S1 (en) * 2020-05-29 2021-05-25 Ubtech Robotics Corp Ltd Robot
USD921080S1 (en) * 2020-04-30 2021-06-01 Ubtech Robotics Corp Ltd Robot
USD921081S1 (en) * 2020-04-30 2021-06-01 Ubtech Robotics Corp Ltd Robot

Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPS5755404A (en) * 1980-09-19 1982-04-02 Mitsubishi Electric Corp Playback running controller for unmanned running car

Patent Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPS5755404A (en) * 1980-09-19 1982-04-02 Mitsubishi Electric Corp Playback running controller for unmanned running car

Cited By (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH01195513A (en) * 1988-01-29 1989-08-07 Nec Corp Drive control method for cart
JP2002533796A (en) * 1998-12-18 2002-10-08 ダイソン・リミテッド Sensor placement
JP2006048631A (en) * 2004-07-30 2006-02-16 Lg Electronics Inc Apparatus and method for calling mobile robot
JP2006141669A (en) * 2004-11-19 2006-06-08 Shimadzu Corp Mobile x-ray equipment
JP2009012668A (en) * 2007-07-06 2009-01-22 Sharp Corp Controller, and mobile robot system using it
USD921080S1 (en) * 2020-04-30 2021-06-01 Ubtech Robotics Corp Ltd Robot
USD921081S1 (en) * 2020-04-30 2021-06-01 Ubtech Robotics Corp Ltd Robot
USD920411S1 (en) * 2020-05-29 2021-05-25 Ubtech Robotics Corp Ltd Robot

Similar Documents

Publication Publication Date Title
US10596705B2 (en) Mobile robot with collision anticipation
US4939651A (en) Control method for an unmanned vehicle (robot car)
US5758298A (en) Autonomous navigation system for a mobile robot or manipulator
CN106527432B (en) The indoor mobile robot cooperative system corrected certainly based on fuzzy algorithmic approach and two dimensional code
EP0236614A2 (en) Automatic guided vehicle systems
WO2014156498A1 (en) Mobile body and position detection device
JP2001515237A (en) Docking method of autonomous motion unit using guidance beam
US20230341862A1 (en) Autonomous Movement Device, Autonomous Movement Method, And Program
JP3675386B2 (en) Autonomous mobile device and autonomous mobile device operation system
Zaki et al. Microcontroller-based mobile robot positioning and obstacle avoidance
JPS62179003A (en) Autonomous mobile robot
US11635759B2 (en) Method of moving robot in administrator mode and robot of implementing method
Doumbia et al. An auto-recharging system design and implementation based on infrared signal for autonomous robots
Peng et al. Tracking control of human-following robot with sonar sensors
JP3931907B2 (en) Autonomous mobile device
WO2016072186A1 (en) Location detecting device, control method, and autonomous vehicle
JPS62171011A (en) Control method for autonomic moving robot
JP3931906B2 (en) Autonomous mobile device
KR101041929B1 (en) Device for determining velocity of autonomous vehicle, autonomous vehicle having the same and method for determining velocity of autonomous vehicle
JPH0736541A (en) Travel control method for automated guided truck
JP2009223632A (en) Autonomous mobile device and autonomous mobile device system
JPH04153709A (en) Guidance controller for moving robot
JP3846506B2 (en) Autonomous mobile device
JP2017152051A (en) Traveling object attached with position detection device for outputting control command to travel control means of traveling object, and position detection device of the same
KR20200055164A (en) Mapping based autonomous cart and its control method