JP2017093626A - Self-travelling electronic apparatus - Google Patents
Self-travelling electronic apparatus Download PDFInfo
- Publication number
- JP2017093626A JP2017093626A JP2015226754A JP2015226754A JP2017093626A JP 2017093626 A JP2017093626 A JP 2017093626A JP 2015226754 A JP2015226754 A JP 2015226754A JP 2015226754 A JP2015226754 A JP 2015226754A JP 2017093626 A JP2017093626 A JP 2017093626A
- Authority
- JP
- Japan
- Prior art keywords
- feature points
- feature point
- self
- unit
- position information
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
- 238000003860 storage Methods 0.000 claims abstract description 77
- 238000001514 detection method Methods 0.000 claims abstract description 40
- 238000003384 imaging method Methods 0.000 claims abstract description 35
- 238000000605 extraction Methods 0.000 claims abstract description 15
- 230000004044 response Effects 0.000 claims description 11
- 239000000284 extract Substances 0.000 claims description 6
- 238000000034 method Methods 0.000 description 83
- 230000008569 process Effects 0.000 description 63
- 238000012545 processing Methods 0.000 description 34
- 238000004140 cleaning Methods 0.000 description 22
- 238000010586 diagram Methods 0.000 description 22
- 239000011159 matrix material Substances 0.000 description 21
- 230000009466 transformation Effects 0.000 description 18
- 238000004891 communication Methods 0.000 description 13
- 239000000428 dust Substances 0.000 description 12
- 230000006698 induction Effects 0.000 description 12
- 230000006870 function Effects 0.000 description 11
- 238000004364 calculation method Methods 0.000 description 7
- 230000008859 change Effects 0.000 description 7
- 238000000844 transformation Methods 0.000 description 7
- 238000003491 array Methods 0.000 description 6
- PXFBZOLANLWPMH-UHFFFAOYSA-N 16-Epiaffinine Natural products C1C(C2=CC=CC=C2N2)=C2C(=O)CC2C(=CC)CN(C)C1C2CO PXFBZOLANLWPMH-UHFFFAOYSA-N 0.000 description 4
- 238000013519 translation Methods 0.000 description 4
- 238000012986 modification Methods 0.000 description 3
- 230000004048 modification Effects 0.000 description 3
- 229930091051 Arenine Natural products 0.000 description 2
- 238000005516 engineering process Methods 0.000 description 2
- 238000005286 illumination Methods 0.000 description 2
- 238000010295 mobile communication Methods 0.000 description 2
- 230000009467 reduction Effects 0.000 description 2
- 230000008054 signal transmission Effects 0.000 description 2
- 230000001133 acceleration Effects 0.000 description 1
- 230000001154 acute effect Effects 0.000 description 1
- 238000013459 approach Methods 0.000 description 1
- 230000006399 behavior Effects 0.000 description 1
- 230000005540 biological transmission Effects 0.000 description 1
- 125000004122 cyclic group Chemical group 0.000 description 1
- 230000007274 generation of a signal involved in cell-cell signaling Effects 0.000 description 1
- 230000006872 improvement Effects 0.000 description 1
- 230000010365 information processing Effects 0.000 description 1
- 238000009434 installation Methods 0.000 description 1
- 238000003032 molecular docking Methods 0.000 description 1
- 238000005192 partition Methods 0.000 description 1
- 230000002093 peripheral effect Effects 0.000 description 1
- 238000002360 preparation method Methods 0.000 description 1
- 238000003825 pressing Methods 0.000 description 1
- 238000010008 shearing Methods 0.000 description 1
- 230000000007 visual effect Effects 0.000 description 1
Landscapes
- Electric Vacuum Cleaner (AREA)
- Control Of Position, Course, Altitude, Or Attitude Of Moving Bodies (AREA)
Abstract
Description
この発明は、自走式電子機器に関し、より具体的には走行する領域内の複数の位置で周囲の光景を撮影して画像データベースを作成し、到達すべき目標位置で周囲の光景を撮影し、前記画像と照合して目標位置へ走行する自走式電子機器に関する。 The present invention relates to a self-propelled electronic device, and more specifically, creates an image database by photographing surrounding scenes at a plurality of positions in a traveling region, and photographs the surrounding scenes at a target position to be reached. The present invention relates to a self-propelled electronic device that travels to a target position by collating with the image.
周囲の障害物等を検出するセンサーを備えて自律的に走行して作業を行う自走式電子機器が知られている。例えば、掃除機や空気清浄機や警備用の装置などがある。そして、そのセンサーの一つとして、あるいは他の目的で周囲の光景を撮影するカメラを有する自走式電子機器が知られている。
自走式電子機器は、作業領域の目的に沿って走行を制御するために走行に関して様々なモードを有する。一例としてある自走式掃除機の場合、走行の制御に関して、「自動運転モード」、「壁際モード」および「スポットモード」を有する。「自動運転モード」は不在時に宅内をくまなく掃除させる為のモードである。「壁際モード」は、自走式掃除機が壁に沿って進みながら掃除をするモードである。「壁際モード」を選択することで、壁際をきれいにできる。また、「スポットモード」では、ユーザーが指定した領域の周辺のみ掃除するためのモードである。領域を指定する単純な方法は、ユーザーがその領域に自走式掃除機を運んで持って行くというものである。
2. Description of the Related Art Self-propelled electronic devices are known that are equipped with a sensor that detects surrounding obstacles and the like and that autonomously travel and work. For example, there are vacuum cleaners, air cleaners, and security devices. As one of the sensors or for other purposes, a self-propelled electronic device having a camera that captures a surrounding scene is known.
The self-propelled electronic device has various modes regarding traveling in order to control traveling according to the purpose of the work area. As an example, a self-propelled cleaner has an “automatic operation mode”, a “wall-side mode”, and a “spot mode” with respect to control of traveling. The “automatic operation mode” is a mode for cleaning the entire house when absent. The “wall-side mode” is a mode in which the self-propelled cleaner performs cleaning while moving along the wall. By selecting “Border mode”, you can clean the wall. The “spot mode” is a mode for cleaning only the periphery of the area designated by the user. A simple way to specify an area is for the user to carry a self-propelled cleaner to the area.
以上のような、状況に応じた走行の制御に関連する幾つかの技術が提案されている。例えば、複数の掃除領域の中から掃除する領域を選択して掃除させるため、自律走行用センサーの出力と記憶した地図情報から現在位置を特定し、現在位置を基に選択された掃除領域まで自律走行するロボットクリーナが提案されている(例えば、特許文献1参照)。また、直近に走行した回数が少ない領域を特定して走行経路を探索するサーバー装置と通信し、ユーザーに指定された領域のうちで過去に走行した回数が少ない領域を優先的に走行する経路を算出する自走式電子機器が提案されている(例えば、特許文献2参照)。 Several techniques related to the traveling control according to the situation as described above have been proposed. For example, in order to select and clean the area to be cleaned from a plurality of cleaning areas, the current position is identified from the output of the autonomous driving sensor and the stored map information, and autonomously up to the cleaning area selected based on the current position. A traveling robot cleaner has been proposed (see, for example, Patent Document 1). In addition, it communicates with a server device that searches for a travel route by specifying a region with the fewest number of times of travel, and preferentially travels in a region that has been traveled in the past among the regions specified by the user. A self-propelled electronic device to be calculated has been proposed (see, for example, Patent Document 2).
前述の「自動運転モード」は、ユーザーが例えばリモコンの掃除開始ボタンを押すなどワンタッチで指示を与えると、それに応答して自走式電子機器が部屋の広さや障害物の所在を検出して自律的に走行するようにできる。「壁際モード」についても、ユーザーがワンタッチで指示を与えると、自走式電子機器が壁の位置を検出し壁に沿った領域を走行するようにできる。
しかし、「スポットモード」の場合、ユーザーが意図する領域を自走式電子機器が自動的に推測することはできない。意図する領域を自走式電子機器に指示する単純な方法として、ユーザーは掃除等の作業をさせたい位置へ自走式電子機器を移動させ、そのうえでリモコン等によってスポットモードでの作業開始の指示を与え、これによって領域を指定することができる。このようにスポットモードについては、作業をさせる前に作業をさせたい場所まで自走式機器を移動させる必要がある。利便性の側面からは他のモードに劣るといえる。
In the “automatic operation mode” described above, when the user gives an instruction with a single touch, for example, by pressing the cleaning start button on the remote control, the self-propelled electronic device detects the size of the room and the location of the obstacle in response to the instruction. You can drive. In the “wall-side mode” as well, when the user gives an instruction with a single touch, the self-propelled electronic device can detect the position of the wall and run in the area along the wall.
However, in the “spot mode”, the self-propelled electronic device cannot automatically guess the area intended by the user. As a simple method of instructing the intended area to the self-propelled electronic device, the user moves the self-propelled electronic device to the position where the work such as cleaning is desired, and then instructs the start of the work in the spot mode by using a remote control or the like. Given this, the region can be specified. As described above, in the spot mode, it is necessary to move the self-propelled device to a place where the work is desired before the work is performed. It can be said that it is inferior to other modes in terms of convenience.
ユーザーが自ら自走式電子機器を運んで移動させる代わりに、前述の特許文献1や2のようにスマートフォン等の携帯通信機器を使って位置を指示する手法もある。
例えば自走式掃除機が、移動方向を検出するジャイロセンサー、移動量を検出するエンコーダ、障害物を検出して自走式電子機器を自律的に走行させる自律走行部、およびユーザーが有するスマートフォンと通信する無線LAN等の通信手段を備えているものとする。このように構成された自走式電子機器に、基点である充電台からの相対位置をユーザーのスマートフォンから指示すると、その指示に応答して自走式電子機器が目的の位置へ移動させる制御が考えられる。
ここで、自走式電子機器に指示を与えるスマートフォンは、その画面上に、部屋の間取りおよび障害物となる家具や家電等の「モノ」の配置を示すマップを表示するアプリを用意しておくことが考えられる。
There is also a method in which a user designates a position using a mobile communication device such as a smartphone as described in Patent Documents 1 and 2 instead of carrying and moving a self-propelled electronic device.
For example, a self-propelled cleaner has a gyro sensor that detects the direction of movement, an encoder that detects the amount of movement, an autonomous traveling unit that detects obstacles and autonomously travels the self-propelled electronic device, and a smartphone that the user has It is assumed that communication means such as a wireless LAN for communication is provided. When the relative position from the charging base, which is the base point, is instructed to the self-propelled electronic device configured in this way from the user's smartphone, control is performed in which the self-propelled electronic device moves to the target position in response to the instruction. Conceivable.
Here, the smartphone that gives instructions to the self-propelled electronic device has an application for displaying a map showing the layout of the room and the arrangement of “things” such as furniture and home appliances as obstacles on the screen. It is possible.
ユーザーが自走式掃除機に掃除させたいマップ上の位置をタッチすると、アプリがホームポジションからの相対距離を指示できるようにする。このようなシステムでは、画面がタッチされるとタッチされた画面上の位置と画面上の充電台との位置関係から、充電台と自走式掃除機に掃除させたい位置との相対位置を計算し、自走式電子機器に送信する。自走式電子機器側では、スマートフォンから受信した相対位置に基づいて自律走行部が自走式電子機器を相対位置が示す場所へ走行させるのである。 Allows the app to indicate the relative distance from the home position when the user touches the location on the map that the self-propelled cleaner wants to clean. In such a system, when the screen is touched, the relative position between the charging stand and the position that the self-propelled cleaner wants to clean is calculated from the positional relationship between the touched position on the screen and the charging stand on the screen. And transmit to the self-propelled electronic device. On the self-propelled electronic device side, the autonomous traveling unit causes the self-propelled electronic device to travel to the location indicated by the relative position based on the relative position received from the smartphone.
ところが、ここで一つ問題がある。このようなシステムでは間取り図やモノの配置となるマップを作るのにユーザーの手間がかかる。さらに、そのマップは、マップ上に示されるモノの位置が現実のモノと同じ位置関係になければ、高い精度での位置指定ができない。即ち、マップ上の位置情報が実際の部屋内のモノの配置と正しく対応付けられていないといけない。従って、マップを作成する際に、実際の部屋内でどのような位置関係および距離間隔でモノが配置されているかを計測する必要がある。誰でも気軽に使えるようにするためには、マップ情報を作成する手間を簡略化することが望まれる。
さらにいえば、このようなシステムではユーザーがスマートフォンを所有していないと自走式掃除機に位置を指示できない。スマートフォンを所有していないユーザーはこのシステムを使えない。また、スマートフォンの操作が苦手なユーザーもある。そのようなユーザーにとって、このシステムは使うのが難しく、利便性の観点からも改善が望まれる。
However, there is one problem here. In such a system, it takes time and effort for the user to create a floor plan and a map for arranging objects. Furthermore, if the position of the thing shown on the map is not in the same positional relationship as the actual thing, the map cannot be designated with high accuracy. That is, the position information on the map must be correctly associated with the actual arrangement of objects in the room. Therefore, when creating a map, it is necessary to measure the positional relationship and the distance interval between objects in an actual room. To make it easy for anyone to use, it is desirable to simplify the process of creating map information.
Furthermore, in such a system, the position cannot be instructed to the self-propelled cleaner unless the user has a smartphone. Users who do not have a smartphone cannot use this system. Some users are not good at operating smartphones. For such users, this system is difficult to use, and improvement is also desired from the viewpoint of convenience.
一方、通常の人間の行動を考えてみると「ソファーの前を掃除しておいて」というような指示が人間同士では普通である。電子機器に対してもこのような直感的な指示ができることが望ましい。
近年では音声認識技術が進歩しており、話者の意図を的確に認識することが可能になってきた。つまり、「ソファーの前を掃除しておいて」という指示の意図は、機械でも容易に識別できる。よって、自走式電子機器が、「ソファーの前」がどこであるかを認識し、その位置を目標位置に設定して自律走行できれば直感的で簡単な指示が可能になる。
On the other hand, considering normal human behavior, an instruction such as “clean the front of the sofa” is common among humans. It is desirable that such an intuitive instruction can be given to an electronic device.
In recent years, speech recognition technology has advanced, and it has become possible to accurately recognize the intention of a speaker. That is, the intention of the instruction “clean the front of the sofa” can be easily identified by a machine. Therefore, if the self-propelled electronic device recognizes where “in front of the sofa” is and sets the position as a target position and can autonomously travel, an intuitive and simple instruction is possible.
この発明は、以上のような事情を考慮してなされたものであって、自走式電子機器が目標位置で撮影した画像と走行領域内の複数の位置で撮影した画像を格納する位置情報データベースとを照合して、自律的に目標位置へ走行できる電子機器を提供するものである。
さらに、目標位置で撮影した画像を、音声等による直感的な指示と対応付ければ、位置に関して自走式電子機器に対して直感的な指示が可能になる。例えば「ソファーの前」のように人間が直感的に理解できる位置情報を自走式電子機器が認識可能な位置情報、即ち、基点からの相対位置の情報と対応付けて認識するための重要な要素となる技術を提供するものである。
The present invention has been made in view of the above circumstances, and is a position information database that stores images taken by a self-propelled electronic device at a target position and images taken at a plurality of positions in a running area. And providing an electronic device that can autonomously travel to the target position.
Furthermore, if the image captured at the target position is associated with an intuitive instruction such as voice, an intuitive instruction can be given to the self-propelled electronic device regarding the position. For example, position information that can be intuitively understood by humans, such as “in front of the sofa”, is important for recognizing in association with position information that can be recognized by the self-propelled electronic device, that is, relative position information from the base point. It provides the elemental technology.
この発明は、走行を制御する走行制御部と、前記走行に伴って変化する位置を検出する位置検出部と、周囲の光景を撮影する撮像部と、撮影された画像から複数の特徴点を抽出する特徴点抽出部と、走行領域内の複数の位置において前記撮像部が撮影した画像に係る特徴点とその撮影が行われた位置とが関連付けられて登録された位置情報を予め格納する位置情報データベース格納部と、目標とすべき位置において前記撮像部が撮影した画像に係る特徴点を格納するクエリ格納部と、前記クエリ格納部に格納された特徴点と前記位置情報データベース格納部に格納された各位置情報に含まれる特徴点との配置関係を照合し、対応する配置関係にある特徴点を最も多く含む位置情報に基づいて目標位置を決定する目標位置決定部とを備え、前記走行制御部は、前記位置検出部が検出する現在の位置と決定された目標位置とに基づいてその目標位置への走行を制御する自走式電子機器を提供する。 The present invention relates to a travel control unit that controls travel, a position detection unit that detects a position that changes with the travel, an imaging unit that captures a surrounding scene, and a plurality of feature points extracted from the captured image. Position information that stores in advance the position information registered in association with the feature points relating to the images captured by the image capturing unit at a plurality of positions in the traveling area and the positions where the image capturing is performed A database storage unit, a query storage unit that stores feature points related to an image captured by the imaging unit at a target position, a feature point stored in the query storage unit, and a position information database storage unit A target position determining unit that collates the positional relationship with the feature points included in each positional information and determines a target position based on positional information that includes the most feature points in the corresponding positional relationship, Row control unit provides a self-propelled electronic device for controlling the travel to its target position on the basis of the target position and that the position detecting unit is determined as the current position to be detected.
この発明による自走式電子機器において、前記クエリ格納部は目標とすべき位置において前記撮像部が撮影した画像に係る特徴点を格納し、前記目標位置決定部は前記クエリ格納部に格納された特徴点と前記位置情報データベース格納部に格納された各位置での特徴点とを照合し、対応する特徴点に関連付けられた位置情報を目標の位置情報とし、前記走行制御部は前記位置検出部が検出する現在の位置と決定された目標位置とに基づいてその目標位置への走行を制御するので、前記自走式電子機器が目標位置で撮影した画像と走行領域内の複数の位置で撮影した画像を格納する位置情報データベースとを照合して、自律的に目標位置へ走行できる。 In the self-propelled electronic device according to the present invention, the query storage unit stores feature points related to an image captured by the imaging unit at a target position, and the target position determination unit is stored in the query storage unit. The feature point and the feature point at each position stored in the position information database storage unit are collated, the position information associated with the corresponding feature point is set as target position information, and the travel control unit is the position detection unit. The travel to the target position is controlled based on the current position detected by the camera and the determined target position, so that the self-propelled electronic device captures an image captured at the target position and a plurality of positions within the travel area. It is possible to autonomously travel to the target position by collating with a position information database storing stored images.
以下、図面を用いてこの発明をさらに詳述する。なお、以下の説明は、すべての点で例示であって、この発明を限定するものと解されるべきではない。
(実施の形態1)
≪自走式電子機器の具体的態様≫
はじめに、この発明の自走式電子機器の一例として自走式掃除機について説明する。
図1はこの発明の実施形態に係る自走式掃除機の電気的な構成を示すブロック図である。また、図2はこの発明の実施形態に係る自走式掃除機の外観斜視図であり、図3は図2に示す自走式掃除機の底面図である。また、図4は図2に示す自走式掃除機の前後方向に沿った垂直断面図である。図5は、図2に示す自走式掃除機の水平断面図である。
Hereinafter, the present invention will be described in more detail with reference to the drawings. In addition, the following description is an illustration in all the points, Comprising: It should not be interpreted as limiting this invention.
(Embodiment 1)
≪Specific modes of self-propelled electronic devices≫
First, a self-propelled cleaner will be described as an example of the self-propelled electronic device of the present invention.
FIG. 1 is a block diagram showing an electrical configuration of a self-propelled cleaner according to an embodiment of the present invention. 2 is an external perspective view of the self-propelled cleaner according to the embodiment of the present invention, and FIG. 3 is a bottom view of the self-propelled cleaner shown in FIG. FIG. 4 is a vertical sectional view along the front-rear direction of the self-propelled cleaner shown in FIG. FIG. 5 is a horizontal sectional view of the self-propelled cleaner shown in FIG. 2.
≪自走式掃除機の構成≫
図2および図3に示すように、実施の形態1に係る自走式掃除機1は、平盤形の筐体2を備える。なお、実施の形態1の場合、筐体2は円盤形であるが、これに限定されず、例えば平面視の形状が楕円形状あるいは四角形、五角形、六角形等の多角形状であってもよい。
筐体2は、円形に形成された天板を含む。天板は、その前部を構成する天板前部2b1と、中間部から後部に亘って構成する蓋部2b2から構成され、蓋部2b2は天板前部2b1との境界側の側部に配置された図示しないヒンジ部を支点にして上方へ開く。天板前部2b1の前端部には、内部に配置された回路基板11Sの熱を逃がす複数の空気孔2b11が形成されている。
≪Configuration of self-propelled vacuum cleaner≫
As shown in FIGS. 2 and 3, the self-propelled cleaner 1 according to the first embodiment includes a flat plate-shaped housing 2. In the case of the first embodiment, the housing 2 has a disk shape, but is not limited to this, and the shape in plan view may be an elliptical shape or a polygonal shape such as a quadrilateral, a pentagon, or a hexagon.
The housing | casing 2 contains the top plate formed in circular. The top plate is composed of a top plate front portion 2b 1 constituting the front portion and a lid portion 2b 2 constituting the middle portion to the rear portion, and the lid portion 2b 2 is on the side of the boundary with the top plate front portion 2b 1 The hinge part (not shown) arranged in the part is opened upward using a fulcrum as a fulcrum. A plurality of air holes 2b 11 for releasing heat of the circuit board 11S disposed inside are formed at the front end of the top front part 2b 1 .
また、筐体2は環状に形成された側板を含む。また、図4および図5に示すように筐体2は内部構造壁2dを含む。側板は、それぞれ円弧形の側板前半部2c1と側板後半部2c2とから構成される。側板前半部2c1はバンパーとして機能するよう、図示しない弾発部材を介して内部構造壁2dに対して移動可能に嵌め合わされている。側板前半部2c1には、側板前半部2c1の衝突を検出する衝突センサー14Cが内部に設けられている(図2〜図5に図示せず)。さらに、側板前半部2c1には、前方および左右斜め前方の3箇所に超音波受信部14Aが配置されると共に、3箇所の超音波受信部14Aの間の2箇所に超音波送信部14Bが配置されている。
さらに、筐体2の前部表面の外部から視認できる位置に誘導信号受信部24、撮像部133および充電用接続部13が設けられている。充電用接続部13は、後述する充電台201との接続端子およびその接続端子と充電池12とを結ぶ配線を含む。
Moreover, the housing | casing 2 contains the side plate formed in cyclic | annular form. As shown in FIGS. 4 and 5, the housing 2 includes an internal structure wall 2d. Each of the side plates includes an arc-shaped side plate front half 2c 1 and a side plate rear half 2c 2 . The side plate front half 2c 1 is movably fitted to the internal structural wall 2d via a resilient member (not shown) so as to function as a bumper. The side plate front half 2c 1 is provided with a collision sensor 14C for detecting a collision of the side plate front half 2c 1 (not shown in FIGS. 2 to 5). Further, in the side plate front half 2c 1 , the ultrasonic receivers 14A are arranged at three positions on the front and diagonally forward sides, and the ultrasonic transmitters 14B are provided at two positions between the three ultrasonic receivers 14A. Has been placed.
Further, an induction signal receiving unit 24, an imaging unit 133, and a charging connection unit 13 are provided at positions that can be seen from the outside of the front surface of the housing 2. Charging connection portion 13 includes a connection terminal to charge base 201 described later and a wiring connecting the connection terminal and rechargeable battery 12.
筐体2は、底部に設けられた吸込口31、後部の斜め上方に設けられた第1排気口32および外周部に設けられた第2排気口33を有し、筐体2の内部には集塵部15および電動送風機115が配置されている。集塵部15は、室内の塵埃を集める部分であり、集塵容器15aと、集塵フィルター15bとを備える。集塵容器15aには、吸込口31と連通する流入路に通じる流入口と、電動送風機115と連通するダクト部114に通じる排気口とが形成されている。
第2排気口33は、前方へ向かって開口し、集塵部15および電動送風機115を通過した空気流を前方へ向けて吹き出すように構成されている。なお、ここで言う「前方」とは、自走式掃除機が直進する方向と平行方向を意味するが、厳密に平行方向でなくてもよく、多少の斜め方向も含まれる。
The housing 2 has a suction port 31 provided at the bottom, a first exhaust port 32 provided obliquely above the rear portion, and a second exhaust port 33 provided at the outer peripheral portion. A dust collector 15 and an electric blower 115 are arranged. The dust collection unit 15 is a part that collects indoor dust, and includes a dust collection container 15a and a dust collection filter 15b. The dust collection container 15 a is formed with an inflow port that leads to an inflow passage that communicates with the suction port 31 and an exhaust port that communicates with a duct portion 114 that communicates with the electric blower 115.
The 2nd exhaust port 33 is opened toward the front, and is comprised so that the airflow which passed the dust collection part 15 and the electric blower 115 may be blown out toward the front. Here, “front” means a direction parallel to the direction in which the self-propelled cleaner goes straight, but it does not have to be strictly a parallel direction, and includes some oblique directions.
自走式掃除機1の底面の前半部には、吸込口31の奥に配置された回転ブラシ9、吸込口31の左右斜め前方に形成されたサイドブラシ10と、吸込口31の左右斜め後方位置に形成された後述する左駆動輪22Lおよび右駆動輪22Rが設けられている。回転ブラシ9およびサイドブラシ10は、ブラシモータ119によって駆動され回転する。また、底面の後半部の左右方向における中間位置には回動自在な後輪26が設けられている。後輪26の車輪は回転自在である。なお、図3と図4においては、後輪26が前方へ180°回動した状態を二点差線で記している。
自走式掃除機1は、設置された場所の床面を自走しながら、床面(走行面)上の塵埃を含む空気を吸い込み、塵埃を除去した空気を排気することにより床面上を掃除する。自走式掃除機1は、障害検出部14により検出された障害物を自律的に回避して走行し、掃除が終了すると自律的に図示しない充電ステーションに帰還する機能を有する。
なお、この明細書で床面は木製の平らな床に限らない。カーペット、マット、畳などであっても自走式掃除機1が走行可能な面であればよい。また、床面は平面に限らず、例えばある程度曲がった面や凹凸のある面や段差のある面であっても走行可能であればよい。
In the front half of the bottom surface of the self-propelled cleaner 1, there are a rotating brush 9 disposed in the back of the suction port 31, a side brush 10 formed diagonally forward and leftward of the suction port 31, and an obliquely rearward side of the suction port 31. A left drive wheel 22L and a right drive wheel 22R, which will be described later, formed at the positions are provided. The rotating brush 9 and the side brush 10 are driven and rotated by a brush motor 119. A rotatable rear wheel 26 is provided at an intermediate position in the left-right direction of the rear half of the bottom surface. The wheels of the rear wheel 26 are rotatable. In FIGS. 3 and 4, a state where the rear wheel 26 is rotated 180 ° forward is indicated by a two-dot chain line.
While the self-propelled cleaner 1 is self-propelled on the floor surface where it is installed, the self-propelled cleaner 1 sucks in air containing dust on the floor surface (travel surface) and exhausts the air from which the dust has been removed. clean. The self-propelled cleaner 1 has a function of autonomously avoiding obstacles detected by the obstacle detection unit 14 and autonomously returning to a charging station (not shown) when cleaning is completed.
In this specification, the floor is not limited to a wooden flat floor. Even if it is a carpet, a mat, a tatami mat, etc., it should just be a surface which self-propelled cleaner 1 can run. The floor surface is not limited to a flat surface, and may be a surface that is curved to some extent, an uneven surface, or a stepped surface as long as it can travel.
図1に示すように、この自走式掃除機1は、駆動部23、回路基板11S、障害検出部14および充電池12を備える。
駆動部23は、左輪駆動モータ21L、右輪駆動モータ21R、左駆動輪22L、右駆動輪22Rを備える。左輪駆動モータ21L、右輪駆動モータ21R、左輪エンコーダ71Lおよび右輪エンコーダ71R、左駆動輪22Lおよび右駆動輪22Rを有して自走式掃除機1を走行させる。なお、左輪駆動モータ21Lおよび右輪駆動モータ21Rがステッピングモータの場合は、エンコーダに代えてモータの駆動パルス数を用いてもよい。この実施例では、左輪エンコーダ71Lおよび右輪エンコーダ71Rが実際にエンコーダを備えるものとして説明する。
As shown in FIG. 1, the self-propelled cleaner 1 includes a drive unit 23, a circuit board 11 </ b> S, a failure detection unit 14, and a rechargeable battery 12.
The drive unit 23 includes a left wheel drive motor 21L, a right wheel drive motor 21R, a left drive wheel 22L, and a right drive wheel 22R. The self-propelled cleaner 1 has a left wheel drive motor 21L, a right wheel drive motor 21R, a left wheel encoder 71L, a right wheel encoder 71R, a left drive wheel 22L, and a right drive wheel 22R. If the left wheel drive motor 21L and the right wheel drive motor 21R are stepping motors, the number of motor drive pulses may be used instead of the encoder. In this embodiment, description will be made assuming that the left wheel encoder 71L and the right wheel encoder 71R actually include encoders.
回路基板11Sは、機器制御部11、記憶部61、左輪ドライバ121L、右輪ドライバ121R、ジャイロセンサー20、送風機ドライバ123およびブラシドライバ125を備える。
左輪ドライバ121Lは、左輪駆動モータ21Lを電気的に駆動し、右輪ドライバ121Rは、右輪駆動モータ21Rを電気的に駆動する。ジャイロセンサー20は、走行方向の変化を検出する。送風機ドライバ123は、電動送風機115を電気的に駆動する。ブラシドライバ125は、ブラシモータ119を電気的に駆動する。
The circuit board 11S includes a device control unit 11, a storage unit 61, a left wheel driver 121L, a right wheel driver 121R, a gyro sensor 20, a blower driver 123, and a brush driver 125.
The left wheel driver 121L electrically drives the left wheel drive motor 21L, and the right wheel driver 121R electrically drives the right wheel drive motor 21R. The gyro sensor 20 detects a change in the traveling direction. The blower driver 123 electrically drives the electric blower 115. The brush driver 125 electrically drives the brush motor 119.
機器制御部11は、ドライバを介して左輪駆動モータ21L、右輪駆動モータ21R、イオン発生器120、電動送風機115およびブラシモータ119を制御する。
また、機器制御部11は、自走式掃除機1の走行を制御する走行制御部11a、位置検出部11b、特徴点抽出部11cおよび目標位置決定部11dの機能を包含する。
走行制御部11aは、左輪エンコーダ71Lおよび右輪エンコーダ71Rからのエンコーダの信号を用いて左輪駆動モータ21Lおよび右輪駆動モータ21Rの回転を制御することにより自走式掃除機1の走行を制御する。
位置検出部11bは、前記エンコーダ信号に基づいてホームポジションから自走式掃除機1が走行した距離および方向を取得する。なお、この実施形態でホームポジションは、後述する充電台201に自走式掃除機1がドッキングした状態における自走式掃除機1の部屋内の位置であって、位置検出部11bが検出する位置の基準となる位置である。
The device control unit 11 controls the left wheel drive motor 21L, the right wheel drive motor 21R, the ion generator 120, the electric blower 115, and the brush motor 119 via a driver.
Moreover, the apparatus control part 11 includes the function of the traveling control part 11a which controls driving | running | working of the self-propelled cleaner 1, the position detection part 11b, the feature point extraction part 11c, and the target position determination part 11d.
The travel controller 11a controls the travel of the self-propelled cleaner 1 by controlling the rotation of the left wheel drive motor 21L and the right wheel drive motor 21R using the encoder signals from the left wheel encoder 71L and the right wheel encoder 71R. .
The position detection unit 11b acquires the distance and direction that the self-propelled cleaner 1 has traveled from the home position based on the encoder signal. In this embodiment, the home position is a position in the room of the self-propelled cleaner 1 in a state where the self-propelled cleaner 1 is docked on the charging stand 201 described later, and is a position detected by the position detection unit 11b. This is the reference position.
図6Aは、この実施形態にかかる自走式掃除機1が、充電台201にドッキングしているホームポジションの位置を示す平面図である。図6Bは、図6Aに示す自走式掃除機1が、ホームポジションから離れた位置にある様子を示す平面図である。図6Aおよび図6Bで、自走式掃除機1がホームポジションにあるときの中心の位置を部屋座標の原点「O」(オー)で示している。また、部屋座標原点から横方向に延びる座標軸のx軸と縦方向に伸びる座標軸のy軸を示している。なお、図6Aおよび図6Bにおいて自走式掃除機1と充電台201は実体が存在するのに対して、原点O、x軸およびy軸は概念上のものである。
図6Bは、自走式掃除機1が部屋座標原点からx軸方向にマイナス15センチメートル、y軸方向に20センチメートルの位置にあることを示している。
位置検出部11bは、図6Aに示すホームポジションを基準としてx方向およびy方向の座標値で自走式掃除機1の位置を検出する。
機器制御部11は、自走式掃除機1の各構成要素の動作を制御する部分であり、主として、CPU、RAM、I/Oコントローラ、タイマー等からなるマイクロコンピュータによって実現される。
FIG. 6A is a plan view showing the position of the home position where the self-propelled cleaner 1 according to this embodiment is docked on the charging stand 201. FIG. 6B is a plan view showing a state in which the self-propelled cleaner 1 shown in FIG. 6A is located away from the home position. In FIG. 6A and FIG. 6B, the center position when the self-propelled cleaner 1 is at the home position is indicated by the origin “O” (O) of the room coordinates. Further, an x-axis of the coordinate axis extending in the horizontal direction from the room coordinate origin and a y-axis of the coordinate axis extending in the vertical direction are shown. 6A and 6B, the self-propelled cleaner 1 and the charging stand 201 exist, whereas the origin O, the x-axis, and the y-axis are conceptual.
FIG. 6B shows that the self-propelled cleaner 1 is at a position of minus 15 centimeters in the x-axis direction and 20 centimeters in the y-axis direction from the room coordinate origin.
The position detector 11b detects the position of the self-propelled cleaner 1 with the coordinate values in the x and y directions with reference to the home position shown in FIG. 6A.
The device control unit 11 is a part that controls the operation of each component of the self-propelled cleaner 1, and is mainly realized by a microcomputer including a CPU, a RAM, an I / O controller, a timer, and the like.
CPUは、後述する記憶部61に予め格納されRAMに展開された制御プログラムに基づいて処理を実行し、各ハードウェアを有機的に動作させてこの発明の清掃機能、走行機能などを実行する。
記憶部61は、自走式掃除機1の各種機能を実現するために必要な情報や、制御プログラムを記憶するメモリである。この実施形態では、不揮発性メモリとしてフラッシュメモリとRAMとが組み合わせて用いられる。記憶部61は、位置情報データベース格納部61aおよびクエリ格納部61bを含む。
なお、図1には図示していないが、記憶部61は、目標位置の候補となる候補位置で撮影された画像に係る特徴点を、各候補位置を目標として選択する場合に用いる選択指示と関連付けてそれぞれ記憶する候補位置記憶部を含んでもよい。
The CPU executes processing based on a control program stored in advance in a storage unit 61, which will be described later, and developed in the RAM, and organically operates each hardware to execute the cleaning function, the traveling function, and the like of the present invention.
The storage unit 61 is a memory that stores information necessary for realizing various functions of the self-propelled cleaner 1 and a control program. In this embodiment, a flash memory and a RAM are used in combination as the nonvolatile memory. The storage unit 61 includes a location information database storage unit 61a and a query storage unit 61b.
Although not illustrated in FIG. 1, the storage unit 61 includes selection instructions used when selecting feature points related to an image captured at candidate positions that are candidates for target positions, with each candidate position as a target. You may include the candidate position memory | storage part which each associates and memorize | stores.
障害検出部14は、超音波受信部14A、超音波送信部14B、衝突センサー14Cおよび床面検出センサー18を備える。床面検出センサー18は、筐体2の底部における左右方向の中央かつ前端部および左右のサイドブラシ10の軸心位置にそれぞれ配置されている。
障害検出部14、特に超音波受信部14Aおよび超音波送信部14Bは、自走式掃除機1が走行中に、室内の壁や机、いすなどの障害物に接触又は近づいたことを検出する部分である。壁面や障害物を検出しながらそれに沿って自走式掃除機1が走行するために用いられる。また、超音波受信部14Aは、障害物までのおおよその距離を測定することができる。障害検出部14は、超音波受信部14Aおよび超音波送信部14Bを用いて障害物への近接を検出する。超音波受信部14Aおよび超音波送信部14Bに代えて、あるいは超音波受信部14Aおよび超音波送信部14Bと共に、赤外線測距センサーなど他の方式の非接触センサーを用いてもよい。
衝突センサー14Cは、自走式掃除機1が走行時に障害物と接触したことを検出するために、例えば、筐体2の側板前半部2c1の内部に配置される。CPUは、衝突センサー14Cからの出力信号に基づいて側板前半部2c1が障害物に衝突したことを知る。
The failure detection unit 14 includes an ultrasonic reception unit 14A, an ultrasonic transmission unit 14B, a collision sensor 14C, and a floor surface detection sensor 18. The floor surface detection sensor 18 is disposed at the center in the left-right direction at the bottom of the housing 2 and at the front end and the axial center position of the left and right side brushes 10.
The obstacle detector 14, particularly the ultrasonic receiver 14A and the ultrasonic transmitter 14B, detects that the self-propelled cleaner 1 is in contact with or approaching an obstacle such as an indoor wall, desk, or chair while traveling. Part. It is used for the self-propelled cleaner 1 to travel along the wall or obstacle while detecting it. Further, the ultrasonic receiving unit 14A can measure the approximate distance to the obstacle. The obstacle detector 14 detects proximity to the obstacle using the ultrasonic receiver 14A and the ultrasonic transmitter 14B. Instead of the ultrasonic receiving unit 14A and the ultrasonic transmitting unit 14B, or together with the ultrasonic receiving unit 14A and the ultrasonic transmitting unit 14B, other types of non-contact sensors such as an infrared distance measuring sensor may be used.
The collision sensor 14 </ b> C is disposed, for example, inside the side plate front half 2 c 1 of the housing 2 in order to detect that the self-propelled cleaner 1 has come into contact with an obstacle during traveling. The CPU knows that the side plate front half 2c 1 has collided with the obstacle based on the output signal from the collision sensor 14C.
各床面検出センサー18は下り階段等、自走式掃除機1が回避して走行すべき大きな段差を検出する。
CPUは、障害検出部14から出力された信号に基づいて、障害物や段差の存在する位置を認識する。認識された障害物や段差の位置に基づいて、その障害物や段差を避けて次に走行すべき方向を決定する。なお、左右の床面検出センサー18は、段差に対して斜め方向に侵入した場合など前方の床面検出センサー18が段差の検出に失敗した場合に下り階段を検出し、自走式掃除機1の下り階段への落下を防止する。
ジャイロセンサー20は、自走式掃除機1が走行するとき走行方向の情報を走行制御部11aに提供する。
さらにまた、自走式掃除機1は、誘導信号受信部24、充電用接続部13、報知部55、電動送風機115、ブラシモータ119およびイオン発生器120を備える。さらに、無線通信部131、撮像部133および音声認識部135を備える。
左輪駆動モータ21Lは、左駆動輪22Lを回転および停止させ、右輪駆動モータ21Rは、右駆動輪22Rを回転および停止させる。左駆動輪22Lおよび右駆動輪22Rを独立して正逆両方向に回転させ得るように駆動モータを構成することにより、自走式掃除機1の前進、後退、旋回、加減速などの走行状態を実現している。
Each floor surface detection sensor 18 detects a large level difference such as a descending staircase that the self-propelled cleaner 1 should avoid and travel.
The CPU recognizes a position where an obstacle or a step exists based on the signal output from the obstacle detection unit 14. Based on the position of the recognized obstacle or step, the direction to travel next is determined while avoiding the obstacle or step. The left and right floor surface detection sensors 18 detect the descending stairs when the front floor surface detection sensor 18 fails to detect the level difference, for example, when the floor level detection sensor 18 has entered the diagonal direction with respect to the level difference, and the self-propelled cleaner 1 Prevent falling to the downstairs.
The gyro sensor 20 provides travel direction information to the travel control unit 11a when the self-propelled cleaner 1 travels.
Furthermore, the self-propelled cleaner 1 includes an induction signal receiving unit 24, a charging connection unit 13, a notification unit 55, an electric blower 115, a brush motor 119, and an ion generator 120. Furthermore, a wireless communication unit 131, an imaging unit 133, and a voice recognition unit 135 are provided.
The left wheel drive motor 21L rotates and stops the left drive wheel 22L, and the right wheel drive motor 21R rotates and stops the right drive wheel 22R. By configuring the drive motor so that the left drive wheel 22L and the right drive wheel 22R can be independently rotated in both forward and reverse directions, the traveling state of the self-propelled cleaner 1 such as forward, backward, turning, acceleration / deceleration, etc. Realized.
走行制御部11aは、右駆動輪22Rおよび左駆動輪22Lを同一方向に正回転させて、中央の超音波受信部14Aが配置されている前方へ自走式掃除機1を走行させる。また、左駆動輪22Lおよび右駆動輪22Rを同一方向に逆回転して後退させ、互いに逆方向に回転させまたは互いに異なる速度で回転させることにより自走式掃除機1を旋回させる。互いに異なる速度は一方の駆動輪が停止する場合を含む。
例えば、走行制御部11aは、障害検出部14の各センサーにより掃除領域の周縁に到達したと判断したら、左駆動輪22Lおよび右駆動輪22Rを減速させた後に停止させる。その後、左駆動輪22Lおよび右駆動輪22Rを互いに逆方向に回転させて自走式掃除機1を90°旋回させ、吸込口31の開口幅に等しい距離だけ進んでさらに90°旋回させて元の進路と逆方向へ走行させる。つづら折り状に前述の旋回を繰り返して自走式掃除機1をジグザグ走行させて、清掃領域内をくまなく清掃できるように制御する。
さらに自走式掃除機1は左輪エンコーダ71Lおよび右輪エンコーダ71Rを備えているので、左駆動輪22Lおよび右駆動輪22Rがそれぞれどれだけ回転したかを検出して自走式掃除機1が走行する際の旋回角を検出したり、移動した距離を検出したりできる。つまり、ホームポジションから目標位置までの距離と方向が与えられると、その目標位置へ自律的に移動することが可能である。
The traveling control unit 11a causes the right driving wheel 22R and the left driving wheel 22L to rotate forward in the same direction, and causes the self-propelled cleaner 1 to travel forward in which the central ultrasonic receiving unit 14A is disposed. Further, the left driving wheel 22L and the right driving wheel 22R are rotated backward in the same direction and moved backward, and rotated in the opposite directions or rotated at different speeds to turn the self-propelled cleaner 1. The different speeds include the case where one drive wheel stops.
For example, when the traveling control unit 11a determines that each sensor of the failure detection unit 14 has reached the periphery of the cleaning area, the traveling control unit 11a decelerates the left driving wheel 22L and the right driving wheel 22R and then stops them. After that, the left driving wheel 22L and the right driving wheel 22R are rotated in opposite directions to turn the self-propelled cleaner 1 by 90 °, advance by a distance equal to the opening width of the suction port 31, and further turn by 90 °. Drive in the opposite direction to the course of The self-propelled cleaner 1 is zigzag-running by repeating the above-mentioned turning in a zigzag shape, and is controlled so that the entire cleaning area can be cleaned.
Furthermore, since the self-propelled cleaner 1 includes the left wheel encoder 71L and the right wheel encoder 71R, the self-propelled cleaner 1 travels by detecting how much the left driving wheel 22L and the right driving wheel 22R have rotated. It is possible to detect the turning angle and the distance moved. That is, given the distance and direction from the home position to the target position, it is possible to move autonomously to the target position.
また、障害検出部14が進路上の障害物を検出した場合、走行制御部11aは自走式掃除機1を減速もしくは停止させた後に旋回させて障害物を避けるように向きを変える。その障害物が検知されなくなるまで進んだら元の進路の延長上へ近づける方向へ自走式掃除機1を旋回させて走行を続ける。また、各床面検出センサー18が床面を検知しなくなった場合、自走式掃除機1を一旦停止させて後退および/または旋回させ、階段等の段差から落下しないように走行を制御する。このようにして、走行制御部11aは、設置場所の全体あるいは所望範囲全体に渡って障害物を避けながら自走式掃除機1を走行させる。
なお、この実施形態で、前方とは、自走式掃除機1の前進方向、即ち図3において後輪26から吸込口31へ向かう方向をいうものとし、後方とは、自走式掃除機1の後退方向、即ち図3において吸込口31から後輪26へ向かう方向をいうものとする。
Further, when the obstacle detection unit 14 detects an obstacle on the course, the traveling control unit 11a turns the self-propelled cleaner 1 after decelerating or stopping and turns to avoid the obstacle. When the obstacle is detected until it is no longer detected, the self-propelled cleaner 1 is turned in a direction to approach the extension of the original course, and the traveling is continued. When each floor surface detection sensor 18 no longer detects the floor surface, the self-propelled cleaner 1 is temporarily stopped and moved backward and / or turned to control traveling so as not to fall from a step such as stairs. In this way, the travel control unit 11a causes the self-propelled cleaner 1 to travel while avoiding obstacles over the entire installation location or the entire desired range.
In this embodiment, the front means the forward direction of the self-propelled cleaner 1, that is, the direction from the rear wheel 26 to the suction port 31 in FIG. 3, and the rear means the self-propelled cleaner 1. 3, that is, the direction from the suction port 31 toward the rear wheel 26 in FIG. 3.
誘導信号受信部24は、赤外線を受信するための赤外線センサーであり、筐体2の前方部に配置される。誘導信号受信部24は、ドッキング・ステーションとしての充電台201の誘導信号送出部203から出射される位置標識信号(ビーコン)等を受信する。さらに、図1に図示しないリモコン装置からの赤外線信号を受信してもよい。機器制御部11は、受信されたリモコンからの赤外線信号を認識して、ユーザーが与えた指示に応答する。
機器制御部11は、充電台201の誘導信号送出部203から出射される信号を誘導信号受信部24で検知し、充電台201のある方向を認識する。走行制御部11aは、掃除が終了した場合、充電池12の充電残量が少なくなった場合、あるいは予め定められた清掃作業の期間が経過した場合などに、充電台201のある方向へ走行させて、自走式掃除機1を充電台201まで帰還させる。ただし、障害物があれば、それを避けながら充電台201の方向へ移動させる。
報知部55は、自走式掃除機1の状態をユーザーに知らせるものである。この実施形態において、報知部55は、音を出力する音響出力回路とスピーカである。別の態様として、筐体2の上部、より具体的には例えば天板前部2b1や側板後半部2c2にLEDランプ等を用いた表示部を設けてもよい。さらに別の態様として、ユーザーの所有するスマートフォン等通信機能を有する情報処理装置に無線通信部131を通じて通知してもよい。
The induction signal receiving unit 24 is an infrared sensor for receiving infrared rays, and is disposed in the front part of the housing 2. The induction signal receiving unit 24 receives a position indicator signal (beacon) and the like emitted from the induction signal transmission unit 203 of the charging stand 201 as a docking station. Furthermore, you may receive the infrared signal from the remote control apparatus which is not illustrated in FIG. The device control unit 11 recognizes the received infrared signal from the remote controller and responds to an instruction given by the user.
The device control unit 11 detects a signal emitted from the induction signal sending unit 203 of the charging stand 201 by the induction signal receiving unit 24 and recognizes the direction in which the charging stand 201 is located. The travel control unit 11a travels in the direction in which the charging stand 201 is located when cleaning is completed, when the remaining charge of the rechargeable battery 12 is reduced, or when a predetermined cleaning operation period has elapsed. The self-propelled cleaner 1 is returned to the charging stand 201. However, if there is an obstacle, it is moved in the direction of the charging base 201 while avoiding it.
The notification unit 55 notifies the user of the state of the self-propelled cleaner 1. In this embodiment, the notification unit 55 is a sound output circuit that outputs sound and a speaker. In another embodiment, the upper portion of the housing 2, may be more specifically, provided with a display unit using an LED lamp or the like, for example, top plate front portion 2b 1 and the side plate half portion 2c 2. As yet another aspect, an information processing apparatus having a communication function such as a smartphone owned by the user may be notified through the wireless communication unit 131.
無線通信部131は、自走式掃除機1が外部の機器と通信する無線通信回路である。典型例として、無線LAN方式の通信回路が挙げられる。それに代えて、あるいはそれに加えて、例えばLTEなどの移動体通信の通信方式で通信するものであってもよい。外部の機器は、例えば、ユーザーが使用するスマートフォンである。無線通信部131は、前記スマートフォンを用いてユーザーが与えた指示に係る無線信号を受信する。機器制御部11は、受信した無線信号を認識して、前記指示に応答する。
なお、図1には図示していないが、無線通信部131は、目標へ走行すべき走行指示を受付ける指示受領部としての機能を包含してもよい。
撮像部133の具体的態様は、機器組込型のカメラモジュールである。静止画だけでなく、動画撮影が可能であってもよい。撮像部133は、図2に示すように誘導信号受信部24の上方に取り付けられ、自走式掃除機1の上方および周囲の光景を撮影する。撮像部133としてのカメラモジュールは広角レンズを備えており、上方だけでなく側方の光景も撮影する。
音声認識部135は、ユーザーが発する音声を感知して予め定められた指示か否かを認識するマイクおよび音声認識回路である。図1には図示していないが、音声認識部は、目標へ走行すべき走行指示を受付ける指示受領部としての機能を包含してもよい。即ち、指示受領部としての機能は、前述の無線通信部131によって実現されてもよく、この音声認識部135によって実現されてもよく、両者がそれぞれ指示受領部の機能を実現してもよい。
以上が、この実施形態に係る自走式掃除機の構成の説明である。
The wireless communication unit 131 is a wireless communication circuit in which the self-propelled cleaner 1 communicates with an external device. A typical example is a wireless LAN communication circuit. Alternatively or in addition, communication may be performed using a mobile communication method such as LTE. The external device is, for example, a smartphone used by the user. The wireless communication unit 131 receives a wireless signal related to an instruction given by a user using the smartphone. The device control unit 11 recognizes the received radio signal and responds to the instruction.
Although not illustrated in FIG. 1, the wireless communication unit 131 may include a function as an instruction receiving unit that receives a travel instruction to travel to a target.
A specific mode of the imaging unit 133 is a device built-in camera module. It may be possible to shoot not only still images but also moving images. As shown in FIG. 2, the imaging unit 133 is attached above the induction signal receiving unit 24 and photographs the scenes above and around the self-propelled cleaner 1. The camera module as the imaging unit 133 includes a wide-angle lens, and photographs a side view as well as the upper side.
The voice recognition unit 135 is a microphone and a voice recognition circuit that recognizes whether or not a predetermined instruction is detected by detecting a voice uttered by the user. Although not shown in FIG. 1, the voice recognition unit may include a function as an instruction receiving unit that receives a travel instruction to travel to a target. That is, the function as the instruction receiving unit may be realized by the wireless communication unit 131 described above, or may be realized by the voice recognition unit 135, and both may realize the function of the instruction receiving unit.
The above is description of the structure of the self-propelled cleaner concerning this embodiment.
充電台についても少し述べておく。充電台201は、充電端子部202および誘導信号送出部203を備える。充電台201に自走式掃除機1がドッキングすること、即ち、充電台201の充電端子部202と自走式掃除機1の充電用接続部13とが電気的に接触することにより、自走式掃除機1は充電台201からの電力の供給を受ける。充電台201にドッキングした状態で、自走式掃除機1の充電池12が充電される。誘導信号送出部203は、ビーコン信号を生成する信号生成回路と生成された赤外光信号を放射するLEDからなる。
充電台201は、一般に部屋の隅など、邪魔にならない場所に置かれることが多く、一旦置き位置が決めたらずっとその位置に置かれることが多い。自走式掃除機1は掃除が終わると充電のために充電台201に帰還し、充電池12を充電する。つまり、自走式掃除機1は掃除をしていないときは充電台で充電池12の充電をしながら待機している。
A few things about the charging stand. The charging stand 201 includes a charging terminal unit 202 and an induction signal sending unit 203. The self-propelled cleaner 1 is docked on the charging stand 201, that is, the charging terminal portion 202 of the charging stand 201 and the charging connection portion 13 of the self-propelled cleaner 1 are in electrical contact with each other. The vacuum cleaner 1 is supplied with electric power from the charging stand 201. The rechargeable battery 12 of the self-propelled cleaner 1 is charged while being docked on the charging stand 201. The induction signal transmission unit 203 includes a signal generation circuit that generates a beacon signal and an LED that emits the generated infrared light signal.
In general, the charging stand 201 is often placed in an unobstructed place such as a corner of a room, and once the placement position is determined, it is often placed at that position. When cleaning is completed, the self-propelled cleaner 1 returns to the charging stand 201 for charging and charges the rechargeable battery 12. That is, the self-propelled cleaner 1 stands by while charging the rechargeable battery 12 at the charging stand when not cleaning.
≪位置情報データベース作成の概要≫
次に、この実施形態において位置情報データベースを作成する手順の概要を説明する。
位置情報データベースの作成は、自走式掃除機1が走行する部屋の複数の位置、好ましくは実質的に任意の位置といえる程多数の位置において、撮像部133が撮影する周囲の光景をデータベースに登録する処理である。平易にいえば、自走式掃除機にその部屋の各位置における光景を覚えさせる処理ともいえる。
位置情報データベースを作成する指示が、例えばユーザーの「部屋の特長を覚えて」という音声メッセージとして予め定められているとする。音声認識部135がこの音声を受けて指示と認識すると、それに応答して機器制御部11は、走行制御部11aとしてホームポジションから予め決められたルールに従って自走式掃除機1を部屋内の各所に走行させる。そして、撮像部133に各位置での光景を撮影させる。さらに機器制御部11は特徴点抽出部11cとして、撮影された各位置での画像から特徴点をそれぞれ抽出する。その画像が部屋内のどの位置で撮影されたものかを示す部屋座標は、左輪エンコーダ71Lおよび右輪エンコーダ71Rからのエンコーダ信号を用いて位置検出部11bとしての機器制御部11が検出する。位置検出部11bは、さらにジャイロセンサー20を用いて部屋座標の精度を高めてもよい。
≪Overview of location information database creation≫
Next, an outline of a procedure for creating a position information database in this embodiment will be described.
The position information database is created by using, as a database, surrounding scenes photographed by the imaging unit 133 at a plurality of positions in the room where the self-propelled cleaner 1 travels, preferably at a number of positions that can be said to be substantially arbitrary positions. It is a process to register. To put it simply, it can be said that the self-propelled cleaner remembers the scene at each position in the room.
It is assumed that the instruction to create the location information database is predetermined as a voice message “Remember the room features” by the user, for example. When the voice recognition unit 135 receives this voice and recognizes it as an instruction, in response to this, the device control unit 11 sets the self-propelled cleaner 1 in various places in the room as a travel control unit 11a according to a rule determined in advance from the home position. To run. Then, the image capturing unit 133 is caused to capture a scene at each position. Further, the device control unit 11 extracts feature points from the captured images at the respective positions as the feature point extraction unit 11c. The room coordinates indicating where in the room the image was taken are detected by the device control unit 11 as the position detection unit 11b using encoder signals from the left wheel encoder 71L and the right wheel encoder 71R. The position detection unit 11b may further increase the accuracy of the room coordinates using the gyro sensor 20.
機器制御部11は、各位置で撮影された画像から抽出された複数の特徴点につて、各特徴点が抽出された画像内の位置を表す特徴点情報と、室内の位置を示す部屋座標とを関連付けて位置情報データベース格納部61aに格納する。特徴点情報は、各特徴点の前記画像内の位置を示す特徴点座標と、画像内の各特徴点の配置関係を示す情報(距離情報)とを有する。
部屋内のある位置で撮影された画像に基づいて作成された特徴点情報とその位置を表す部屋座標とが関連付けられた情報をその位置の位置情報と呼ぶ。機器制御部11は、各撮影位置における位置情報を位置情報データベース格納部61aに格納する。部屋内の複数の位置において位置情報を作成して位置情報データベース格納部61aに格納する処理を「位置情報データベースの作成」という。
The device control unit 11 has, for a plurality of feature points extracted from an image captured at each position, feature point information indicating the position in the image from which each feature point is extracted, and room coordinates indicating the indoor position. Are stored in the positional information database storage unit 61a. The feature point information includes feature point coordinates indicating the position of each feature point in the image, and information (distance information) indicating the arrangement relationship of each feature point in the image.
Information in which feature point information created based on an image taken at a certain position in the room is associated with room coordinates representing the position is referred to as position information of the position. The device control unit 11 stores the position information at each photographing position in the position information database storage unit 61a. The process of creating position information at a plurality of positions in the room and storing it in the position information database storage unit 61a is referred to as “creation of a position information database”.
この実施形態における位置情報データベースの作成の手順は次の通りである。
充電台201とドッキングした状態で位置情報データベースの作成を求める指示を受付けると、機器制御部11は走行制御部11aとして、自走式掃除機1を部屋内の各所に走行させるように制御する。掃除を行う場合にも、自走式掃除機1は部屋内をくまなく走行して掃除を行うので、位置情報データベースを作成する場合と掃除を行う場合とで同じ走行パターンを適用してもよい。このとき、部屋内の走行面を予め定められたサイズの縦横マトリクス状に区画割りし、区画毎に写真を撮影して特徴点を抽出して特徴点情報を作成し、特徴点情報と部屋座標とが関連付けられた位置情報を位置情報データベースに格納していく。
The procedure for creating the location information database in this embodiment is as follows.
When receiving an instruction to create a position information database while docked with the charging stand 201, the device control unit 11 controls the travel control unit 11a to travel the self-propelled cleaner 1 to various places in the room. Even when cleaning is performed, the self-propelled cleaner 1 travels through the room and cleans it. Therefore, the same traveling pattern may be applied when the position information database is created and when the cleaning is performed. . At this time, the running surface in the room is divided into vertical and horizontal matrices of a predetermined size, a feature point information is created by taking a picture for each section and extracting feature points, and the feature point information and room coordinates Is stored in the position information database.
図7は、この実施形態において、自走式掃除機1が走行する部屋の間取りの一例と区画を示す説明図である。図7に示す部屋300には、テーブル301、ソファー303、テレビ305、本棚307、空気清浄機309といった家具類が置かれている。これらの家具類は、自走式掃除機1にとって障害物であり、例えばテレビ305の置台のある場所は走行できない。また、部屋の隅(図7の右上の隅)には、充電台201が置かれている。部屋300内を縦横に走る鎖線で区切られた矩形領域は、区画の単位を示している。家具類は実体があるが、区画は仮想的なものである。
この実施形態において、位置情報データベースの作成の際に自走式掃除機1が部屋内を走行するルールは、予め定められた間隔(ピッチ)で往復路をシフトさせながらジグザグ運転を行うことを基本とする。即ち、自走式掃除機1は、走行路前方に障害物が検出されるまでは直進し、障害物である壁を検出したらその障害物との衝突を避けるように側方(この実施形態では右側とする)へ90°旋回する。そして、予め定められたピッチの30cmだけ進むとさらに右側へ90°旋回して折り返す。その後、再び障害物を見つけるまで直進するといったルールに従って走行する。
FIG. 7 is an explanatory diagram showing an example of a room layout and sections where the self-propelled cleaner 1 travels in this embodiment. In a room 300 illustrated in FIG. 7, furniture such as a table 301, a sofa 303, a television 305, a bookshelf 307, and an air purifier 309 are placed. These furnitures are obstacles for the self-propelled cleaner 1, and for example, a place where the TV 305 is placed cannot run. A charging stand 201 is placed at the corner of the room (upper right corner in FIG. 7). A rectangular area separated by a chain line running vertically and horizontally in the room 300 indicates a unit of partition. Furniture is substantial, but the sections are virtual.
In this embodiment, the rule that the self-propelled cleaner 1 travels in the room when creating the position information database is basically to perform a zigzag operation while shifting the round-trip path at a predetermined interval (pitch). And In other words, the self-propelled cleaner 1 goes straight until an obstacle is detected in front of the traveling path, and when a wall that is an obstacle is detected, the self-propelled cleaner 1 avoids a collision with the obstacle (in this embodiment, the side). Turn 90 ° to the right. And if it advances only 30 cm of the predetermined pitch, it will turn 90 degrees to the right side and it will return. Then run according to the rule that you go straight until you find an obstacle again.
位置検出部11bは、走行した経路の部屋座標を検出する。走行制御部11aは、基本のジグザグ運転を続けて自走式掃除機1がホームポジションの反対側の隅まで部屋内を走行したと判断したら、ホームポジションからのジグザグ運転中に障害物を回避するために走行しなかった領域の走行を試みる。障害物を回避するために折り返してしまった床面の領域が残っている場合、その領域を走行するためである。
なお、位置情報データベースを作成する際のジグザグ運転の折返しピッチ、言い換えれば区画のピッチは、掃除を行う場合の折返しピッチと同じであってもよいが異なってもよい。
The position detection unit 11b detects room coordinates of the traveled route. If the traveling control unit 11a continues the basic zigzag operation and determines that the self-propelled cleaner 1 has traveled in the room to the corner on the opposite side of the home position, the traveling control unit 11a avoids an obstacle during the zigzag operation from the home position. Trying to travel in areas that did not travel. This is because when a floor area that has been folded back to avoid an obstacle remains, the vehicle travels in that area.
Note that the zigzag operation folding pitch when creating the position information database, in other words, the section pitch may be the same as or different from the folding pitch for cleaning.
図8は、この実施形態における自走式掃除機1が位置情報データベースを作成する際、ホームポジションからスタートして各区画で順次撮影を行う様子を示す説明図である。図8で、充電台201を始点とする矢印は自走式掃除機1の走行路を示している。その矢印に沿って並ぶ丸印は、各区画で機器制御部11が撮像部133に撮影をさせる位置を示す。図8に示すように、機器制御部11は、自走式掃除機1をジグザグ走行させて、1区画進む毎にその区画に対応する光景を撮像部133に撮影させる。そして、部屋座標と関連付けた位置情報を位置情報データベース格納部61aに格納する。
図8に示す縦横マトリックス状の区画は、一つの区画の大きさが縦横それぞれ30cmであるとする。その場合、機器制御部11は、自走式掃除機1が30cm直進する毎にその位置で撮像部133に周囲の光景を撮影させる。30cm直進したことは、位置検出部11bが検出した現在位置の部屋座標を前回撮影した位置の部屋座標と比較して判断する。そして、特徴点抽出部11cは、撮影された画像から特徴点を抽出する。そして、抽出された複数の特徴点の画像内におけるそれぞれの座標値(特徴点座標)とそれらの特徴点の配置関係とを表す特徴点情報を作成する。なお、この明細書において特徴点座標を表す場合には、大文字のXおよびYを用いることとする。図6Aおよび図6Bで、部屋内の自走式掃除機1の位置を表す部屋座標に小文字のxおよびyを用いたので、それとの区別を明確にするためである。
FIG. 8 is an explanatory diagram showing a state in which the self-propelled cleaner 1 in this embodiment starts photographing from the home position and sequentially performs photographing in each section when creating the position information database. In FIG. 8, an arrow starting from the charging stand 201 indicates the traveling path of the self-propelled cleaner 1. Circles lined up along the arrows indicate positions where the device control unit 11 causes the imaging unit 133 to capture images in each section. As shown in FIG. 8, the device control unit 11 causes the self-propelled cleaner 1 to travel in a zigzag manner and causes the imaging unit 133 to capture a scene corresponding to the section every time the section is advanced. And the positional information linked | related with the room coordinate is stored in the positional information database storage part 61a.
The vertical and horizontal matrix-shaped sections shown in FIG. 8 are assumed to have a size of 30 cm in both vertical and horizontal directions. In that case, every time the self-propelled cleaner 1 goes straight 30 cm, the device control unit 11 causes the imaging unit 133 to photograph a surrounding scene at that position. The fact that the vehicle has traveled 30 cm straight is determined by comparing the room coordinates of the current position detected by the position detection unit 11b with the room coordinates of the previously photographed position. Then, the feature point extraction unit 11c extracts feature points from the captured image. Then, feature point information representing each coordinate value (feature point coordinates) in the image of the plurality of extracted feature points and the arrangement relationship of these feature points is created. In this specification, capital letters X and Y are used to represent the feature point coordinates. In FIG. 6A and FIG. 6B, the lower case x and y are used for the room coordinates indicating the position of the self-propelled cleaner 1 in the room, so that the distinction from the lower case is made clear.
機器制御部11は、ある画像に係る特徴点情報を作成する際に、その画像内の特徴点の配置関係を表す距離情報を作成する。この実施形態において距離情報は、同じ画像に含まれる2つの特徴点の距離をすべての特徴点について計算したデータである。特徴点情報は、それぞれの特徴点についてその特徴点の位置を示す特徴点座標を含む。さらに、その特徴点と画像内の全ての特徴点との間の距離を表す距離情報を含む。特徴点情報は、同じ画像内のすべての特徴点について特徴点座標と距離情報とをそれぞれ組み合わせてなる情報である。位置情報は、位置検出部が検出した部屋座標(撮影位置のxおよびy座標値)を前記特徴点情報と関連付けた情報であり、位置情報データベースは部屋内の各位置における位置情報を格納するデータベースである。
機器制御部11は、自走式掃除機1を走行させながら走行可能な区画の位置情報と部屋座標とを位置情報データベース格納部61aに格納していく。ただし、現在位置が既に位置情報データベース格納部61aに格納された区画内であれば、重複した撮影および位置情報の格納は行わない。このようにして、部屋内の走行可能な領域の各区画について位置情報を位置情報データベース格納部61aに格納したら、機器制御部11は、自走式掃除機1を充電台201に帰還させてホームポジションへ戻す。
以上が、位置情報データベース作成の概要である。
When creating the feature point information relating to a certain image, the device control unit 11 creates distance information representing the arrangement relationship of the feature points in the image. In this embodiment, the distance information is data obtained by calculating the distance between two feature points included in the same image for all feature points. The feature point information includes feature point coordinates indicating the position of each feature point. Furthermore, distance information representing the distance between the feature point and all the feature points in the image is included. The feature point information is information obtained by combining feature point coordinates and distance information for all feature points in the same image. The position information is information that associates the room coordinates (x and y coordinate values of the shooting position) detected by the position detection unit with the feature point information, and the position information database stores the position information at each position in the room. It is.
The equipment control unit 11 stores the position information and room coordinates of the sections that can be traveled while the self-propelled cleaner 1 is traveling in the position information database storage unit 61a. However, if the current position is already within the section stored in the position information database storage unit 61a, duplicate shooting and position information are not stored. In this way, when the position information is stored in the position information database storage unit 61a for each section of the travelable area in the room, the device control unit 11 returns the self-propelled cleaner 1 to the charging base 201 to return to the home. Return to position.
The above is the outline of creating the position information database.
≪目標位置の学習≫
上述のように作成された位置情報データベースは、自走式掃除機1を走行させるべき目標位置を決定するために用いられる。
この実施形態において、自走式掃除機1は、ユーザーの操作によって目標位置を学習する。一旦その目標位置を学習したら、その後ユーザーが指示を与えるだけで、自走式掃除機1は学習した位置へ走行することが可能になる。学習させる目標位置は1つに限らない。複数の位置を学習させておくことができる。自走式掃除機1に学習させた位置は、その後の目標位置となり得るので候補位置とよぶ。
≪Learning the target position≫
The position information database created as described above is used to determine a target position where the self-propelled cleaner 1 should travel.
In this embodiment, the self-propelled cleaner 1 learns a target position by a user operation. Once the target position is learned, the self-propelled cleaner 1 can travel to the learned position simply by giving an instruction thereafter. The target position to be learned is not limited to one. A plurality of positions can be learned. Since the position learned by the self-propelled cleaner 1 can be a target position thereafter, it is called a candidate position.
候補位置を学習させる段階で、ユーザーは自走式掃除機1を候補位置へ持って行く。候補位置の床面に自走式を置いた状態で、その位置を学習するように自走式掃除機1に指示をする。例えば、ユーザーが「ソファー前だよ、この場所を覚えて」と音声で指示を与える。
音声認識部135がこの音声を受けて指示と認識すると、指示に応答して自走式掃除機1は、その位置で撮像部133により周囲の光景を撮影する。さらに、撮影された画像から複数の特徴点を抽出し、抽出された各特徴点に係る特徴点情報を作成し、さらに特徴点情報を用いて距離情報を作成し、クエリ格納部61bに格納する。ここで、特徴点を抽出する手法、特徴点情報および距離情報の作成手順は、位置情報データベースの作成の局面と同様の処理である。
目標位置決定部11dとして機器制御部11は、クエリ格納部61bに格納された距離情報に最も類似する距離情報を持つ位置情報を位置情報データベースの中から検索する。この明細書では、この処理を「位置の推定」という。即ち、候補位置での距離情報に基づいて最近傍探索の処理を行う。なお、探索に要する処理時間やメモリ量を削減するために厳密な最近傍探索に代えて近似最近傍探索を行ってもよい。
At the stage where the candidate position is learned, the user takes the self-propelled cleaner 1 to the candidate position. In a state where the self-propelled type is placed on the floor surface of the candidate position, the self-propelled cleaner 1 is instructed to learn the position. For example, the user gives an instruction by voice saying “I ’m in front of the sofa, remember this place”.
When the voice recognition unit 135 receives this voice and recognizes it as an instruction, the self-propelled cleaner 1 captures a surrounding scene by the imaging unit 133 at that position in response to the instruction. Further, a plurality of feature points are extracted from the captured image, feature point information relating to each extracted feature point is created, distance information is created using the feature point information, and stored in the query storage unit 61b. . Here, the feature point extraction method, the feature point information, and the distance information creation procedure are the same as those in the creation of the position information database.
As the target position determination unit 11d, the device control unit 11 searches the position information database for position information having distance information most similar to the distance information stored in the query storage unit 61b. In this specification, this process is referred to as “position estimation”. That is, the nearest neighbor search process is performed based on the distance information at the candidate position. Note that an approximate nearest neighbor search may be performed instead of a strict nearest neighbor search in order to reduce the processing time and memory required for the search.
そして、探索処理によって位置情報データベース中のから見出した位置情報に格納されている部屋座標(xおよびy座標)を、目標位置として決定し、その部屋座標を候補位置の部屋座標として記憶部61に格納する。
さらに、学習した候補位置を他の候補位置と識別するキーワードと関連付ける。即ち、「ソファー前だよ」の部分から、学習した位置を候補位置の部屋座標と関連付けて記憶部61に格納する。
あるいは、ユーザーが単に「この位置を覚えて」という指示を与えると、それに応答して画像を撮影して特徴点を抽出し、位置情報データベースを検索して部屋座標を決定する。その後、機器制御部11は、報知部55に「この位置の名前を言って!」と質問の音声メッセージを出力させる。それに応えてユーザーが、例えば「テレビの前」と言うと、音声認識部135がその音声を認識する。機器制御部11は、認識した音声を候補位置の部屋座標と関連付けて記憶部61に格納する。
Then, the room coordinates (x and y coordinates) stored in the position information found from the position information database by the search process are determined as the target position, and the room coordinates are stored in the storage unit 61 as the room coordinates of the candidate position. Store.
Further, the learned candidate position is associated with a keyword that identifies the candidate position from other candidate positions. That is, the learned position is stored in the storage unit 61 in association with the room coordinates of the candidate position from the portion “Before the sofa”.
Alternatively, when the user simply gives an instruction “remember this position”, in response to this, an image is taken to extract a feature point, and a position information database is searched to determine room coordinates. After that, the device control unit 11 causes the notification unit 55 to output a voice message asking “Please say the name of this position!”. In response, when the user says, for example, “in front of the television”, the voice recognition unit 135 recognizes the voice. The device control unit 11 stores the recognized voice in the storage unit 61 in association with the room coordinates of the candidate position.
以後、ユーザーが「ソファー前を掃除して」という音声を発すると、音声認識部135がユーザーの音声を受付けて「ソファー前」へ移動して「掃除」するようにとの指示と認識する。走行制御部11aは、記憶部61に格納された候補位置のうち、「ソファー前」に関連付けられた部屋座標を検索して取得し、取得した部屋座標が示す位置へ自走式掃除機1を走行させた後、その周囲を掃除し、掃除を終えたらホームポジションに戻るように制御する。
同様に、ユーザーの「テレビの前を掃除して」の音声を認識すると、機器制御部11は、すでに学習したテレビの前の位置へ自走式掃除機1を走行させ、その周囲を掃除し、掃除を終えたらホームポジションに戻るように制御する。
Thereafter, when the user utters a voice “clean the front of the sofa”, the voice recognition unit 135 receives the user's voice and recognizes the instruction to move to “in front of the sofa” and “clean”. The traveling control unit 11a retrieves and acquires the room coordinates associated with “in front of the sofa” among the candidate positions stored in the storage unit 61, and moves the self-propelled cleaner 1 to the position indicated by the acquired room coordinates. After running, the surroundings are cleaned, and control is performed to return to the home position when cleaning is completed.
Similarly, when the user's voice “clean the front of the television” is recognized, the device control unit 11 causes the self-propelled cleaner 1 to travel to the position in front of the television that has already been learned, and cleans the surroundings. , Control to return to the home position after cleaning.
≪位置情報データベース作成の処理手順≫
さらに位置情報データベース作成のより詳しい処理を説明する。
位置情報データベースは、部屋内の各位置で撮像部133が撮影した周囲の光景の画像から得られる特徴点情報と、その撮影がなされた位置について位置検出部11bが検出した部屋座標原点からの相対位置とが紐付けられて登録されたデータベースである。
図9〜図11は、この実施形態において、機器制御部11が位置情報データベースを作成する際に実行する処理を示すフローチャートである。図9は全体の処理を示し、図10は特徴点情報の作成を示し、図11は距離情報の作成を示す。
≪Location information database creation process≫
Further detailed processing for creating the location information database will be described.
The position information database includes feature point information obtained from an image of a surrounding scene captured by the image capturing unit 133 at each position in the room and a relative position from the room coordinate origin detected by the position detecting unit 11b at the position where the image was captured. It is a database that is registered with the location linked.
9 to 11 are flowcharts showing processing executed when the device control unit 11 creates a position information database in this embodiment. FIG. 9 shows the overall processing, FIG. 10 shows the creation of feature point information, and FIG. 11 shows the creation of distance information.
図9のフローチャートに沿って、処理の手順を説明する。
ユーザーからの指示を受付けたら、機器制御部11は、その指示に応答して位置情報データベースの作成を行う。
はじめに機器制御部11は、以下の処理に用いる変数を初期化する。例えば、部屋座標の座標値を格納する一時変数xおよびyに、ホームポジションを示す座標値ゼロをセットする。また、自走式掃除機1の走行方向を表す変数Rに初期値ゼロをセットする。
ここで、変数Rは、0〜3の値をとり、各値は、
R=0:進行方向が、部屋座標のy軸のプラス方向(図6Aの上方向)
R=1:進行方向が、部屋座標のx軸のプラス方向(図6Aの右方向)
R=2:進行方向が、部屋座標のy軸のマイナス方向(図6Aの下方向)
R=3:進行方向が、部屋座標のx軸のマイナス方向(図6Aの左方向)
のようにxおよびy座標のプラスおよびマイナス方向を表すものとする。そして例えば、走行中前方に障害物を検出した場合、機器制御部11は、障害物を回避するために自走式掃除機1を90°右旋回させる。それと共に方向変数Rに1を加算する(ただし、R=3の場合はゼロにする)。
さらに機器制御部11は、自走式掃除機を180度旋回させた後に部屋内の走行を開始させる(ステップS11)。
A processing procedure will be described with reference to the flowchart of FIG.
When receiving an instruction from the user, the device control unit 11 creates a position information database in response to the instruction.
First, the device control unit 11 initializes variables used for the following processing. For example, the coordinate value zero indicating the home position is set in the temporary variables x and y storing the coordinate values of the room coordinates. Moreover, the initial value zero is set to the variable R representing the traveling direction of the self-propelled cleaner 1.
Here, the variable R takes a value from 0 to 3, and each value is
R = 0: the traveling direction is the positive direction of the y-axis of the room coordinates (upward direction in FIG. 6A)
R = 1: The traveling direction is the plus direction of the x axis of the room coordinates (the right direction in FIG. 6A).
R = 2: The traveling direction is the negative direction of the y-axis of the room coordinates (downward direction in FIG. 6A)
R = 3: The traveling direction is the minus direction of the x axis of the room coordinates (the left direction in FIG. 6A).
The positive and negative directions of the x and y coordinates are expressed as follows. For example, when an obstacle is detected in front of the vehicle during travel, the device control unit 11 turns the self-propelled cleaner 1 90 degrees to the right in order to avoid the obstacle. At the same time, 1 is added to the direction variable R (however, it is set to zero when R = 3).
Further, the device control unit 11 starts traveling in the room after turning the self-propelled cleaner 180 degrees (step S11).
部屋内を走行中に機器制御部11は、走行面の前方に障害物を検出したか否かを調べる(ステップS13)。障害物があれば(ステップS13のY)、その直前で自走式掃除機1を左または右へ90°旋回させてジグザグ走行を行うように制御する(ステップS15)。障害物がなければ(ステップS13のN)前進を続けて(ステップS17)、新たな区画の撮影位置に到達するまでそのまま前進させる。走行中、機器制御部11は、位置検出部11bとして左輪エンコーダ71Lおよび右輪エンコーダ71Rから得たエンコーダ信号に基づいて走行距離と走行方向を計算する。そして、自走式掃除機1が現在、ホームポジションを基準とする部屋座標のどの位置にいるかを計算する。部屋座標を算出する処理の詳細については後述する。
(ステップS19)。新たな区画の撮影位置に到達したら、その位置で既に位置情報を位置情報データベースに登録したか否かを調べる(ステップS21)。既に登録済の場合(ステップS21のY)、ルーチンはステップS29へ進む。
While traveling in the room, the device control unit 11 checks whether an obstacle is detected in front of the traveling surface (step S13). If there is an obstacle (Y in Step S13), the self-propelled cleaner 1 is controlled to turn left or right by 90 ° immediately before that to perform zigzag running (Step S15). If there is no obstacle (N in step S13), the process continues to proceed (step S17), and proceeds as it is until it reaches the imaging position of a new section. During traveling, the device control unit 11 calculates a traveling distance and a traveling direction based on encoder signals obtained from the left wheel encoder 71L and the right wheel encoder 71R as the position detection unit 11b. Then, the self-propelled cleaner 1 is currently calculated in which position in the room coordinates based on the home position. Details of the processing for calculating the room coordinates will be described later.
(Step S19). When the shooting position of a new section is reached, it is checked whether or not position information has already been registered in the position information database at that position (step S21). If already registered (Y in step S21), the routine proceeds to step S29.
その位置での位置情報が未登録の場合(ステップS21のN)、機器制御部11は、撮像部133にその位置の光景を撮影させる。さらに、特徴点抽出部11cとして、撮影された画像から特徴点を抽出して特徴点情報を作成する処理を行う(ステップS23)。特徴点情報を作成する詳細な処理は図10に示しており、図10の説明で詳しく述べるが、特徴点の画像中の位置(座標値)を、それぞれの特徴点について表す情報である。特徴点情報は、1つの画像から抽出された複数の特徴点の配列fp[]として表される。
さらに機器制御部11は、作成された特徴点情報に基づいて距離情報を作成する(ステップS25)。距離情報を作成する詳細な処理は図11に示しており、図11の説明で詳しく述べるが、1つの画像中の2つの特徴点の距離を全ての組合せについて表したものであり、2つの特徴点に対応する2次元配列ds[][]として表される。
When the position information at the position is not registered (N in Step S21), the device control unit 11 causes the image capturing unit 133 to capture a scene at the position. Further, the feature point extraction unit 11c performs a process of extracting feature points from the captured image and creating feature point information (step S23). Detailed processing for creating feature point information is shown in FIG. 10 and will be described in detail with reference to FIG. The feature point information is represented as an array fp [] of a plurality of feature points extracted from one image.
Furthermore, the device control unit 11 creates distance information based on the created feature point information (step S25). Detailed processing for creating the distance information is shown in FIG. 11 and will be described in detail in the description of FIG. It is represented as a two-dimensional array ds [] [] corresponding to the point.
そして、機器制御部11は、位置検出部11bとして検出したその位置の部屋座標を、特徴点情報、距離情報と関連付けて位置情報とし、位置情報を位置情報デーベース格納部61aに格納する(ステップS27)。
そして、部屋内の走行可能なすべての区画について位置情報を位置情報データベースに登録したか否かを判断する(ステップS29)。
まだ、走行を試みるべき区画が残っていれば(ステップS29のN)、ルーチンはステップS13へ戻り、障害物を避けながら走行して各区画での位置情報の登録を繰り返す。
一方、全ての区画が登録されたと判断したら(ステップS29のY)、処理を終了する。
Then, the device control unit 11 associates the room coordinates of the position detected as the position detection unit 11b with the feature point information and the distance information as position information, and stores the position information in the position information database storage unit 61a (Step S1). S27).
Then, it is determined whether or not the position information has been registered in the position information database for all the sections that can travel in the room (step S29).
If there are still sections to be traveled (N in Step S29), the routine returns to Step S13, travels while avoiding obstacles, and repeats registration of position information in each section.
On the other hand, if it is determined that all the sections have been registered (Y in step S29), the process ends.
≪部屋座標の算出≫
前述のステップS19で述べた部屋座標算出の詳細について述べる。
位置検出部11bは、自走式掃除機1のホームポジションからの相対位置を逐次検出する。
前回、自走式掃除機1の位置を検出してから、今回位置を検出するまでの間に、自走式掃除機が距離D走行したとする。この距離Dは、左輪エンコーダ71Lおよび右輪エンコーダ71Rからのエンコーダ信号に基づいて算出する。両者のエンコーダ信号のカウント数が等しければ直進していると判断する。両者の符号が異なるが絶対値が等しい場合、自走式掃除機が旋回していると判断する。ここで、エンコーダ信号の符号は駆動輪の回転方向を表すものとする。
≪Calculation of room coordinates≫
Details of the room coordinate calculation described in step S19 will be described.
The position detection unit 11b sequentially detects a relative position from the home position of the self-propelled cleaner 1.
It is assumed that the self-propelled cleaner has traveled a distance D between the last time the position of the self-propelled cleaner 1 was detected and the current position was detected. This distance D is calculated based on encoder signals from the left wheel encoder 71L and the right wheel encoder 71R. If the count numbers of both encoder signals are equal, it is determined that the vehicle is traveling straight. If the signs are different but the absolute values are equal, it is determined that the self-propelled cleaner is turning. Here, the code | symbol of an encoder signal shall represent the rotation direction of a driving wheel.
さらに、両者に差があれば、自走式掃除機1が走行方向を変えて走行したと判断する。両者の差に応じて変化した進行方向と走行距離を検出できる。進行方向が緩やかに変化する場合は左右の回転数を制御して直進しようとするので、説明を単純にするためにこの実施形態において走行パターンは直進と90°旋回のみとする。即ち、ここでは、自走式掃除機1はx軸またはy軸に沿って直進して距離Dだけ走行したものとする。 Furthermore, if there is a difference between the two, it is determined that the self-propelled cleaner 1 has traveled while changing the travel direction. It is possible to detect the direction of travel and the distance traveled according to the difference between the two. When the direction of travel changes slowly, the left and right rotational speeds are controlled to go straight, so for the sake of simplicity, in this embodiment, the travel pattern is only straight and 90 ° turn. That is, here, it is assumed that the self-propelled cleaner 1 travels straight along the x-axis or y-axis and travels a distance D.
位置検出部11bは、前回および今回の位置検出において進行方向を示す変数Rの値を参照する。仮定したように自走式掃除機1がx軸またはy軸に沿って直進しているので、前回と今回とで変数Rの値は等しい。前回位置を検出した際の部屋座標が(xi,yi)とするとき、
R=0の場合、今回の部屋座標(xj,yj)は、前回の部屋座標値に対してy座標値にDを加えた位置と算出する。即ち、
xj=xi, yj=yi+D
とする。
R=1の場合、前回の部屋座標値に対してx座標値にDを加えた位置と算出する。
xj=xi+D, yj=yi
R=2の場合、前回の部屋座標値に対してy座標値からDを減じた位置と算出する。
xj=xi, yj=yi−D
R=3の場合、前回の部屋座標値に対してx座標値からDを減じた位置と算出する。
xj=xi−D, yj=yi
なお、自走式掃除機1が旋回のみの場合、今回の部屋座標(xj,yj)は、前回の部屋座標値と等しく、変数Rが変化する。
部屋座標の座標値の単位としては、例えば図7に示す縦横マトリックス状の1区画の大きさを1単位としてもよい。前述の座標値(xj,yj)がセンチメートルの単位で計測され、1区画の大きさが縦横共に30センチメートルの場合、部屋座標の座標値は、xjおよびyjをそれぞれ30cmで除した値になる。
The position detector 11b refers to the value of the variable R indicating the traveling direction in the previous and current position detection. As assumed, since the self-propelled cleaner 1 goes straight along the x-axis or the y-axis, the value of the variable R is equal between the previous time and the current time. When the room coordinates when the previous position was detected are (x i , y i )
When R = 0, the current room coordinate (x j , y j ) is calculated as a position obtained by adding D to the y coordinate value with respect to the previous room coordinate value. That is,
x j = x i , y j = y i + D
And
When R = 1, the position is calculated by adding D to the x coordinate value with respect to the previous room coordinate value.
x j = x i + D, y j = y i
In the case of R = 2, the position is calculated by subtracting D from the y coordinate value with respect to the previous room coordinate value.
x j = x i , y j = y i −D
In the case of R = 3, the position is calculated by subtracting D from the x coordinate value with respect to the previous room coordinate value.
x j = x i −D, y j = y i
When the self-propelled cleaner 1 is only turned, the current room coordinate (x j , y j ) is equal to the previous room coordinate value, and the variable R changes.
As a unit of the coordinate value of the room coordinates, for example, the size of one section of the vertical and horizontal matrix shown in FIG. 7 may be set as one unit. When the above coordinate values (x j , y j ) are measured in units of centimeters and the size of one section is 30 centimeters both vertically and horizontally, the coordinate values of the room coordinates are x j and y j of 30 cm each. The divided value.
≪特徴点情報の作成処理の詳細≫
続いて、図9のステップS23に示す特徴点情報の作成処理の詳細について、図10のフローチャートを用いて説明する。図10は、図9のステップS23に示す処理の詳細を示すフローチャートである。
図10で、特徴点抽出部11cとして機器制御部11は、撮像部133に周囲の光景を撮影させる(ステップS31)。そして、撮影した画像を白と黒の2値化する(ステップS33)。2値化処理は、例えばP−タイル法、モード法など既知のアルゴリズムを適用すればよい。なお、2値化処理で得られた画像の横幅(X方向の画素数)を「WIDTH」で表し、その画像の高さ(Y方向の画素数)を「HEIGHT」で表すこととする。
≪Details of feature point information creation process≫
Next, details of the feature point information creation process shown in step S23 of FIG. 9 will be described with reference to the flowchart of FIG. FIG. 10 is a flowchart showing details of the process shown in step S23 of FIG.
In FIG. 10, the device control unit 11 as the feature point extraction unit 11c causes the imaging unit 133 to capture a surrounding scene (step S31). Then, the captured image is binarized into white and black (step S33). For the binarization processing, a known algorithm such as a P-tile method or a mode method may be applied. Note that the width (number of pixels in the X direction) of the image obtained by the binarization process is represented by “WIDTH”, and the height (number of pixels in the Y direction) of the image is represented by “HEIGHT”.
続いて、以後の処理に用いる変数を初期化する(ステップS35)。具体的には、撮影された画像内における特徴点のX方向の何番目の画素であるかを示す変数、言い換えればX座標を表す変数XにX=0を設定する。同様に、画像内における特徴点のY方向の何番目の画素であるかを示す変数、言い換えればY座標をそれぞれ表す変数YにY=0を設定する。さらに、1つの画像中の特徴点を表す配列変数である特徴点配列fp[]のすべての要素をクリアする。また、特徴点配列fp[]を示すポインタの変数iにi=0を設定する。この実施形態で、特徴点情報は、特徴点配列fp[]として表される。 Subsequently, variables used for the subsequent processing are initialized (step S35). Specifically, X = 0 is set to a variable indicating the number of pixels in the X direction of the feature point in the photographed image, in other words, the variable X representing the X coordinate. Similarly, Y = 0 is set to a variable indicating the number of pixels in the Y direction of the feature point in the image, in other words, a variable Y representing each Y coordinate. Further, all elements of the feature point array fp [] that is an array variable representing the feature points in one image are cleared. Also, i = 0 is set to the variable i of the pointer indicating the feature point array fp []. In this embodiment, the feature point information is represented as a feature point array fp [].
続いて、特徴点抽出部11cは、特徴点座標(X,Y)−(X+2,Y+2)の範囲で構成される3×3の画素マトリックスが、予め定められたコーナーとしてのパターンに該当するか否かをチェックする。即ち、画素マトリックス中央の注目画素(X+1,Y+1)とそれを囲む8画素の参照エリアからなる3×3の画素マトリックスを、コーナーのパターンと照合する(マッチングを行う)(ステップS37のマッチング処理)。なお、コーナーのパターンは、図13に具体例を示しており後述するが、3×3画素マトリックスとして予め用意されている。
注目画素を含む画素マトリックスがコーナーのパターンにマッチしている場合(ステップS37のY)、次の処理を行う。注目画素が特徴点であるとして、注目画素(X+1,Y+1)の特徴点座標値を特徴点配列fp[]に格納してポインタiの値を1増やす(ステップS39)。
一方、注目画素を含む画素マトリックスがコーナーのパターンにマッチしていない場合(ステップS37のN)、特徴点配列fp[]への格納は行わない。
Subsequently, the feature point extraction unit 11c determines whether the 3 × 3 pixel matrix configured by the range of the feature point coordinates (X, Y) − (X + 2, Y + 2) corresponds to a pattern as a predetermined corner. Check whether or not. That is, a 3 × 3 pixel matrix composed of a pixel of interest (X + 1, Y + 1) in the center of the pixel matrix and a reference area of 8 pixels surrounding the pixel is collated with a corner pattern (matching is performed) (matching process in step S37) . The corner pattern is shown in FIG. 13 as a specific example and will be described later, but is prepared in advance as a 3 × 3 pixel matrix.
When the pixel matrix including the pixel of interest matches the corner pattern (Y in step S37), the following processing is performed. Assuming that the target pixel is a feature point, the feature point coordinate value of the target pixel (X + 1, Y + 1) is stored in the feature point array fp [] and the value of the pointer i is incremented by 1 (step S39).
On the other hand, when the pixel matrix including the pixel of interest does not match the corner pattern (N in step S37), storage in the feature point array fp [] is not performed.
続いて特徴点抽出部11cは、画素のX方向の数を表す変数Xの値を1増やして(ステップS41)注目画素を右側へシフトさせたうえで、注目画素と参照エリアからなる3×3画素マトリックスが画像の右端に達したか否かを調べる(ステップS43)。即ち、変数Xの値が「WIDTH」−2に達したか否かを調べる。ここで、「−2」は、3画素分の幅を持つ3×3画素マトリックスが画像からはみ出さないという条件に基づく。
右端に達していなければ(ステップS43のY)、ルーチンはステップS37へ戻り、シフト後の注目画素がコーナーのパターンに該当するか否かを調べる。
一方、シフト後の画素マトリックスが画像の右端からはみ出した場合(ステップS43のN)、特徴点抽出部11cは、変数Yを1増やして注目画素を下方向にシフトさせる。それと共に、変数XにX=0を設定してシフト後のラインの左端に注目画素を移動させる(ステップS45)。このようにして、次のラインの走査する準備をするが、その前に走査開始前に下方向へシフトした画素マトリックスが画像の下端に達しているかを確認する(ステップS47)。即ち、変数Yの値が「HEIGHT」−2に達したか否かを調べる。「−2」は、3画素分の幅を持つ3×3画素マトリックスが画像からはみ出さないという条件に基づく。
Subsequently, the feature point extraction unit 11c increases the value of the variable X representing the number of pixels in the X direction by 1 (step S41), shifts the target pixel to the right side, and then 3 × 3 including the target pixel and the reference area. It is checked whether or not the pixel matrix has reached the right edge of the image (step S43). That is, it is checked whether or not the value of the variable X has reached “WIDTH” −2. Here, “−2” is based on the condition that a 3 × 3 pixel matrix having a width of three pixels does not protrude from the image.
If the right end has not been reached (Y in step S43), the routine returns to step S37 to check whether or not the pixel of interest after the shift corresponds to a corner pattern.
On the other hand, when the pixel matrix after the shift protrudes from the right end of the image (N in Step S43), the feature point extraction unit 11c increases the variable Y by 1 and shifts the target pixel downward. At the same time, X = 0 is set in the variable X, and the pixel of interest is moved to the left end of the shifted line (step S45). In this way, preparation for scanning the next line is made, but before that, it is confirmed whether the pixel matrix shifted downward before the start of scanning reaches the lower end of the image (step S47). That is, it is checked whether or not the value of the variable Y has reached “HEIGHT” −2. “−2” is based on the condition that a 3 × 3 pixel matrix having a width of three pixels does not protrude from the image.
下端に達していなければ(ステップS47のY)、ルーチンはステップS37へ戻り、シフト後の注目画素がコーナーのパターンに該当するか否かを調べる。
一方、シフト後の画素マトリックスが画像の下端からはみ出した場合(ステップS47のN)、操作が終了したと判断し、そのときのポインタ変数iの値を変数「FPMAX」に格納する。FPMAXと特徴点配列fp[]とは、その画像に対応する特徴点情報を提供する。
If the lower end has not been reached (Y in step S47), the routine returns to step S37 to check whether or not the pixel of interest after the shift corresponds to a corner pattern.
On the other hand, when the pixel matrix after the shift protrudes from the lower end of the image (N in step S47), it is determined that the operation is completed, and the value of the pointer variable i at that time is stored in the variable “FPMAX”. The FPMAX and the feature point array fp [] provide feature point information corresponding to the image.
≪距離情報の作成処理の詳細≫
続いて、図9のステップS25に示す距離情報の作成処理の詳細について、図11のフローチャートを用いて説明する。図11は、図9のステップS25に示す処理の詳細を示すフローチャートである。
図11で、機器制御部11は、同じ画像内の2つの特徴点の距離を各特徴点の組合せについてそれぞれ算出する。
最初に変数の初期化処理を行う。まず、1つ目の特徴点を参照するためのインデックス変数h1にh1=0を設定する(ステップS51)。さらに、2つの特徴点の距離を格納する2次元の距離情報配列ds[][]の各要素をゼロにクリアする。
次に、2つ目の特徴点を参照するためのインデックス変数h2にh2=0を設定する(ステップS53)。
≪Details of distance information creation process≫
Next, details of the distance information creation processing shown in step S25 of FIG. 9 will be described using the flowchart of FIG. FIG. 11 is a flowchart showing details of the process shown in step S25 of FIG.
In FIG. 11, the device control unit 11 calculates the distance between two feature points in the same image for each combination of feature points.
First, initialize variables. First, h1 = 0 is set to the index variable h1 for referring to the first feature point (step S51). Further, each element of the two-dimensional distance information array ds [] [] storing the distance between the two feature points is cleared to zero.
Next, h2 = 0 is set to the index variable h2 for referring to the second feature point (step S53).
続いて、変数h1とh2の値が等しいかどうかを調べる(ステップS55)。初期化後はh1=h2=0であるから、両者は等しい(ステップS55のY)。両者が等しい場合、同じ特徴点を指し示しているので距離dを0にする(ステップS57)。一方、h1とh2が同じでない場合に、h1、h2がそれぞれ指し示す特徴点fp[h1]とfp[h2]との距離を計算する(ステップS59)。2つの特徴点の距離dは、2点の特徴点の特徴点座標をそれぞれ(X0,Y0)および(X1,Y1)とするとき、
d=√{(X1−X0)^2+(Y0−Y1)^2}
で求められる。即ち、2次元平面のユークリッド距離として計算できる。
Subsequently, it is checked whether or not the values of the variables h1 and h2 are equal (step S55). Since h1 = h2 = 0 after initialization, both are equal (Y in step S55). If both are equal, the same feature point is pointed out, so the distance d is set to 0 (step S57). On the other hand, when h1 and h2 are not the same, the distance between the feature points fp [h1] and fp [h2] indicated by h1 and h2 is calculated (step S59). The distance d between the two feature points is defined as (X0, Y0) and (X1, Y1) as the feature point coordinates of the two feature points, respectively.
d = √ {(X1-X0) ^ 2 + (Y0-Y1) ^ 2}
Is required. That is, it can be calculated as a Euclidean distance in a two-dimensional plane.
以上のステップS57またはS59で距離を求めたら、求まった距離dを、距離情報配列ds[h1][h2]に格納する(ステップS61)。
例えば、1つ目の要素である特徴点と4つ目の要素である特徴点距離がd14の場合、h1=0,h2=3となるため距離情報配列ds[0][3]にd14を格納する。即ち、
ds[0][3]=d14
なお、4つ目の要素である特徴点と1つ目の要素である特徴点の距離d41は、h1=3,h2=0となるため、ds[3][0]=d41となる。ここで、ds[0][3]とds[3][0]とは同じ情報であるので、いずれか一方を省略してもよい。ここでは、説明を単純にするために2つの特徴点の全ての組合せについて距離を計算して距離情報配列ds[][]に格納するものとして説明する。
When the distance is obtained in the above step S57 or S59, the obtained distance d is stored in the distance information array ds [h1] [h2] (step S61).
For example, one case eye elements feature points and the feature point distance is fourth element is of the d 14, h1 = 0, h2 = 3 , and therefore the distance information sequence ds [0] to [3] d 14 is stored. That is,
ds [0] [3] = d 14
The distance d 41 of the fourth characteristic points are the elements and the feature point is a first element, since the h1 = 3, h2 = 0, the ds [3] [0] = d 41 . Here, since ds [0] [3] and ds [3] [0] are the same information, either one may be omitted. Here, in order to simplify the description, it is assumed that distances are calculated for all combinations of two feature points and stored in the distance information array ds [] [].
次に、機器制御部11は、2つ目の特徴点を参照するインデックスh2を1つ増加させたうえで(ステップS63)、h2がすべての特徴点を参照したかどうかを調べる(ステップS65)。即ち、h2の値がFPMAX達したか否かを調べる。ここで変数FPMAXには、図10で特徴点情報を作成する際にその画像から抽出された特徴点の数が格納されている。
h2がFPMAXに達していない、即ち、h2<FPMAXの場合(ステップS65のY)、ルーチンはステップS55へ戻って新たな2つの特徴点の距離を計算して距離情報配列ds[][]に格納する。
一方、h2がFPMAXに達した場合(ステップS65のN)、ルーチンはステップS67へ進み、1つ目の特徴点を参照するインデックス変数h1を1つ増加させたうえで(ステップS67)、h1がすべての特徴点を参照したかどうかを調べる(ステップS69)。
Next, the device control unit 11 increases the index h2 referring to the second feature point by one (step S63), and checks whether h2 has referred to all the feature points (step S65). . That is, it is checked whether or not the value of h2 has reached FPMAX. Here, the variable FPMAX stores the number of feature points extracted from the image when the feature point information is created in FIG.
If h2 does not reach FPMAX, that is, if h2 <FPMAX (Y in step S65), the routine returns to step S55 to calculate the distance between two new feature points, and stores it in the distance information array ds [] []. Store.
On the other hand, if h2 reaches FPMAX (N in step S65), the routine proceeds to step S67 and increments the index variable h1 that refers to the first feature point by one (step S67). It is checked whether or not all feature points have been referred to (step S69).
h1がFPMAXに達していない、即ち、h1<FPMAXの場合(ステップS69のY)、ルーチンはステップS53へ戻る。そして、h2をゼロに初期化し、新たな1つ目の特徴点について、画像中のすべての特徴点との距離を計算して距離情報配列ds[][]に格納する。即ち、新たなh1についてh2が0からFPMAX−1までの組合せのそれぞれの距離を計算して距離情報配列ds[][]に格納する。
一方、前記ステップS69で、h1がFPMAXに達した場合(ステップS69のN)は、処理を終了する。
If h1 has not reached FPMAX, that is, if h1 <FPMAX (Y in step S69), the routine returns to step S53. Then, h2 is initialized to zero, and the distance from all the feature points in the image for the new first feature point is calculated and stored in the distance information array ds [] []. That is, for each new h1, the distances of combinations of h2 from 0 to FPMAX-1 are calculated and stored in the distance information array ds [] [].
On the other hand, if h1 reaches FPMAX in step S69 (N in step S69), the process ends.
≪位置情報データベースのデータ構造≫
図12は、この実施形態において作成される位置情報データベースのデータ構造を示す説明図である。
図12に示すように、位置情報データベースは、各部屋座標における位置情報からなる。図12の例では、n箇所の異なる部屋座標の位置における位置情報が位置情報データベースに格納されている。各位置情報は、その位置を表す部屋座標の値xおよびyとその位置で撮影された画像に係る特徴点配列(即ち、特徴点情報)からなる。
特徴点情報は、1つの画像から抽出された特徴点の配列である。図12の例では、1つの画像からm個の特徴点が抽出されている。
特徴点配列中の各特徴点に対応する1つの要素は、その特徴点の画像内での位置を示す特徴点座標(X,Y)と、前記特徴点を1つ目の特徴点として画像内のすべての特徴点との距離を示す距離情報ds[][]からなる。m個の特徴点のうちh番目の特徴点に係る距離情報は、ds[h][k]で表される。ただし、kは0から(m−1)までm個の値をとり、よって、ds[h][k]は、hが固定でkがm個の要素からなる。
≪Location information database data structure≫
FIG. 12 is an explanatory diagram showing the data structure of the location information database created in this embodiment.
As shown in FIG. 12, the position information database includes position information in each room coordinate. In the example of FIG. 12, position information at n different room coordinate positions is stored in the position information database. Each piece of position information includes room coordinate values x and y representing the position and a feature point array (that is, feature point information) relating to an image photographed at the position.
The feature point information is an array of feature points extracted from one image. In the example of FIG. 12, m feature points are extracted from one image.
One element corresponding to each feature point in the feature point array includes feature point coordinates (X, Y) indicating the position of the feature point in the image, and the feature point as the first feature point in the image. It consists of distance information ds [] [] indicating the distance to all feature points. The distance information related to the h-th feature point among the m feature points is represented by ds [h] [k]. However, k takes m values from 0 to (m−1). Therefore, ds [h] [k] is composed of elements in which h is fixed and k is m.
≪特徴点とするパターンの例≫
図13は、この実施形態において特徴点として検出する画素パターンを示す説明図である。図13で、それぞれの画素パターンは3×3の画素マトリックスを示しており、画素マトリックス内の各画素は2値化された白または黒を表している。
この実施形態では、2値化後の画像の3×3画素マトリックスの領域を、予め定められたコーナーの画素パターンとマッチングしていく。図13は、予め定められたコーナーの画素パターンを種類別に示している。
図13で、(a)の8通りの画素パターンは直角コーナーの検出パターンを示す。(b)の8通りの画素パターンは、鈍角コーナーの検出パターンを示す。また、(c)の8通りの画素パターンは鋭角コーナーの検出パターンを示す。これらの何れかの画素パターンとマッチした場合、その3×3画素マトリックスの中央の画素を特徴点座標とする。
≪Example of feature point pattern≫
FIG. 13 is an explanatory diagram showing pixel patterns detected as feature points in this embodiment. In FIG. 13, each pixel pattern represents a 3 × 3 pixel matrix, and each pixel in the pixel matrix represents binarized white or black.
In this embodiment, the 3 × 3 pixel matrix area of the binarized image is matched with a predetermined corner pixel pattern. FIG. 13 shows pixel patterns of predetermined corners by type.
In FIG. 13, the eight pixel patterns shown in FIG. The eight pixel patterns shown in (b) indicate detection patterns for obtuse corners. Further, the eight pixel patterns in (c) show detection patterns for acute corners. When the pixel pattern matches any of these pixel patterns, the center pixel of the 3 × 3 pixel matrix is set as the feature point coordinates.
これに対して、(d)の8通りの画素パターンはエッジのパターンである。コーナーでないので、特徴点としては抽出しない。
ただし、これは一例であって、コーナーに加えてエッジも特徴点として抽出する態様も考えられる。また、3×3画素マトリックスは一例に過ぎず、他の大きさの画素マトリックスをマッチングに適用する態様も考えられる。
なお、画像から特徴点を抽出する手法としては、SIFT、SURF、ORB、AKAZEなどが知られており、これら周知のアルゴリズムを適用すればよい。
On the other hand, the eight pixel patterns shown in (d) are edge patterns. Since it is not a corner, it is not extracted as a feature point.
However, this is only an example, and an aspect in which edges as well as corners are extracted as feature points is also conceivable. Further, the 3 × 3 pixel matrix is only an example, and a mode in which a pixel matrix of another size is applied for matching is also conceivable.
Note that SIFT, SURF, ORB, AKAZE, and the like are known as methods for extracting feature points from an image, and these known algorithms may be applied.
図14は、この実施形態において、物体の一例としてのテーブルが撮影された画像から特徴点が抽出される位置を視覚的に示す説明図である。図14に示すように、テーブルの画像を2値化した後、画像内の注目画素を縦横にシフトさせていきながら3×3の画素マトリックスが図13のコーナー検出パターンとマッチする点を探していく。例えば、テーブルの手前左側の脚の下端は、直角コーナーの検出パターンとマッチするので特徴点として抽出される。また、テーブルの手前右側の脚の下端は、鈍角コーナーのパターンとマッチするので特徴点として抽出される。一方、テーブルの手前中央部には、エッジのパターンが存在するが、コーナーでないために特徴点としない。このようにして、テーブルの画像からコーナーの検出パターンとマッチする複数の特徴点が抽出される。 FIG. 14 is an explanatory diagram visually showing a position where a feature point is extracted from an image obtained by photographing a table as an example of an object in this embodiment. As shown in FIG. 14, after binarizing the table image, the pixel of interest in the image is shifted vertically and horizontally to find a point where the 3 × 3 pixel matrix matches the corner detection pattern of FIG. Go. For example, the lower end of the left leg on the front side of the table matches the detection pattern at the right-angled corner, and thus is extracted as a feature point. In addition, the lower end of the right leg on the front side of the table matches the pattern of the obtuse corner and is extracted as a feature point. On the other hand, an edge pattern exists at the front center of the table, but it is not a feature point because it is not a corner. In this way, a plurality of feature points that match the corner detection pattern are extracted from the table image.
≪位置の推定処理≫
続いて、この実施形態における位置の推定の詳細を説明する。
なお、「位置の推定」処理においてデータの検索は演算時間がかかるので、特徴点の演算処理は自走式掃除機1が充電台201にドッキングしている待機中に行ってもよい。
また、予め学習させたい位置で撮像部133に撮影を行わせるが、位置情報データベースの作成処理は掃除をしながら行うようにしてもよい。そして、位置情報データベースの作成を終えてデータベースが完成してから「位置の推定」処理のためのデータ検索を行ってもよい。
≪Position estimation process≫
Next, details of position estimation in this embodiment will be described.
It should be noted that, since the data search in the “position estimation” process takes a calculation time, the calculation process of the feature points may be performed while the self-propelled cleaner 1 is docked with the charging stand 201.
In addition, although the imaging unit 133 performs shooting at a position to be learned in advance, the position information database creation process may be performed while cleaning. Then, data creation for the “position estimation” process may be performed after the creation of the position information database and the completion of the database.
図15は、この実施形態において、機器制御部11が実行する位置の推定の全体の処理を示すフローチャートである。
例えば、「ソファー前だよ、この場所を覚えて」といった位置推定を要求するユーザーの指示に応答して機器制御部11は、目標位置決定部11dとして次の処理を実行する。
まず、その位置で撮像部133に周囲の光景を撮影させる。撮影された画像から特徴点情報を作成する(ステップS101)。特徴点情報の作成処理は、図10で述べた処理と同様であるため詳細説明は省略するが、画像から複数の特徴点を抽出し、各特徴点を要素とする特徴点配列fp[]に特徴点情報を作成する。そして、その特徴点配列fp[]および特徴点数の値を示すFPMAXの内容をクエリ格納部61bに格納する。
FIG. 15 is a flowchart showing the overall process of position estimation performed by the device control unit 11 in this embodiment.
For example, in response to a user instruction requesting position estimation such as “Let's remember this place, in front of the sofa”, the device control unit 11 executes the following process as the target position determination unit 11d.
First, the image capturing unit 133 is caused to capture a surrounding scene at that position. Feature point information is created from the captured image (step S101). The feature point information creation process is the same as the process described with reference to FIG. 10 and thus will not be described in detail. Create feature point information. Then, the contents of the feature point array fp [] and the value of the number of feature points are stored in the query storage unit 61b.
続いて目標位置決定部11dは、距離情報の作成を行う(ステップS103)。図11の処理と同様であるため詳細説明は省略するが、作成された特徴点配列fp[]に基づいて、2つの特徴点のすべての組み合わせについて特徴点間の距離を計算し、距離情報配列ds[][]に格納する。そして、距離情報配列ds[][]の内容をクエリ格納部61bに格納する。
さらに、目標位置決定部11dは、以下の処理で使用する変数を初期化する(ステップS105)。まず、位置情報データベースを参照するためのインデックス変数jにj=0(ゼロ)を設定して位置情報データベースに格納されている複数の位置情報のうち最初の位置情報を指すようにする。また、最大スコアを格納する一時変数smaxにsmax=0(ゼロ)を設定してクリアする。そして、最大スコアを参照するためのインデックス変数kにk=−1を設定する。また、比較用の特徴点配列cfp[]、比較用の特徴点数の変数CFPMAXおよび比較用の距離情報配列cds[][]をクリアする。
Subsequently, the target position determination unit 11d creates distance information (step S103). Although detailed description is omitted because it is the same as the processing of FIG. 11, the distance between the feature points is calculated for all combinations of the two feature points based on the created feature point array fp [], and the distance information array Store in ds [] []. Then, the contents of the distance information array ds [] [] are stored in the query storage unit 61b.
Furthermore, the target position determination unit 11d initializes variables used in the following processing (step S105). First, j = 0 (zero) is set in an index variable j for referring to the position information database so that the first position information among a plurality of position information stored in the position information database is indicated. Also, the temporary variable smax that stores the maximum score is cleared by setting smax = 0 (zero). Then, k = −1 is set to the index variable k for referring to the maximum score. Further, the comparison feature point array cfp [], the comparison feature point variable CFPMAX, and the comparison distance information array cds [] [] are cleared.
次に、目標位置決定部11dは、候補位置で撮影され前記ステップS101およびS103で撮影され特徴点情報および距離情報を用いて、位置情報データベースに格納されたすべての位置情報と順次マッチングを行うループ処理を実行する。
まず、位置情報データベースを参照するインデックスjが、位置情報データベースに格納された位置情報の数を示す値、RMAX未満か否かを調べる(ステップS107)。変数jの初期値はゼロであるからその場合のステップS107の判定はYesとなりルーチンはステップS109へ進む。一方、判定がNo、即ち、すべての位置情報についてマッチングを終えた場合は処理を終了する。
Next, the target position determination unit 11d uses the feature point information and the distance information captured at the candidate positions and captured at the steps S101 and S103 to sequentially match all the position information stored in the position information database. Execute the process.
First, it is checked whether or not the index j referring to the position information database is less than a value indicating the number of position information stored in the position information database, RMAX (step S107). Since the initial value of the variable j is zero, the determination in step S107 in that case is Yes, and the routine proceeds to step S109. On the other hand, when the determination is No, that is, when the matching is completed for all the position information, the process is terminated.
前記ステップS107の判定がYの場合、目標位置決定部11dは、インデックス変数jを用いて位置情報データベースの一つの位置情報を取り出す(ステップS109)。すなわち、その位置情報をクエリ格納部61bに格納された目標位置に係る情報との比較対象とする。そして取り出した位置情報に係る特徴点配列を比較用の特徴点配列cfp[]にコピーし、その特徴点数をCFPMAXにコピーする。さらに、前記位置情報に係る距離情報を比較用の距離情報配列cds[][]にコピーする。
なお、比較対象とされた位置情報は、ステップS117からステップS107へ戻るループ処理によって順次変更され、位置情報データベース中のすべての位置情報と比較がなされるまでループする。
If the determination in step S107 is Y, the target position determination unit 11d extracts one piece of position information from the position information database using the index variable j (step S109). That is, the position information is to be compared with information related to the target position stored in the query storage unit 61b. Then, the feature point array related to the extracted position information is copied to the comparison feature point array cfp [], and the number of feature points is copied to CFPMAX. Further, the distance information related to the position information is copied to the comparison distance information array cds [] [].
Note that the position information to be compared is sequentially changed by the loop process from step S117 to step S107, and loops until all position information in the position information database is compared.
続いて目標位置決定部11dは、特徴点配列fp[]、cfp[]、距離情報配列ds[][]、cds[][]を用いて、マッチングの程度を表すスコアsを計算する(ステップS111)。fp[]は、クエリ格納部61bの特徴点配列であり、cfp[]は比較対象が格納された特徴点配列である。ds[][]は、クエリ格納部61bの距離情報配列であり、cds[][]は、比較対象が格納された距離情報配列である。スコアsの計算手順の詳細は、図16で説明する。
目標位置決定部11dは、算出されたスコアsがsmaxより大きいか否かを調べる(ステップS113)。スコアsがsmaxより大きい場合(ステップS113のY)、変数smaxにスコアsを設定する。また、最大スコア参照用のインデックス変数kにjで更新する(ステップS115)。即ち、変数smaxにこれまでのうちで一番高いスコアを格納し、そのスコアを持つ位置情報を参照するインデックスを変数kに格納する。
そして、インデックス変数jを1つ増加させた後(ステップS117)、ルーチンはステップS107へ戻る。
Subsequently, the target position determination unit 11d calculates a score s indicating the degree of matching using the feature point arrays fp [], cfp [], the distance information arrays ds [] [], and cds [] [] (step S111). fp [] is a feature point array of the query storage unit 61b, and cfp [] is a feature point array in which a comparison target is stored. ds [] [] is a distance information array of the query storage unit 61b, and cds [] [] is a distance information array in which a comparison target is stored. Details of the procedure for calculating the score s will be described with reference to FIG.
The target position determination unit 11d checks whether or not the calculated score s is greater than smax (step S113). When the score s is larger than smax (Y in step S113), the score s is set in the variable smax. Also, the index variable k for referring to the maximum score is updated with j (step S115). That is, the highest score so far is stored in the variable smax, and an index referring to the position information having the score is stored in the variable k.
Then, after incrementing the index variable j by one (step S117), the routine returns to step S107.
以上のようにして、位置情報データベースに格納されたすべての位置情報について、マッチングを行って、最高のスコアを与える位置情報のインデックスを変数kに格納し、そのスコアをsmaxに格納して処理を終了する。
処理が終了した時点で、変数kは、クエリ格納部61bに格納された目標位置での特徴と最も類似した特徴を有する位置情報を指している。類似する位置情報が見つからなかった場合、変数kは初期値のk=−1のままとなる。変数kが−1でないときは、変数kで参照する位置情報、即ち、位置情報データベースのk番目のレコードに相当する位置情報の部屋座標(x,y)が推定された目標位置である。
As described above, all the pieces of position information stored in the position information database are matched, the position information index that gives the highest score is stored in the variable k, and the score is stored in smax. finish.
When the processing is completed, the variable k indicates position information having a feature most similar to the feature at the target position stored in the query storage unit 61b. If similar position information is not found, the variable k remains the initial value k = -1. When the variable k is not −1, the position information referred to by the variable k, that is, the room coordinates (x, y) of the position information corresponding to the kth record of the position information database is the estimated target position.
≪マッチング処理≫
図15のステップS111で実行するマッチング処理の詳細について説明する。
図16は、この実施形態におけるマッチング処理の手順を示すフローチャートである。
図16で、まず目標位置決定部11dは、スコアを格納する変数sをs=0に設定してクリアする(ステップS121)。
そして、スコアの演算にあたり、クエリ格納部61bに格納された特徴点配列fp[]に係る特徴点の中から特徴点座標の位置関係を評価するための基準特徴点(以下、単に基準点)を決定する処理を行う(ステップS123)。即ち、特徴点配列fp[]を比較対象の位置情報が格納された特徴点配列cfp[]とのマッチングを調べるに際して、マッチングの基準とする特徴点(基準点)を決定する。
≪Matching process≫
Details of the matching process executed in step S111 in FIG. 15 will be described.
FIG. 16 is a flowchart showing the procedure of matching processing in this embodiment.
In FIG. 16, first, the target position determination unit 11d sets a variable s for storing a score to s = 0 and clears it (step S121).
In calculating the score, a reference feature point (hereinafter simply referred to as a reference point) for evaluating the positional relationship of the feature point coordinates from the feature points related to the feature point array fp [] stored in the query storage unit 61b. Processing to determine is performed (step S123). That is, when the matching between the feature point array fp [] and the feature point array cfp [] storing the position information to be compared is examined, a feature point (reference point) to be used as a matching reference is determined.
この実施形態において、マッチングは、特徴点配列fp[]中の3つの点と合同な三角形が特徴点配列cfp[]中に少なくとも1つ存在するかに基づいて決定する。合同な三角形の対を構成する6点(3点と対をなす3点)を基準点と呼ぶ。基準点を構成する双方の3点のうち2点を選び、その2点(マッチング用基準点)と他のインデックス変数q1で示される特徴点でマッチングの程度を表すスコアを計算する。図17でその詳細を説明するが、ステップS123では、クエリ格納部61bに格納された特徴点配列fp[]のうち3点の組合せと、位置情報データベース中の比較対象とされた位置情報の特徴点配列cfp[]のうちの3点の組合せを順次比較していく。そして、配置関係が対応する3点(3点を頂点とする三角形が合同な3点)を1つ見出して基準点の3点とする。見出した3点のうちfp[]側の2点(マッチング用基準点)を指すインデックス変数をp1、p2に、cfp[]側の2点(マッチング用基準点)を指すインデックス変数をp3、p4に設定する。fp[p1]がcfp[p3]と対応し、fp[p2]がcfp[p4]と対応する。 In this embodiment, the matching is determined based on whether there is at least one triangle in the feature point array cfp [] that is congruent with the three points in the feature point array fp []. Six points constituting a congruent triangle pair (three points paired with three points) are called reference points. Two points out of both three points constituting the reference point are selected, and a score representing the degree of matching is calculated using the two points (matching reference point) and the feature point indicated by the other index variable q1. The details will be described with reference to FIG. 17. In step S123, the combination of the three points in the feature point array fp [] stored in the query storage unit 61b and the feature of the location information to be compared in the location information database. A combination of three points in the point array cfp [] is sequentially compared. Then, one of the three points corresponding to the arrangement relationship (three points with congruent triangles having three points as vertices) is found and set as the three reference points. Of the three points found, index variables indicating two points on the fp [] side (matching reference point) are p1 and p2, and index variables indicating two points on the cfp [] side (matching reference point) are p3 and p4. Set to. fp [p1] corresponds to cfp [p3], and fp [p2] corresponds to cfp [p4].
特徴点配列fp[]中の2つのマッチング用基準点が決定されたら、次に目標位置決定部11dは、特徴点配列fp[]の参照に用いるインデックス変数q1をq1=0に設定してクリアする(ステップS125)。続いて目標位置決定部11dは、インデックス変数q1の値が特徴点配列fp[]を構成する特徴点の数FPMAX未満か否かを調べる(ステップS127)。即ち、クエリ格納部61bに格納されたすべての特徴点について特徴点座標をチェックしたかどうかを調べる。
変数q1がFPMAX未満であれば(ステップS127のY)、対応点を検索する処理(ステップS129)を行う。対応点の検索処理については、図19でその詳細を説明するが、比較対象の特徴点配列cfp[]の中に、対応する三角形に係る対応点があるかどうか調べる。その結果、対応点があれば(ステップS131のY)スコアsを1だけ増加させる(ステップS133)。対応点がなければ(ステップS131のN)スコアsはそのままにする。なお、図19で説明するが、前記ステップS129で、同じ距離関係にある3点が見つからない場合、変数m1の値にm1=−1が設定されて戻る。
When two matching reference points in the feature point array fp [] are determined, the target position determination unit 11d then clears the index variable q1 used for referring to the feature point array fp [] by setting q1 = 0. (Step S125). Subsequently, the target position determination unit 11d checks whether or not the value of the index variable q1 is less than the number of feature points FPMAX constituting the feature point array fp [] (step S127). That is, it is checked whether or not the feature point coordinates have been checked for all feature points stored in the query storage unit 61b.
If the variable q1 is less than FPMAX (Y in step S127), a process for searching for a corresponding point (step S129) is performed. The details of the corresponding point search processing will be described with reference to FIG. 19, and it is checked whether or not there is a corresponding point related to the corresponding triangle in the feature point array cfp [] to be compared. As a result, if there is a corresponding point (Y in step S131), the score s is increased by 1 (step S133). If there is no corresponding point (N in step S131), the score s is left as it is. As will be described with reference to FIG. 19, when three points having the same distance relationship are not found in step S129, the value of the variable m1 is set to m1 = −1 and the process returns.
その後、目標位置決定部11dはインデックス変数q1を1だけ増加させる(ステップS135)。そして、ルーチンはステップS127へ戻り、ループする。
以上のようにして、特徴点配列fp[]を構成するすべての特徴点について対応点の検索を行ったら(ステップS127のN)、処理を終了する。処理が終了した時点で、スコアsは、ステップS123で決定された2つのマッチング用基準点と同一画像内の他の1つの特徴点の3点を頂点とする複数組の三角形のうちで、合同な三角形(対応する3つの点)がいくつあるかを表している。スコアsが大きい程、特徴点配列fp[]と比較対象の特徴点配列cfp[]との特徴点の配置関係が類似している。
Thereafter, the target position determination unit 11d increases the index variable q1 by 1 (step S135). The routine then returns to step S127 and loops.
When the corresponding points are searched for all the feature points constituting the feature point array fp [] as described above (N in step S127), the process is terminated. At the time when the processing is completed, the score s is congruent among a plurality of sets of triangles having three vertices of the other feature points in the same image as the two matching reference points determined in step S123. This represents how many triangles (three corresponding points) exist. As the score s increases, the feature point arrangement relationship between the feature point array fp [] and the comparison target feature point array cfp [] is more similar.
≪基準点の決定≫
図17は、図16に示すマッチング処理において、ステップS123に示す基準点の決定処理の詳細を示すフローチャートである。
図17で、目標位置決定部11dは、処理に用いる変数m1、m2およびm3にそれぞれゼロを設定してクリアする(ステップS141)。m1、m2およびm3は、いずれも特徴点配列fp[]の参照に用いるインデックス変数であり、以下の処理では参照する特徴点が重複しないように異なる値をとりながら変化する。
次に目標位置決定部11dは、インデックス変数m2にm2=m1+1を設定する(ステップS143)。ステップS143はループ内にあって繰り返し処理されるが、初回はm1が初期値(ゼロ)であって、m2はそれより1つ大きな値、m2=0+1=1になる。
≪Determination of reference point≫
FIG. 17 is a flowchart showing details of the reference point determination process shown in step S123 in the matching process shown in FIG.
In FIG. 17, the target position determination unit 11d clears each of the variables m1, m2, and m3 used for processing by setting zero (step S141). m1, m2, and m3 are all index variables used for referring to the feature point array fp [], and change in different values while taking different values so that the feature points to be referenced do not overlap in the following processing.
Next, the target position determination unit 11d sets m2 = m1 + 1 to the index variable m2 (step S143). Step S143 is in the loop and is repeatedly processed. In the first time, m1 is an initial value (zero), and m2 is one larger value, m2 = 0 + 1 = 1.
続いて目標位置決定部11dは、インデックス変数m3にm3=m2+1を設定する(ステップS145)。ステップS145はループ内にあって繰り返し処理されるが、初回はm2が1であってm3はそれより1つ大きな値、m3=1+1=2である。
続いて、目標位置決定部11dは、基準点の検索処理を実行する(ステップS147)。即ち、クエリ格納部61bに格納されている特徴点配列fp[]のうち、現在のm1、m2およびm3を用いてそれぞれ参照される特徴点配列fp[m1]、fp[m2]、fp[m3]の3つの特徴点を得る。それらを基準点のうち一方の3点と仮定した場合、それと同じ距離関係にある特徴点(基準点の他方)が位置情報データベース内の比較対象とされている位置情報にあるか検索する。対応する3点を探索する処理の詳細は、図18で説明する。
Subsequently, the target position determination unit 11d sets m3 = m2 + 1 to the index variable m3 (step S145). Step S145 is in the loop and is repeated, but for the first time, m2 is 1 and m3 is one larger value, m3 = 1 + 1 = 2.
Subsequently, the target position determination unit 11d executes a reference point search process (step S147). That is, the feature point arrays fp [m1], fp [m2], and fp [m3 that are referred to using the current m1, m2, and m3 among the feature point arrays fp [] stored in the query storage unit 61b. ] Is obtained. If these are assumed to be one of the three reference points, a search is made as to whether or not a feature point (the other of the reference points) having the same distance relationship exists in the position information to be compared in the position information database. Details of the process of searching for the corresponding three points will be described with reference to FIG.
探索の結果、基準点、即ち、同じ距離関係にある3点の対が存在する場合(ステップS149のY)は処理を終了するが、存在しなければ(ステップS149のN)以下の処理をループする。なお、図18で説明するが、前記ステップS149で、基準点が見つからない場合、変数p1の値にp1=−1が設定されて戻る。一方、対応する基準点が見つかった場合、ペアをなす双方の3点のうち2点、ペア全体として4点を参照するインデックス変数がp1〜p4に設定される。
まず、目標位置決定部11dは、m1,m2およびm3の3つのインデックス変数のうちでもっとも大きな値をとるm3を1つ増加させて(ステップS151)、特徴点数FPMAX未満か否かを調べる(ステップS153)。即ち、インデックスが特徴点配列の範囲内を指しているか調べる。
特徴点配列の範囲内であれば(ステップS153のY)、ルーチンはステップS147へ戻る。そして、更新されたm3とm1とm2を用いて参照される特徴点を基準点のうちの一方と仮定し、それと同じ距離関係にある特徴点が位置情報データベース内の各位置情報にあるか検索する。
As a result of the search, if there is a reference point, that is, a pair of three points having the same distance relationship (Y in step S149), the process ends. If not (N in step S149), the following process is looped. To do. As will be described with reference to FIG. 18, if no reference point is found in step S149, the value of variable p1 is set to p1 = −1 and the process returns. On the other hand, when a corresponding reference point is found, index variables that refer to 2 points out of both 3 points forming a pair and 4 points as a whole pair are set to p1 to p4.
First, the target position determination unit 11d increases m3 having the largest value among the three index variables m1, m2, and m3 by one (step S151), and checks whether the number of feature points is less than FPMAX (step S151). S153). That is, it is checked whether the index points within the feature point array.
If within the feature point arrangement range (Y in step S153), the routine returns to step S147. Then, the feature point referred to using the updated m3, m1, and m2 is assumed to be one of the reference points, and a search is performed as to whether or not the feature point having the same distance relationship exists in each location information in the location information database. To do.
一方、変数m3が特徴点配列の範囲内になければ(ステップS153のN)、m3がとり得る範囲を網羅したものとして、今度は変数m2を1つ増加させる(ステップS155)。そして、m2が(FPMAX−1)未満か否かを調べる(ステップS157)。即ち、m2の値がインデックスとしてとり得る範囲内にあるか調べる。なお、m3と重複しないように、m2がとる最大値はm3の最大値であるFPMAXより1つ少ない。
m2がとり得る値の範囲内であれば(ステップS157のY)、ルーチンはステップS145へ戻り、更新されたm2に対するm3の値を設定する。そして、m1、m2、m3を用いて参照される特徴点を基準点のうちの一方と仮定した場合、それと同じ距離関係にある特徴点が位置情報データベース内の各位置情報にあるか検索する。
On the other hand, if the variable m3 is not within the range of the feature point array (N in step S153), the variable m2 is increased by 1 this time, assuming that the range that m3 can take is covered (step S155). Then, it is checked whether m2 is less than (FPMAX-1) (step S157). That is, it is checked whether the value of m2 is within a range that can be taken as an index. In order not to overlap with m3, the maximum value that m2 takes is one less than FPMAX, which is the maximum value of m3.
If m2 is within the range of possible values (Y in step S157), the routine returns to step S145, and sets the value of m3 for the updated m2. When the feature point referred to using m1, m2, and m3 is assumed to be one of the reference points, a search is performed as to whether or not a feature point having the same distance relationship exists in each location information in the location information database.
一方、変数m2がとり得る値の範囲内になければ(ステップS157のN)、m2がとり得る範囲を網羅したものとして、今度は変数m1を1つ増加させる(ステップS159)。そして、m1が(FPMAX−2)未満か否かを調べる(ステップS161)。即ち、m1の値がインデックスとしてとり得る範囲内にあるか調べる。なお、m2およびm3と重複しないように、m1がとる最大値はm3の最大値であるFPMAXより2つ少ない。 On the other hand, if it is not within the range of values that the variable m2 can take (N in step S157), then the variable m1 is incremented by 1 (step S159), assuming that the range that m2 can take is covered. Then, it is checked whether m1 is less than (FPMAX-2) (step S161). That is, it is checked whether the value of m1 is within a range that can be taken as an index. Note that the maximum value taken by m1 is two less than FPMAX, which is the maximum value of m3, so as not to overlap with m2 and m3.
m1がとり得る値の範囲内であれば(ステップS161のY)、ルーチンはステップS143へ戻り、更新されたm1に対するm2およびm3の値を設定する。そして、m1、m2、m3を用いて参照される特徴点を基準点の一方と仮定した場合、それと同じ距離関係にある特徴点が位置情報データベース内の各位置情報にあるか検索する。
一方、変数m1がとり得る値の範囲内になければ(ステップS161のN)、m1がとり得る範囲を網羅したものと判断する。そして、m1,m2およびm3がとり得るすべての範囲で特徴点配列fp[]の特徴点を組み合わせてみても対応する3点がなかったことを示すため、変数m1にm1=−1を設定し(ステップS163)、基準点の抽出処理を終了する。
以上のように、図17の処理で、クエリ格納部61bに格納された特徴点配列fp[]中の3点と同じ距離関係の3点が比較対象の位置情報cfp[](図15のステップS109で取得されたもの)中に見つからなかった場合、変数m1はm1=−1の値をとる。対応する基準点が見つかった場合、特徴点配列fp[]、cfp[]の基準点を示す特徴点座標のインデックスに係る値が一旦、変数m1,m2,m3、n1,n2,n3のいずれかに格納される。そして、後から図18で詳細に説明するが、それらの値は最終的に変数p1,p2,p3およびp4に入る。
If m1 is within the range of possible values (Y in step S161), the routine returns to step S143, and sets the values of m2 and m3 for the updated m1. When the feature point referred to using m1, m2, and m3 is assumed to be one of the reference points, a search is performed as to whether or not there is a feature point having the same distance relationship in the position information database.
On the other hand, if it is not within the range of values that the variable m1 can take (N in step S161), it is determined that the range that the m1 can take is covered. Then, in order to indicate that there are no corresponding three points even when combining the feature points of the feature point array fp [] in all possible ranges of m1, m2 and m3, m1 = -1 is set to the variable m1. (Step S163), the reference point extraction process ends.
As described above, in the process of FIG. 17, three points having the same distance relationship as the three points in the feature point array fp [] stored in the query storage unit 61b are compared with the position information cfp [] (step of FIG. 15). If the variable m1 is not found in (obtained in S109), the variable m1 takes the value of m1 = -1. When the corresponding reference point is found, the value related to the index of the feature point coordinates indicating the reference point of the feature point array fp [], cfp [] is temporarily one of the variables m1, m2, m3, n1, n2, and n3. Stored in Then, as will be described in detail later with reference to FIG. 18, those values finally enter variables p1, p2, p3 and p4.
≪3点の距離関係で対応関係をチェックすることの妥当性≫
ここで、3点の距離関係を用いて対応関係をチェックしているのは、比較する2つの画像に収められている特徴点が回転や水平・垂直移動していることを考慮したものである。
即ち、自走式掃除機1が床面を走行して位置が変わると、位置が変化に対応して撮像部133で撮影される画像が変化する。この実施形態に於いて、撮像部133は上方とその周囲の光景を撮影するところ、床面と平行な天井面にある物体あるいは天井面に近くにある物体から抽出される特徴点は、平行移動および回転のみの変化を受ける。
自走式掃除機1の位置の変化に伴う画像の変化を幾何学的変換と捉えると、天井面は回転および並進のみの幾何学的変換、即ちユークリッド変換として考えることができる。2点間の距離は、画像がユークリッド変換を受けても変わらない。即ち、2点の距離は平行移動(並進)および回転の幾何学的変換に対する不変量(幾何学的返還を受けても変わらない量)として知られている。
≪Validity of checking correspondence with distance relation of 3 points≫
Here, the correspondence is checked using the distance relationship between the three points in consideration of the fact that the feature points stored in the two images to be compared are rotated or moved horizontally and vertically. .
That is, when the self-propelled cleaner 1 travels on the floor and changes its position, the image captured by the imaging unit 133 changes corresponding to the change of position. In this embodiment, when the imaging unit 133 captures a scene of the upper part and its surroundings, feature points extracted from an object on a ceiling surface parallel to the floor surface or an object near the ceiling surface are translated. And undergo only changes in rotation.
If the change of the image accompanying the change of the position of the self-propelled cleaner 1 is regarded as a geometric transformation, the ceiling surface can be considered as a geometric transformation only for rotation and translation, that is, Euclidean transformation. The distance between the two points does not change even if the image is subjected to Euclidean transformation. That is, the distance between the two points is known as an invariant (a quantity that does not change even when subjected to a geometric return) for the translational (translational) and rotational geometric transformations.
天井面から離れた位置にある物体の画像については、自走式掃除機1の移動に伴って回転や並進以外の他に、縮小拡大、剪断歪み(矩形が平行四辺形になる歪み)さらには射影歪(矩形が台形になる歪み)みの変形を受ける。しかし、区画が細かければ、目標位と最近傍の区画の位置は近く、それらの位置で撮影された画像の差異は小さく、拡大縮小、剪断歪みあるいは射影歪みは無視できる。ただし、同じ位置でも自走式掃除機1の方向の違いによる回転の影響は無視できない。
以上のように、回転と並進を伴うユークリッド変換を考慮して対応する画像を検索すればよい。従って、ユークリッド変換に対する不変量である特徴点間の距離関係を用いた検索は有効である。
For images of objects located away from the ceiling surface, in addition to rotation and translation as the self-propelled cleaner 1 moves, reduction, enlargement, shear distortion (distortion in which a rectangle becomes a parallelogram), Projection distortion (distortion in which a rectangle becomes trapezoid) is affected. However, if the section is fine, the positions of the target section and the nearest section are close, the difference between the images taken at those positions is small, and enlargement / reduction, shearing distortion, or projection distortion can be ignored. However, the influence of rotation due to the difference in the direction of the self-propelled cleaner 1 cannot be ignored even at the same position.
As described above, a corresponding image may be searched in consideration of Euclidean transformation with rotation and translation. Therefore, a search using the distance relationship between feature points, which is an invariant for Euclidean transformation, is effective.
≪対応する基準点の検索−基準点決定時≫
図18は、図17のステップS147に示す基準点の検索処理、即ち対応する3点を検索する処理を示すフローチャートである。
図18で、目標位置決定部11dは、比較用の特徴点配列を参照するインデックス変数n1、n2およびn3をクリアする(ステップS171)。即ち、変数n1,n2およびn3にn1=0、n2=0、n3=0をそれぞれ設定する。また、それぞれ対をなす3点のうち基準点とする2点を格納する4つのインデックス変数p1,p2,p3およびp4をクリアする。
≪Search for corresponding reference point-When determining reference point≫
FIG. 18 is a flowchart showing the reference point search process shown in step S147 of FIG. 17, that is, the process of searching for the corresponding three points.
In FIG. 18, the target position determination unit 11d clears index variables n1, n2, and n3 that refer to the comparison feature point array (step S171). That is, n1 = 0, n2 = 0, and n3 = 0 are set in the variables n1, n2, and n3, respectively. Also, the four index variables p1, p2, p3, and p4 that store two points as reference points among the three points that make a pair are cleared.
次に目標位置決定部11dは、インデックス変数n2にn2=n1+1を設定する(ステップS173)。ステップS173はループ内にあって繰り返し処理されるが、初回はn1が初期値(ゼロ)であって、n2はそれより1つ大きな値、n2=0+1=1になる。
さらに目標位置決定部11dは、インデックス変数n3にn3=n2+1を設定する(ステップS175)。ステップS175はループ内にあって繰り返し処理されるが、初回はn2が1であってn3はそれより1つ大きな値、n3=1+1=2である。
Next, the target position determination unit 11d sets n2 = n1 + 1 to the index variable n2 (step S173). Step S173 is in the loop and is repeatedly processed, but n1 is the initial value (zero) at the first time, and n2 is one larger value, n2 = 0 + 1 = 1.
Further, the target position determination unit 11d sets n3 = n2 + 1 to the index variable n3 (step S175). Step S175 is in the loop and is repeatedly processed. In the first time, n2 is 1, n3 is one larger value, and n3 = 1 + 1 = 2.
続いて、目標位置決定部11dは、特徴点配列fp[m1],fp[m2]およびfp[m3]の3つの特徴点と、比較用の特徴点配列fp[n1],fp[n2]およびfp[n3]の3つの特徴点が、同じ距離関係にあるか否かを調べる。具体的には、それぞれの3つの特徴点が、以下の距離条件1、距離条件2または距離条件3の何れかを満たすか否かを調べる。
ここで、特徴点配列fp[]に基づく距離情報配列がds[][]、比較用特徴点配列cfp[]に基づく比較用距離情報配列がcds[][]であり、距離を比較する場合の許容誤差をDLIMITとし、Xの絶対値をABS(X)で表すものとする。
許容誤差DLIMITについて述べると、位置情報が登録された位置と候補位置とが全く同じ位置とは限らないので、撮影された画像を照合する場合に、ある程度の誤差を許容する必要ある。ただし、この許容誤差は認識精度に影響するので十分考慮して設定されるべきである。
Subsequently, the target position determination unit 11d includes the three feature points of the feature point arrays fp [m1], fp [m2], and fp [m3], the comparison feature point arrays fp [n1], fp [n2], and It is examined whether or not the three feature points of fp [n3] have the same distance relationship. Specifically, it is examined whether or not each of the three feature points satisfies any of the following distance condition 1, distance condition 2, or distance condition 3.
Here, the distance information array based on the feature point array fp [] is ds [] [], the comparison distance information array based on the comparison feature point array cfp [] is cds [] [], and the distances are compared. Let DLIMIT be the permissible error and denote the absolute value of X by ABS (X).
When the allowable error DLIMIT is described, the position where the position information is registered and the candidate position are not necessarily the same position. Therefore, it is necessary to allow a certain amount of error when collating captured images. However, since this allowable error affects the recognition accuracy, it should be set with sufficient consideration.
前記距離条件1は、
ABS(ds[m1][m2]−cds[n1][n2])<DLIMIT、かつ
ABS(ds[m2][m3]−cds[n2][n3])<DLIMIT、かつ
ABS(ds[m3][m1]−cds[n3][n1])<DLIMIT
である。即ち、3点の距離関係、言い換えると3点を頂点とする三角形の各辺の長さの相違がいずれも許容誤差未満の範囲にあって三角形どうしが実質的に合同であることを表している。
The distance condition 1 is
ABS (ds [m1] [m2] −cds [n1] [n2]) <DLIMIT and ABS (ds [m2] [m3] −cds [n2] [n3]) <DLIMIT and ABS (ds [m3] [M1] -cds [n3] [n1]) <DLIMIT
It is. In other words, the distance relationship between the three points, in other words, the difference in the lengths of the sides of the triangle with the three points as vertices are all within a tolerance, and the triangles are substantially congruent. .
前記距離条件2は、
ABS(ds[m1][m2]−cds[n2][n3])<DLIMIT、かつ
ABS(ds[m2][m3]−cds[n3][n1])<DLIMIT、かつ
ABS(ds[m3][m1]−cds[n1][n2])<DLIMIT
である。これは、3点の対応関係が「距離条件1」と異なるものの、距離関係がいずれも許容誤差以下の範囲にあることを表している。
The distance condition 2 is
ABS (ds [m1] [m2] -cds [n2] [n3]) <DLIMIT and ABS (ds [m2] [m3] -cds [n3] [n1]) <DLIMIT and ABS (ds [m3] [M1] -cds [n1] [n2]) <DLIMIT
It is. This indicates that although the correspondence between the three points is different from the “distance condition 1”, the distance relations are all within the allowable error range.
前記距離条件3は、
ABS(ds[m1][m2]−cds[n3][n1])<DLIMIT、かつ
ABS(ds[m2][m3]−cds[n1][n2])<DLIMIT、かつ
ABS(ds[m3][m1]−cds[n2][n3])<DLIMIT
である。
これは、3点の対応関係が「距離条件1」や「距離条件2」と異なるものの、距離関係がいずれも許容誤差以下の範囲にあることを表している。
The distance condition 3 is
ABS (ds [m1] [m2] -cds [n3] [n1]) <DLIMIT and ABS (ds [m2] [m3] -cds [n1] [n2]) <DLIMIT and ABS (ds [m3] [M1] -cds [n2] [n3]) <DLIMIT
It is.
This indicates that although the correspondence between the three points is different from “Distance Condition 1” and “Distance Condition 2”, the distance relations are all within the allowable error range.
目標位置決定部11dは、まず前記距離条件1が満たされているかを調べる(ステップS177)。距離条件1が満たされていれば(ステップS177のY)、インデックス変数p3にp3=n1を設定し、同様にp4にp4=n2を設定する(ステップS201)。p3およびp4は、比較用の特徴点配列cfp[]を参照するためのインデックス変数である。
さらに、目標位置決定部11dは、クエリ格納部61bに格納された特徴点配列fp[]を参照するためのインデックス変数p1にp1=m1を設定し、同様にp2にp2=m2を設定する(ステップS207)。そして、処理を終了する。
The target position determination unit 11d first checks whether the distance condition 1 is satisfied (step S177). If the distance condition 1 is satisfied (Y in step S177), p3 = n1 is set in the index variable p3, and similarly p4 = n2 is set in p4 (step S201). p3 and p4 are index variables for referring to the comparison feature point array cfp [].
Further, the target position determination unit 11d sets p1 = m1 to the index variable p1 for referring to the feature point array fp [] stored in the query storage unit 61b, and similarly sets p2 = m2 to p2 ( Step S207). Then, the process ends.
一方、前記距離条件1が満たされない場合(ステップS177のN)、ルーチンはステップS179へ進み、前記距離条件2が満たされているかを調べる。距離条件2が満たされていれば(ステップS179のY)、比較用特徴点配列cfp[]を参照するためのインデックス変数p3にp3=n2を設定し、同様にp4にp4=n3を設定する(ステップS203)。その後、ルーチンは前述のステップS207へ進み、インデックス変数p1にp1=m1を設定し、同様にp2にp2=m2を設定して処理を終了する。
前記距離条件2が満たされない場合(ステップS179のN)、ルーチンはステップS181へ進み、前記距離条件3が満たされているかを調べる。距離条件3が満たされていれば(ステップS181のY)、比較用特徴点配列cfp[]を参照するためのインデックス変数p3にp3=n3を設定し、同様にp4にp4=n1を設定する(ステップS205)。その後、ルーチンは前述のステップS207へ進み、インデックス変数p1にp1=m1を設定し、同様にp2にp2=m2を設定して処理を終了する。
On the other hand, if the distance condition 1 is not satisfied (N in step S177), the routine proceeds to step S179 and checks whether the distance condition 2 is satisfied. If the distance condition 2 is satisfied (Y in step S179), p3 = n2 is set to the index variable p3 for referring to the comparison feature point array cfp [], and similarly, p4 = n3 is set to p4. (Step S203). Thereafter, the routine proceeds to step S207 described above, sets p1 = m1 to the index variable p1, and similarly sets p2 = m2 to p2, and ends the process.
If the distance condition 2 is not satisfied (N in step S179), the routine proceeds to step S181 and checks whether the distance condition 3 is satisfied. If the distance condition 3 is satisfied (Y in step S181), p3 = n3 is set to the index variable p3 for referring to the comparison feature point array cfp [], and similarly p4 = n1 is set to p4. (Step S205). Thereafter, the routine proceeds to step S207 described above, sets p1 = m1 to the index variable p1, and similarly sets p2 = m2 to p2, and ends the process.
以上のように、同じ距離関係にある基準点のペアを見出したら、クエリ格納部61bに格納された特徴点配列fp[]と位置情報データベース中の比較用特徴点配列cfp[]との対応する点を参照するインデックス変数を設定して処理を終了する。
一方、距離条件1〜3の何れも満たされない場合(ステップS181のN)、目標位置決定部11dは、次の処理を行う。まず、n1,n2およびn3の3つのインデックス変数のうちでもっとも大きな値をとるn3を1つ増加させる(ステップS183)。そして、特徴点数CFPMAX未満か否かを調べる(ステップS185)。即ち、インデックスが比較用特徴点配列の範囲内を指しているか調べる。
比較用特徴点配列の範囲内であれば(ステップS185のY)、ルーチンはステップS177へ戻る。そして、更新されたn3とn1とn2を用いて参照される比較用特徴点を基準点ペアのうちの一方と仮定した場合、距離条件1〜3の何れかを満たす他方の基準点ペアがクエリ格納部61bに格納された特徴点配列内にあるか検索する。
As described above, when a pair of reference points having the same distance relationship is found, the feature point array fp [] stored in the query storage unit 61b corresponds to the comparison feature point array cfp [] in the position information database. Set the index variable to refer to the point and finish the process.
On the other hand, when none of the distance conditions 1 to 3 is satisfied (N in Step S181), the target position determination unit 11d performs the following process. First, among the three index variables n1, n2 and n3, n3 having the largest value is incremented by one (step S183). Then, it is checked whether or not the number of feature points is less than CFPMAX (step S185). That is, it is checked whether the index points within the range of the comparison feature point array.
If it is within the range of the comparison feature point array (Y in step S185), the routine returns to step S177. When the comparison feature point referred to using the updated n3, n1, and n2 is assumed to be one of the reference point pairs, the other reference point pair that satisfies any of the distance conditions 1 to 3 is queried. A search is made as to whether or not the feature points are stored in the storage unit 61b.
一方、変数n3が比較用特徴点配列の範囲内になければ(ステップS185のN)、n3がとり得る範囲を網羅したものとして、今度は変数n2を1つ増加させる(ステップS187)。そして、n2が(CFPMAX−1)未満か否かを調べる(ステップS189)。即ち、n2の値がインデックスとしてとり得る範囲内にあるか調べる。なお、n3と重複しないように、n2がとる最大値はn3の最大値であるCFPMAXより1つ少ない。
n2がとり得る値の範囲内であれば(ステップS189のY)、ルーチンはステップS175へ戻り、更新されたn2に対するn3の値を設定する。そして、n1、n2、n3を用いて参照される特徴点を基準点ペアのうちの一方と仮定した場合、距離条件1〜3の何れかを満たす他方の基準点ペアがクエリ格納部61bに格納された特徴点配列内にあるか検索する。
On the other hand, if the variable n3 is not within the range of the comparison feature point array (N in step S185), the variable n2 is increased by 1 (step S187), assuming that the range that n3 can take is covered. Then, it is checked whether n2 is less than (CFPMAX-1) (step S189). That is, it is checked whether the value of n2 is within a range that can be taken as an index. In order not to overlap with n3, the maximum value taken by n2 is one less than CFPMAX which is the maximum value of n3.
If n2 is within the range of possible values (Y in step S189), the routine returns to step S175, and sets the value of n3 for the updated n2. When the feature point referred to using n1, n2, and n3 is assumed to be one of the reference point pairs, the other reference point pair that satisfies any one of the distance conditions 1 to 3 is stored in the query storage unit 61b. It is searched whether it exists in the arranged feature point array.
一方、変数n2がとり得る値の範囲内になければ(ステップS189のN)、n2がとり得る範囲を網羅したものとして、今度は変数n1を1つ増加させる(ステップS191)。そして、n1が(FPMAX−2)未満か否かを調べる(ステップS193)。即ち、n1の値がインデックスとしてとり得る範囲内にあるか調べる。なお、n2およびn3と重複しないように、n1がとる最大値はn3の最大値であるFPMAXより2つ少ない。
n1がとり得る値の範囲内であれば(ステップS193のY)、ルーチンはステップS173へ戻り、更新されたn1に対するn2およびn3の値を設定する。そして、n1、n2、n3を用いて参照される特徴点を基準点ペアのうちの一方と仮定した場合、距離条件1〜3の何れかを満たす他方の基準点ペアがクエリ格納部61bに格納された特徴点配列内にあるか検索する。
On the other hand, if it is not within the range of values that the variable n2 can take (N in step S189), the variable n1 is increased by 1 (step S191), assuming that the range that n2 can take is covered. Then, it is checked whether n1 is less than (FPMAX-2) (step S193). That is, it is checked whether the value of n1 is within a range that can be taken as an index. It should be noted that the maximum value taken by n1 is two less than FPMAX which is the maximum value of n3 so as not to overlap with n2 and n3.
If n1 is within the range of possible values (Y in step S193), the routine returns to step S173 and sets the values of n2 and n3 for the updated n1. When the feature point referred to using n1, n2, and n3 is assumed to be one of the reference point pairs, the other reference point pair that satisfies any one of the distance conditions 1 to 3 is stored in the query storage unit 61b. It is searched whether it exists in the arranged feature point array.
一方、変数n1がとり得る値の範囲内になければ(ステップS193のN)、n1がとり得る範囲を網羅したものと判断する。
目標位置決定部11dは、n1,n2およびn3がとり得るすべての範囲で特徴点配列fp[]の特徴点の組み合わせてみても対応する3点がなかったことを示すため、変数p1にp1=−1を設定し(ステップS195)、基準点ペアの抽出処理を終了する。
以上のように、図18の処理で基準点ペアが見つからなかった場合、変数p1はp1=−1の値をとる。一方、基準点ペアが見つかった場合、対応する点を参照するインデックス変数がp1〜p4に設定される。基準点のうちfp[p1]の特徴点とcfp[p3]の特徴点とが対応し、さらにfp[p2]の特徴点とcfp[p4]の特徴点とが対応する。
On the other hand, if it is not within the range of values that the variable n1 can take (N in step S193), it is determined that the range that n1 can take is covered.
The target position determination unit 11d indicates that there are no corresponding three points even when combining the feature points of the feature point array fp [] in all the ranges that n1, n2, and n3 can take. -1 is set (step S195), and the reference point pair extraction process is terminated.
As described above, when the reference point pair is not found in the process of FIG. 18, the variable p1 takes the value of p1 = -1. On the other hand, when a reference point pair is found, index variables that refer to the corresponding points are set to p1 to p4. Among the reference points, the feature point of fp [p1] corresponds to the feature point of cfp [p3], and the feature point of fp [p2] corresponds to the feature point of cfp [p4].
≪対応点の検索処理≫
続いて、図16のステップS129に示す対応点の検索処理の詳細について説明する。
図19は、図16に示す対応点の検索処理を示すフローチャートである。図19に示すように、目標位置決定部11dは、まず、比較用特徴点配列cfp[]を参照するためのインデックス変数q2にq2=0を設定してクリアする(ステップS211)。
そして、特徴点配列fp[q1]に係る特徴点と他の任意の2点からなる3つの特徴点と、比較用特徴点配列cfp[q2]に係る特徴点と他の任意の2点からなる3つの特徴点とが、以下の距離条件A,B,Cの何れかに適合するかを調べる(ステップS213)。
≪Corresponding point search process≫
Next, details of the corresponding point search processing shown in step S129 of FIG. 16 will be described.
FIG. 19 is a flowchart showing the corresponding point search processing shown in FIG. As shown in FIG. 19, the target position determination unit 11d first sets q2 = 0 to the index variable q2 for referring to the comparison feature point array cfp [] and clears it (step S211).
Then, it consists of three feature points consisting of the feature point related to the feature point array fp [q1] and any other two points, and a feature point related to the comparison feature point array cfp [q2] and any other two points. It is examined whether the three feature points meet any of the following distance conditions A, B, and C (step S213).
前記距離条件Aは、
ABS(ds[p1][p2]−cds[p3][p4])<DLIMIT、かつ
ABS(ds[p2][q1]−cds[p4][q2])<DLIMIT、かつ
ABS(ds[q1][p1]−cds[q2][p3])<DLIMIT
である。これは、3点を頂点とする三角形の各辺の長さがいずれも許容誤差未満の範囲で等しく、三角形どうしが実質的に合同であることを表している。
The distance condition A is
ABS (ds [p1] [p2] -cds [p3] [p4]) <DLIMIT and ABS (ds [p2] [q1] -cds [p4] [q2]) <DLIMIT and ABS (ds [q1] [P1] -cds [q2] [p3]) <DLIMIT
It is. This indicates that the lengths of the sides of the triangle with the three vertices are equal within a range that is less than the allowable error, and the triangles are substantially congruent.
前記距離条件Bは、
ABS(ds[p1][p2]−cds[p4][q2])<DLIMIT、かつ
ABS(ds[p2][q1]−cds[q2][p3])<DLIMIT、かつ
ABS(ds[q1][p1]−cds[p3][p4])<DLIMIT
である。これは、3点の対応関係が「距離条件A」と異なるものの、三角形どうしが実質的に合同であることを表している。
The distance condition B is
ABS (ds [p1] [p2] -cds [p4] [q2]) <DLIMIT, and ABS (ds [p2] [q1] -cds [q2] [p3]) <DLIMIT, and ABS (ds [q1] [P1] -cds [p3] [p4]) <DLIMIT
It is. This indicates that the three-point correspondence is different from the “distance condition A”, but the triangles are substantially congruent.
前記距離条件Cは、
ABS(ds[p1][p2]−cds[q2][p3])<DLIMIT、かつ
ABS(ds[p2][q1]−cds[p3][p4])<DLIMIT、かつ
ABS(ds[q1][p1]−cds[p4][q2])<DLIMIT
である。これは、3点の対応関係が「距離条件A」や「距離条件B」と異なるものの、三角形どうしが実質的に合同であることを表している。
即ち、クエリ格納部61bに格納された3つの特徴点fp[p1],fp[p2],fp[q1]と位置情報データベース中のある位置情報に係る3つの特徴点cfp[p3],cfp[p4],cfp[q2]とが同じ距離関係にあるかどうかを判断する。ここで、fp[p1],fp[p2],cfp[p3],cfp[p4]は、ステップS123の処理で決定されたマッチング用基準点である。
The distance condition C is
ABS (ds [p1] [p2] -cds [q2] [p3]) <DLIMIT and ABS (ds [p2] [q1] -cds [p3] [p4]) <DLIMIT and ABS (ds [q1] [P1] -cds [p4] [q2]) <DLIMIT
It is. This indicates that the triangles are substantially congruent although the correspondence between the three points is different from “distance condition A” and “distance condition B”.
That is, the three feature points fp [p1], fp [p2], fp [q1] stored in the query storage unit 61b and the three feature points cfp [p3], cfp [related to certain position information in the position information database. It is determined whether or not p4] and cfp [q2] have the same distance relationship. Here, fp [p1], fp [p2], cfp [p3], and cfp [p4] are matching reference points determined in the process of step S123.
距離条件A,B,Cの何れかを満たしていれば(ステップS213のY)、処理を終了する。
一方、距離条件A,B,Cの何れも満たさない場合(ステップS213のN)、目標位置決定部11dは、まずインデックス変数q2を1だけ増加させて(ステップS215)、q2が特徴点数CFPMAX未満か否かを調べる(ステップS217)。特徴点配列cfp[]のすべての座標の組み合わせについてチェックするためのループ処理に係る判断である。
q2がCFPMAX未満であれば、ルーチンはステップS213へ戻り、更新されたインデックス変数q2について、前記距離条件A,B,Cの何れかに適合するか否かを調べる。
If any one of the distance conditions A, B, and C is satisfied (Y in step S213), the process ends.
On the other hand, when none of the distance conditions A, B, and C are satisfied (N in Step S213), the target position determination unit 11d first increases the index variable q2 by 1 (Step S215), and q2 is less than the feature point number CFPMAX. It is checked whether or not (step S217). This is a determination relating to loop processing for checking all combinations of coordinates of the feature point array cfp [].
If q2 is less than CFPMAX, the routine returns to step S213 and checks whether the updated index variable q2 meets any of the distance conditions A, B, and C.
一方、q2がCFPMAXに達したら、特徴点配列cfp[]のすべてのすべての座標の組み合わせについてチェックしたが、前記距離条件A,B,Cのいずれにも適合しなかったと判断する。それを表すために、インデックス変数q2にq2=−1を設定し(ステップS219)、処理を終了する。
以上が、対応点の検索処理である。
On the other hand, when q2 reaches CFPMAX, all combinations of coordinates in the feature point array cfp [] are checked, but it is determined that none of the distance conditions A, B, and C is met. In order to express it, q2 = −1 is set to the index variable q2 (step S219), and the process is terminated.
The above is the corresponding point search processing.
≪特徴点のマッチングの視覚的説明≫
図16〜図19に示す特徴点配列fp[]と比較用特徴点配列cfp[]の特徴点のマッチング処理について、その処理を視覚的に説明する。
図20Aおよび図20Bは、この実施形態において、特徴点のマッチングに用いる基準点の決定処理を視覚的に示す説明図である。
図20Aに示すように、目標位置決定部11dは、基準点を決定する場合にまず特徴点配列fp[]と比較用特徴点配列cfp[]からそれぞれ3つの特徴点を選ぶ。fp[]から3つの特徴点を選ぶ組合せは複数存在し、同様にcfp[]から3つの特徴点を選ぶ組合せも複数存在する。
目標位置決定部11dは、3点のうち2点の特徴点間の距離、即ち3点を頂点とする三角形の3つの辺の長さを計算する。そして、3辺の長さが同じ三角形をfp[]とcfp[]から探す。図20Aに示す例で、fp[]は15個の特徴点からなり、cfp[]は12個の特徴点からなる。それぞれに星印で示す3つの特徴点が、合同な三角形であり、丸印は他の特徴点を示す。
≪Visual description of feature point matching≫
The matching process of the feature points of the feature point array fp [] and the comparison feature point array cfp [] shown in FIGS. 16 to 19 will be described visually.
FIG. 20A and FIG. 20B are explanatory diagrams visually showing a determination process of a reference point used for feature point matching in this embodiment.
As illustrated in FIG. 20A, the target position determination unit 11d first selects three feature points from the feature point array fp [] and the comparison feature point array cfp [] when determining the reference point. There are a plurality of combinations for selecting three feature points from fp [], and there are also a plurality of combinations for selecting three feature points from cfp [].
The target position determination unit 11d calculates the distance between the two feature points out of the three points, that is, the lengths of the three sides of the triangle having the three points as vertices. Then, a triangle having the same length on three sides is searched from fp [] and cfp []. In the example shown in FIG. 20A, fp [] consists of 15 feature points, and cfp [] consists of 12 feature points. Three feature points each indicated by an asterisk are congruent triangles, and a circle indicates another feature point.
合同な三角形を見出したらその3つの頂点(特徴点)のうち2点をマッチング用基準点として選び、マッチング用基準点の2点とそれ以外の特徴点との距離関係を調べる。そして、2つのマッチング用基準点と他の1つの特徴点の3点が同じ距離関係にあるもの、即ち合同な三角形をなすもの(基準点ペア)をfp[]とcfp[]から探す。見つかった合同な三角形の数をスコアとして計算する。
図20Bで、fp[]の15個の特徴点から3つの基準点を除くと、特徴点の数は12点である。それら12点と2点のマッチング用基準点がなす三角形は12通り存在する。一方、cfp[]の12個の特徴点から3つの基準点を除くと、特徴点の数は9点である。それら9点と2点のマッチング用基準点がなす三角形は9通り存在する。そこで、fp[]に係る12個の三角形とcfp[]に係る9個の三角形のうちで合同な三角形の組合せが何個存在するかをしらべて、その数をマッチングのスコアsとする。図20Bの場合、OKの特徴点が9個あるので、スコアsはs=9/12である。
なお、三角形の辺の長さを比較する際にはある程度の誤差を許容する。フローチャートの説明では、この許容誤差の値をDLIMITとしている。DLIMITの大きさは、認識精度に影響するのでカメラ特性や撮影間隔によって設計者により適宜決定されるべきである。
前述のように2点間の距離は回転および並進を伴うユークリッド変換に対して不変であるから、fp[]とcfp[]とで自走式掃除機1の向きが異なっていても高い精度でマッチングが判断できる。
When a congruent triangle is found, two of the three vertices (feature points) are selected as matching reference points, and the distance relationship between the two matching reference points and the other feature points is examined. Then, a search is made from fp [] and cfp [] for two matching reference points and another one feature point having the same distance relationship, that is, a congruent triangle (reference point pair). The number of congruent triangles found is calculated as a score.
In FIG. 20B, if three reference points are excluded from the 15 feature points of fp [], the number of feature points is 12. There are twelve triangles formed by these 12 matching reference points. On the other hand, if three reference points are excluded from the 12 feature points of cfp [], the number of feature points is 9. There are nine triangles formed by these nine matching reference points. Therefore, the number of congruent triangle combinations among the 12 triangles related to fp [] and the 9 triangles related to cfp [] exists, and the number is set as the matching score s. In the case of FIG. 20B, since there are nine OK feature points, the score s is s = 9/12.
In addition, a certain amount of error is allowed when comparing the lengths of the sides of the triangle. In the description of the flowchart, the value of this allowable error is DLMIT. Since the size of DLIMIT affects recognition accuracy, it should be appropriately determined by the designer according to camera characteristics and shooting intervals.
As described above, since the distance between the two points is invariant to the Euclidean transformation with rotation and translation, even if the direction of the self-propelled cleaner 1 is different between fp [] and cfp [], it is highly accurate. Matching can be judged.
図21は、この実施形態において、特徴点のマッチングによる画像検索を視覚的に示す説明図である。位置(視点)が異なると同一物体を見ても特徴点の配置関係が変化する。マッチング対象の画像と各位置における画像の特徴点の配置関係を照合して、マッチング対象の画像と配置関係が最も似た画像に基づいて視点の位置(撮影位置)を決定できる。具体的には、各特徴点に対してマッチングの基準となる2つの特徴点(マッチング用基準点)からの距離を計算し、マッチング対象と距離の関係が近いものはOK、そうでないものはNGとしてOKの特徴点数をスコアとすればよい。 FIG. 21 is an explanatory diagram visually showing an image search based on feature point matching in this embodiment. If the position (viewpoint) is different, the arrangement relationship of the feature points changes even if the same object is viewed. The position of the viewpoint (photographing position) can be determined based on the matching relationship between the image to be matched and the arrangement relationship of the feature points of the image at each position, and the image having the most similar arrangement relationship to the image to be matched. Specifically, for each feature point, the distance from two feature points (matching reference points) that serve as a matching reference is calculated. If the relationship between the matching target and the distance is close, OK is determined, and if not, NG is determined. As a score, the number of feature points of OK may be used as a score.
図22は、この実施形態において、算出するスコアの概念を視覚的に示す説明図である。図22で、目標位置として学習させる場所の画像から特徴点配列fp[]が作成される。位置情報データベースの各位置における画像は、マッチングを行う際に比較用特徴点配列cfp[]に格納される。両者に距離関係の対応する3点が見つかった場合に、スコアsの計算が行われる。スコアsの分母は、特徴点配列fp[]の特徴点数から図22に星印で示す基準点の数3を差引いたものである。スコアsの分岐は、両者の基準点(星印で示す)を重ね合わせたとき、○印で示す他の特徴点のうち重なった特徴点の数である。 FIG. 22 is an explanatory diagram visually showing the concept of the score to be calculated in this embodiment. In FIG. 22, the feature point array fp [] is created from the image of the place to be learned as the target position. Images at each position in the position information database are stored in the comparison feature point array cfp [] when matching is performed. When three points corresponding to the distance relationship are found in both, the score s is calculated. The denominator of the score s is obtained by subtracting the number 3 of reference points indicated by asterisks in FIG. 22 from the number of feature points in the feature point array fp []. The branch of the score s is the number of overlapping feature points among the other feature points indicated by ◯ when both reference points (indicated by asterisks) are overlapped.
≪部屋の画像のマッチング例≫
図23は、この実施形態において、撮影された部屋の配置と撮影位置を示す説明図である。自走式掃除機は、縦横マトリクス状の区画の各位置で周囲の光景を撮影して得られる位置情報を位置情報データベース格納部に格納するが、ここでは説明を単純にするため(1)〜(5)5箇所の位置で撮影された画像で説明する。
図23において、破線で枠を示した照明A、照明Bおよびエアコンは、天井または天井付近に配置された物体である。それ以外の物体は床面に配置されているが、いずれもかなりの高さがある。
≪Example of matching room images≫
FIG. 23 is an explanatory diagram showing the arrangement and shooting positions of the shot rooms in this embodiment. The self-propelled cleaner stores the position information obtained by photographing the surrounding scene at each position of the vertical and horizontal matrix sections in the position information database storage unit. (5) A description will be given with images taken at five positions.
In FIG. 23, illumination A, illumination B, and an air conditioner whose frames are indicated by broken lines are objects arranged on or near the ceiling. Other objects are placed on the floor, but they are all quite high.
この実施形態で、撮像部133は、上方と周囲の光景が一度に撮影可能な魚眼レンズを備え、上方に向けて撮影を行う。
図24Aは、この実施形態において、図23に示す部屋内の候補位置で撮影された画像の一例を示す説明図である。自走式掃除機1に目標位置として学習させたい位置の画像である。
図24Bは、図23に示す位置(1)で撮影された画像の例を示す説明図である。
図24Aと図24Bは、両者の画像から抽出される特徴点を示している。特徴点は、基準点を星印で、他の点を○印で示している。さらに、距離関係が一致した特徴点は実線で示し、距離関係が一致しない特徴点を鎖線で示している。両者のマッチングに係るスコアは、s=4/8である。
In this embodiment, the imaging unit 133 includes a fish-eye lens that can shoot the upper and surrounding scenes at once, and shoots upward.
FIG. 24A is an explanatory diagram illustrating an example of an image photographed at the candidate position in the room illustrated in FIG. 23 in this embodiment. It is an image of the position which wants self-propelled cleaner 1 to learn as a target position.
FIG. 24B is an explanatory diagram illustrating an example of an image captured at the position (1) illustrated in FIG.
24A and 24B show feature points extracted from both images. As for the feature points, the reference point is indicated by an asterisk and the other points are indicated by ◯. Further, feature points having the same distance relationship are indicated by solid lines, and feature points having the distance relationship not indicated are indicated by chain lines. The score relating to the matching between the two is s = 4/8.
図25Aは、図24Aと同じ位置で撮影された画像を示す説明図である。
図25Bは、図23に示す位置(2)で撮影された画像の例を示す説明図である。
特徴点の表記方法は、図24Aおよび図24Bと同様である。マッチングのスコアは、s=6/8である。
図26Aは、図24Aと同じ位置で撮影された画像を示す説明図である。
図26Bは、図23に示す位置(3)で撮影された画像の例を示す説明図である。
特徴点の表記方法は、図24Aおよび図24Bと同様である。マッチングのスコアは、s=5/8である。
図27Aは、図24Aと同じ位置で撮影された画像を示す説明図である。
図27Bは、図23に示す位置(4)で撮影された画像の例を示す説明図である。
特徴点の表記方法は、図24Aおよび図24Bと同様である。マッチングのスコアは、s=1/8である。
FIG. 25A is an explanatory diagram showing an image taken at the same position as FIG. 24A.
FIG. 25B is an explanatory diagram illustrating an example of an image captured at the position (2) illustrated in FIG.
The notation method of the feature points is the same as in FIGS. 24A and 24B. The matching score is s = 6/8.
FIG. 26A is an explanatory diagram showing an image taken at the same position as FIG. 24A.
FIG. 26B is an explanatory diagram illustrating an example of an image captured at the position (3) illustrated in FIG.
The notation method of the feature points is the same as in FIGS. 24A and 24B. The matching score is s = 5/8.
FIG. 27A is an explanatory diagram showing an image taken at the same position as FIG. 24A.
FIG. 27B is an explanatory diagram illustrating an example of an image captured at the position (4) illustrated in FIG.
The notation method of the feature points is the same as in FIGS. 24A and 24B. The matching score is s = 1/8.
図28Aは、図24Aと同じ位置で撮影された画像を示す説明図である。
図28Bは、図23に示す位置(5)で撮影された画像の例を示す説明図である。
特徴点の表記方法は、図24Aおよび図24Bと同様である。マッチングのスコアは、s=1/8である。
よって、目標位置決定部11dは、最大のスコアを与える図25Bの位置を、目標位置と判断する。
図29は、図24Aに示す特徴点が画像から抽出される様子を視覚的に示す説明図である。
特徴点抽出部11cは、撮像部133で撮影された画像を二値化し、コーナーを表す画素の位置を特徴点として抽出する。
FIG. 28A is an explanatory diagram showing an image taken at the same position as FIG. 24A.
FIG. 28B is an explanatory diagram illustrating an example of an image captured at the position (5) illustrated in FIG.
The notation method of the feature points is the same as in FIGS. 24A and 24B. The matching score is s = 1/8.
Therefore, the target position determination unit 11d determines that the position in FIG. 25B that gives the maximum score is the target position.
FIG. 29 is an explanatory diagram visually showing how the feature points shown in FIG. 24A are extracted from the image.
The feature point extraction unit 11c binarizes the image captured by the imaging unit 133 and extracts the position of the pixel representing the corner as a feature point.
(実施の形態2)
実施の形態1で、目標位置決定部11dは、ユーザーが候補位置を学習させる段階で、位置情報データベースの最近傍探索を行って候補位置の部屋座標を取得した。それと異なる態様として、候補位置の学習段階においては、その位置で撮影した画像から特徴点情報と距離情報を作成し、その特徴点情報と距離情報をその候補位置を識別するキーワードと関連付けて記憶部61に格納してもよい。
その後、ユーザーから「テレビの前を掃除して」との指示を受けた際に、記憶部61に格納された候補位置のうち「テレビの前」のキーワードに該当する候補位置を検索し、距離情報を取得する。そして、最近傍探索を行って位置情報データベースの中で距離情報が最も類似する位置情報を見出して、その位置情報に係る部屋座標をもとめてもよい。
この態様によれば、位置情報データベースの作成が未だ行われていなくても候補位置を学習させることが可能である。位置情報データベースは、学習した候補位置へ移動すべき指示をうける次点までに作成されていればよい。
(Embodiment 2)
In the first embodiment, the target position determination unit 11d acquires the room coordinates of the candidate position by performing a nearest neighbor search of the position information database when the user learns the candidate position. As a different aspect, in the candidate position learning stage, feature point information and distance information are created from an image captured at that position, and the feature point information and distance information are associated with a keyword for identifying the candidate position and a storage unit 61 may be stored.
Thereafter, when receiving an instruction “clean the front of the TV” from the user, the candidate positions stored in the storage unit 61 are searched for candidate positions corresponding to the keyword “in front of the TV”, and the distance Get information. Then, the nearest neighbor search may be performed to find the position information having the most similar distance information in the position information database, and the room coordinates related to the position information may be obtained.
According to this aspect, the candidate position can be learned even if the position information database has not yet been created. The position information database only needs to be created by the next point at which an instruction to move to the learned candidate position is received.
(実施の形態3)
また、ユーザーからの指示に応答して位置情報データベースの作成を行うだけでなく、例えば、自走式掃除機1が部屋の掃除をしているときに、位置情報データベースを合わせて作成してもよい。掃除の度に位置情報データベースをチェックし、更新すれば部屋の模様替えがあったことを検出できる。その場合、ユーザーに部屋の光景が代わったので候補位置の学習をやり直すべきことを知らせることができる。
(Embodiment 3)
In addition to creating the position information database in response to an instruction from the user, for example, when the self-propelled cleaner 1 is cleaning a room, the position information database may be created together. Good. If the location information database is checked and updated every time it is cleaned, it can be detected that the room has been redesigned. In this case, the user can be informed that the candidate position has to be redone because the room scene has changed.
(実施の形態4)
あるいは、位置情報データベースの作成が未だ行われていない段階で候補位置の学習がなされた場合に限って、候補位置の部屋座標に代えて特徴点情報と距離情報を格納していてもよい。そして、位置情報データベースが完成した時点で先近傍検索を行って候補位置の部屋座標を求め、特徴点情報と距離情報を部屋座標で置換してもよい。
(Embodiment 4)
Alternatively, feature point information and distance information may be stored in place of the room coordinates of the candidate position only when the candidate position is learned at the stage where the position information database has not yet been created. Then, when the position information database is completed, a near neighbor search may be performed to obtain the room coordinates of the candidate position, and the feature point information and the distance information may be replaced with the room coordinates.
(実施の形態5)
以上の実施形態で、3つの基準点の場合について説明したが、基準点の数は必ずしも3つに限定されるものでない。3以上の数であってもよい。例えば、4つの基準点を用いる場合、合同な四角形を探すことにする。三角形よりも辺の数が多ければ、偶然に合同なものが見つかる可能性はより小さくなるので精度のよいマッチングが実現できる。ただし、辺の数が多いと距離の計算量が増えるので、設計者は適当な数を選択すべきである。
なお、基準点が4点の場合、マッチング用基準点は3点にすればよい。2点でもかまわないが、その場合は任意の他の2点との組合せについてスコアを計算することになるのでスコアを計算する処理量が多くなるが、スコアが多数の組み合わせに基づいて計算されるので、マッチングの精度は高い。
なお、3つの基準点の場合、マッチング用基準点の数は2つに限らず1つでもよい。ただし、スコアの計算量が多くなる。
(Embodiment 5)
In the above embodiment, the case of three reference points has been described, but the number of reference points is not necessarily limited to three. The number may be 3 or more. For example, when four reference points are used, a contiguous rectangle is searched. If there are more sides than triangles, the chances of finding congruents by chance are lessened, so accurate matching can be realized. However, since the amount of calculation of the distance increases when the number of sides is large, the designer should select an appropriate number.
When there are four reference points, the matching reference points may be three. Two points may be used, but in that case, the score is calculated for any combination of two other points, so the processing amount for calculating the score increases, but the score is calculated based on many combinations. Therefore, the accuracy of matching is high.
In the case of three reference points, the number of matching reference points is not limited to two and may be one. However, the amount of calculation of the score increases.
(実施の形態6)
以上の実施形態では、2点間の距離に基づいて特徴点の対応関係を判断した。これは、2点の距離がユークリッド変換に対して不変量であるとの考えに基づく。しかし、2点間の距離に限らず、ユークリッド変換に対する不変量(ユークリッド不変量)であれば適用可能である。例えば、二つの直線間の角度や、閉領域の面積はユークリッド不変量であるので、2点の距離に代えてその何れかの不変量を用いてもよい。
さらに、ユークリッド変換よりも変形の自由度の高い相似変換、アフィン変換や射影変換に対応できるように相似変換のもとでの不変量(相似不変量)、アフィン変換のもとでの不変量(アフィン不変量)や射影変換のもとでの不変量(射影不変量)を用いてもよい。
(Embodiment 6)
In the above embodiment, the correspondence between feature points is determined based on the distance between two points. This is based on the idea that the distance between two points is invariant to the Euclidean transformation. However, the present invention is not limited to the distance between two points, but can be applied to any invariant (Euclidean invariant) for Euclidean transformation. For example, since the angle between two straight lines and the area of the closed region are Euclidean invariants, any one of the invariants may be used instead of the distance between two points.
In addition, invariants under similarity transformations (similar invariants) and invariants under affine transformations (similar invariants), which can be used for similarity transformations, affine transformations and projective transformations, which are more flexible than Euclidean transformations. Affine invariants) or invariants (projective invariants) under projective transformation may be used.
相似不変量としては、2直線間の角度のほかに、距離の比、面積の比などが知られている。また、アフィン不変量としては位置直線上の3点の距離の比が知られている。射影不変量としては、複比が知られている。
自由度の高い幾何学的変換に対する不変量を用いれば、異なる位置(視点)で撮影された画像の歪みの影響を受けにくくなる反面、不変量の計算処理の負荷が大きくなるので、その不変量を適用してマッチングを行うかは、設計者が適宜選択すべきである。
As similar invariants, in addition to the angle between two straight lines, a distance ratio, an area ratio, and the like are known. As an affine invariant, the ratio of the distances of three points on the position line is known. A cross ratio is known as a projection invariant.
Using invariants for geometric transformation with a high degree of freedom makes it less susceptible to distortion of images taken at different positions (viewpoints), but increases the load of invariant calculation processing. The designer should appropriately select whether or not to apply matching.
以上に述べたように、
(i)この発明による自走式電子機器は、走行を制御する走行制御部と、前記走行に伴って変化する位置を検出する位置検出部と、周囲の光景を撮影する撮像部と、撮影された画像から複数の特徴点を抽出する特徴点抽出部と、走行領域内の複数の位置において前記撮像部が撮影した画像に係る特徴点とその撮影が行われた位置とが関連付けられて登録された位置情報を予め格納する位置情報データベース格納部と、目標とすべき位置において前記撮像部が撮影した画像に係る特徴点を格納するクエリ格納部と、前記クエリ格納部に格納された特徴点と前記位置情報データベース格納部に格納された各位置情報に含まれる特徴点との配置関係を照合し、対応する配置関係にある特徴点を最も多く含む位置情報に基づいて目標位置を決定する目標位置決定部とを備え、前記走行制御部は、前記位置検出部が検出する現在の位置と決定された目標位置とに基づいてその目標位置への走行を制御することを特徴とする。
As mentioned above,
(I) A self-propelled electronic device according to the present invention is photographed by a traveling control unit that controls traveling, a position detecting unit that detects a position that changes along with the traveling, and an imaging unit that captures a surrounding scene. A feature point extracting unit that extracts a plurality of feature points from the captured image, a feature point related to the image captured by the imaging unit at a plurality of positions in the traveling region, and a position where the image was captured are associated and registered A location information database storage unit that stores the location information in advance, a query storage unit that stores feature points related to an image captured by the imaging unit at a target position, and a feature point stored in the query storage unit A target that collates an arrangement relationship with feature points included in each position information stored in the position information database storage unit and determines a target position based on position information that includes the most feature points in the corresponding arrangement relationship A position determination unit, and the travel control unit controls travel to the target position based on the current position detected by the position detection unit and the determined target position.
この発明において、位置検出部は、走行に伴って変化する位置を検出するものである。その具体的な態様は、例えば、車輪あるいは車輪を駆動する駆動モータに配置されるエンコーダである。駆動モータがステッピングモータの場合は駆動パルスをカウントしてもよい。車輪は前進と後退とで回転方向が逆になるので、回転方向を検出できる手段が必要である。
また、特徴点は、画像の特徴を表す複数の点である。画像から特徴点を抽出する手法としては、SIFT、SURF、ORB、AKAZEなどが知られており、これら周知のアルゴリズムが適用可能である。
In the present invention, the position detector detects a position that changes as the vehicle travels. The specific aspect is an encoder arrange | positioned at the drive motor which drives a wheel or a wheel, for example. When the drive motor is a stepping motor, drive pulses may be counted. Since the rotation direction of the wheel is reversed between the forward movement and the backward movement, a means capable of detecting the rotation direction is necessary.
The feature points are a plurality of points that represent the features of the image. Known techniques for extracting feature points from an image include SIFT, SURF, ORB, AKAZE, and the like, and these known algorithms can be applied.
さらにまた、特徴点の配置関係とは、照合の対象とされる双方の画像に係る複数の特徴点の中に、特徴点どうしの相対的な位置関係が対応するものがあるか否かを意味する。ここで対応するとは、ある程度の誤差を含んでいても許容範囲内であればよい。特徴点の配置関係を評価する具体的な態様としては、例えば、予め定められた数の特徴点について2点間の距離が全ての組み合わせについて等しいか否かを計算するやり方が挙げられるが、これに限らない。 Furthermore, the feature point arrangement relationship means whether or not there is a corresponding relative positional relationship between feature points among a plurality of feature points of both images to be collated. To do. Here, “corresponding” may be within an allowable range even if some error is included. As a specific mode for evaluating the arrangement relationship of feature points, for example, there is a method of calculating whether or not the distance between two points is equal for all combinations with respect to a predetermined number of feature points. Not limited to.
さらに、この発明の好ましい態様について説明する。
(ii)前記撮像部は、走行中に逐次撮影を行い、前記走行制御部は、走行中に前記撮像部が撮影した画像に係る特徴点と前記位置情報データベースとして格納された各位置の画像に係る特徴点とを照合して、前記位置検出部が検出する位置を補正してもよい。
このようにすれば、走行中に撮影された画像に係る特徴点と位置情報データベースに係る特徴点とを照合して現在の位置を推定し、推定された現在位置を用いて前記位置検出部が検出する位置情報を補正し、安定して現在の位置を決定することができる。
Furthermore, the preferable aspect of this invention is demonstrated.
(Ii) The imaging unit sequentially captures images while traveling, and the traveling control unit applies the feature points relating to the images captured by the imaging unit during traveling and the images of the respective positions stored as the position information database. You may correct | amend the position which the said position detection part detects by collating with the feature point which concerns.
In this way, the current position is estimated by collating the feature point related to the image captured during traveling with the feature point related to the position information database, and the position detection unit uses the estimated current position. The position information to be detected can be corrected and the current position can be determined stably.
(iii)1以上の候補位置で撮影された画像に係る特徴点を、各候補位置を目標として選択する場合に用いる選択指示と関連付けてそれぞれ記憶する候補位置記憶部と、目標へ走行すべき走行指示を受付ける指示受領部とをさらに備え、前記走行指示は、何れかの候補位置に係る前記選択指示を含み、前記目標位置決定部は、前記走行指示に含まれる選択指示と前記候補位置記憶部に格納された選択指示とを照合し、対応する選択指示に関連付けられた特徴点を前記クエリ格納部に格納し、前記走行制御部は、前記走行指示に応答して選択された目標への走行を開始してもよい。 (Iii) A candidate position storage unit that stores feature points related to images captured at one or more candidate positions in association with selection instructions used when selecting each candidate position as a target, and a travel to be traveled to the target An instruction receiving unit that receives the instruction, the travel instruction includes the selection instruction related to any candidate position, and the target position determination unit includes the selection instruction included in the travel instruction and the candidate position storage unit And the feature point associated with the corresponding selection instruction is stored in the query storage unit, and the travel control unit travels to the target selected in response to the travel instruction. May start.
このようにすれば、予め1以上の候補位置を候補位置記憶部に記憶させておくことで、その後はそれらの候補位置の一つを選択する選択指示を含んだ走行指示を与えることで、前記自走式電子機器が選択した位置へ走行することが可能になる。
走行指示が例えば音声による指示であれば、候補位置に対して、「ソファーの前」、「テレビの前」、「机の下」等の一意的な音声による選択指示を関連付けておく。それらのうち何れかの選択指示を含み、「を掃除しておいて」の音声が走行指示であることを示すものとする。そうすれば、自走式掃除機は、「ソファーの前を掃除しておいて」というユーザーの呼びかけを目標位置が「ソファーの前」に関連付けられた候補位置であり、それを目標に走行せよという指示であると認識できる。よって、ソファーの前へ走行し、スポットモードで作業を行うということが実現できる。
In this way, by storing one or more candidate positions in the candidate position storage unit in advance, and then giving a traveling instruction including a selection instruction for selecting one of those candidate positions, The self-propelled electronic device can travel to the selected position.
For example, if the travel instruction is an instruction by voice, a selection instruction by unique voice such as “in front of the sofa”, “in front of the television”, “under the desk”, or the like is associated with the candidate position. Including any selection instruction among them, it is assumed that the voice “clean up” indicates that it is a driving instruction. Then, the self-propelled vacuum cleaner is a candidate position where the target position is related to “in front of the sofa” and the user's call “clean the front of the sofa”. Can be recognized. Therefore, it is possible to run in front of the sofa and work in the spot mode.
(iv)前記目標位置決定部は、前記クエリ格納部に格納された特徴点と、各位置情報に含まれる特徴点との間で、対応する配置関係にある特徴点の組み合わせがあるか否かを調べ、対応する配置関係にある特徴点の組み合わせが少なくとも1組存在する場合、その組み合わせに係る予め定められた数の特徴点を基準特徴点とし、少なくとも1つの基準特徴点とそれ以外の特徴点からなる特徴点の組み合わせについて特徴点の配置関係を調べ、対応する配置関係にある特徴点の組み合わせの対を最も多く含む位置情報に基づいて前記目標位置を決定してもよい。
このようにすれば、クエリ格納部に格納された特徴点と位置情報データベースとして格納された特徴点を照合する際、対応する配置関係にある特徴点の組み合わせが存在するものについて、対応する対がいくつあるかを調べて、対を最も多く含む位置情報に係る位置を目標位置に決定できる。
(Iv) The target position determination unit determines whether there is a combination of feature points having a corresponding arrangement relationship between the feature points stored in the query storage unit and the feature points included in each position information. If there is at least one combination of feature points in the corresponding arrangement relationship, a predetermined number of feature points related to the combination is used as a reference feature point, and at least one reference feature point and other features The target position may be determined on the basis of position information including the largest number of pairs of feature points in the corresponding arrangement relationship by examining the arrangement relationship of the feature points with respect to the combination of feature points including points.
In this way, when the feature points stored in the query storage unit and the feature points stored as the position information database are collated, the corresponding pairs of the feature points having the corresponding arrangement relationship exist. By examining how many, it is possible to determine the position related to the position information including the most pairs as the target position.
(v)対応する配置関係は、前記クエリ格納部に格納された特徴点のうち3点と、各位置情報に含まれる特徴点のうち3点について、3点がなす三角形の全ての辺の長さが等しいか否かに基づいて判断され、前記目標位置決定部は、配置関係が対応する一対の三角形の頂点をなすそれぞれ3つの特徴点を基準特徴点とし、各対の3つの基準特徴点のうち2つの基準特徴点と基準特徴点以外の1つの特徴点がなす三角形について、さらに配置関係が対応するものが何対あるかを調べて、対応する対を最も多く含む位置情報に基づいて前記目標位置を決定してもよい。
このようにすれば、3つの特徴点がなす三角形の辺の長さを照合することによって特徴点の配置関係が対応するか否かを判断できる。
この発明の好ましい態様には、上述した複数の態様のうちの何れかを組み合わせたものも含まれる。
前述した実施の形態の他にも、この発明について種々の変形例があり得る。それらの変形例は、この発明の範囲に属さないと解されるべきものではない。この発明には、請求の範囲と均等の意味および前記範囲内でのすべての変形とが含まれるべきである。
(V) The corresponding arrangement relationship is the length of all sides of a triangle formed by three points of three feature points stored in the query storage unit and three of the feature points included in each position information. Are determined based on whether or not the two are equal, and the target position determination unit uses three feature points forming the vertices of a pair of triangles corresponding to the arrangement relationship as reference feature points, and sets three reference feature points of each pair. For the triangle formed by two reference feature points and one feature point other than the reference feature points, the number of pairs corresponding to the arrangement relationship is further examined, and based on the position information including the most corresponding pairs. The target position may be determined.
In this way, it is possible to determine whether or not the feature point arrangement relationship corresponds by comparing the lengths of the sides of the triangle formed by the three feature points.
Preferred embodiments of the present invention include combinations of any of the plurality of embodiments described above.
In addition to the embodiments described above, there can be various modifications of the present invention. These modifications should not be construed as not belonging to the scope of the present invention. The present invention should include the meaning equivalent to the scope of the claims and all modifications within the scope.
1:自走式掃除機、 2:筐体、 2b1:天板前部、 2b11:空気孔、 2b2:蓋部、 2c1:側板前半部、 2c2:側板後半部、 2d:内部構造壁、 9:回転ブラシ、 10:サイドブラシ、 11:機器制御部、 11a:走行制御部、 11b:位置検出部、 11c:特徴点抽出部、 11d:目標位置決定部、 11S:回路基板、 12:充電池、 13:充電用接続部、 14:障害検出部、 14A:超音波受信部、 14B:超音波送信部、 14C:衝突センサー、 15:集塵部、 15a:集塵容器、 15b:集塵フィルター、 18:床面検出センサー、 20:ジャイロセンサー、 21L:左輪駆動モータ、 21R:右輪駆動モータ、 22L:左駆動輪、 22R:右駆動輪、 23:駆動部、 24:誘導信号受信部、 26:後輪、 31:吸込口、 32:第1排気口、 33:第2排気口、 55:報知部、 61:記憶部、 61a:位置情報データベース格納部、 61b:クエリ格納部、 71L:左輪エンコーダ、 71R:右輪エンコーダ、 114:ダクト部、 115:電動送風機、 119:ブラシモータ、 120:イオン発生器、 121L:左輪ドライバ、 121R:右輪ドライバ、 123:送風機ドライバ 125:ブラシドライバ、 131:無線通信部、 133:撮像部、 135:音声認識部
201:充電台、 202:充電端子部、 203:誘導信号送出部
300:部屋、 301:テーブル、 303:ソファー、 305:テレビ、 307:本棚、 309:空気清浄機
1: Self-propelled cleaner, 2: Housing, 2b 1 : Top plate front, 2b 11 : Air hole, 2b 2 : Lid, 2c 1 : Front plate front half, 2c 2 : Side plate rear half, 2d: Internal structure Wall: 9: Rotating brush 10: Side brush 11: Equipment control unit 11a: Travel control unit 11b: Position detection unit 11c: Feature point extraction unit 11d: Target position determination unit 11S: Circuit board 12 : Rechargeable battery, 13: Connecting part for charging, 14: Fault detecting part, 14A: Ultrasonic receiving part, 14B: Ultrasonic transmitting part, 14C: Collision sensor, 15: Dust collecting part, 15a: Dust collecting container, 15b: Dust collection filter, 18: floor detection sensor, 20: gyro sensor, 21L: left wheel drive motor, 21R: right wheel drive motor, 22L: left drive wheel, 22R: right drive wheel, 23: drive unit, 24: induction signal Receiver 26: Rear wheel 31: Suction port 32: First exhaust port 33: Second exhaust port 55: Notification unit 61: Storage unit 61a: Position information database storage unit 61b: Query storage unit 71L: Left wheel encoder 71R : Right wheel encoder, 114: Duct section, 115: Electric blower, 119: Brush motor, 120: Ion generator, 121L: Left wheel driver, 121R: Right wheel driver, 123: Blower driver 125: Brush driver, 131: Wireless communication 133: Imaging unit 135: Voice recognition unit 201: Charging stand 202: Charging terminal unit 203: Induction signal sending unit 300: Room 301: Table 303: Sofa 305: Television 307: Bookshelf 309 :Air cleaner
Claims (5)
前記走行に伴って変化する位置を検出する位置検出部と、
周囲の光景を撮影する撮像部と、
撮影された画像から複数の特徴点を抽出する特徴点抽出部と、
走行領域内の複数の位置において前記撮像部が撮影した画像に係る特徴点とその撮影が行われた位置とが関連付けられて登録された位置情報を予め格納する位置情報データベース格納部と、
目標とすべき位置において前記撮像部が撮影した画像に係る特徴点を格納するクエリ格納部と、
前記クエリ格納部に格納された特徴点と前記位置情報データベース格納部に格納された各位置情報に含まれる特徴点との配置関係を照合し、対応する配置関係にある特徴点を最も多く含む位置情報に基づいて目標位置を決定する目標位置決定部とを備え、
前記走行制御部は、前記位置検出部が検出する現在の位置と決定された目標位置とに基づいてその目標位置への走行を制御する自走式電子機器。 A travel control unit for controlling travel;
A position detector that detects a position that changes with the travel;
An imaging unit that captures the surrounding scene;
A feature point extraction unit that extracts a plurality of feature points from the captured image;
A position information database storage unit that stores in advance position information registered in association with feature points related to images captured by the image capturing unit at a plurality of positions in the traveling region and positions where the image capturing was performed;
A query storage unit that stores feature points related to an image captured by the imaging unit at a target position;
A position that includes the largest number of feature points in the corresponding arrangement relation by collating the arrangement relation between the feature points stored in the query storage section and the feature points included in the position information stored in the position information database storage section. A target position determination unit that determines a target position based on information,
The traveling control unit is a self-propelled electronic device that controls traveling to the target position based on the current position detected by the position detection unit and the determined target position.
前記走行制御部は、走行中に前記撮像部が撮影した画像に係る特徴点と前記位置情報データベースとして格納された各位置の画像に係る特徴点とを照合して、前記位置検出部が検出する位置を補正する請求項1に記載の自走式電子機器。 The imaging unit performs sequential shooting while traveling,
The travel control unit collates a feature point related to an image captured by the imaging unit during travel with a feature point related to an image at each position stored as the position information database, and the position detection unit detects the feature point. The self-propelled electronic device according to claim 1 which corrects a position.
目標へ走行すべき走行指示を受付ける指示受領部とをさらに備え、
前記走行指示は、何れかの候補位置に係る前記選択指示を含み、
前記目標位置決定部は、前記走行指示に含まれる選択指示と前記候補位置記憶部に格納された選択指示とを照合し、対応する選択指示に関連付けられた特徴点を前記クエリ格納部に格納し、
前記走行制御部は、前記走行指示に応答して選択された目標への走行を開始する請求項1または2に記載の自走式電子機器。 A candidate position storage unit that stores feature points related to images taken at one or more candidate positions in association with selection instructions used when selecting each candidate position as a target;
An instruction receiving unit for receiving a driving instruction to drive to the target;
The travel instruction includes the selection instruction related to any candidate position,
The target position determination unit collates a selection instruction included in the travel instruction with a selection instruction stored in the candidate position storage unit, and stores a feature point associated with the corresponding selection instruction in the query storage unit. ,
The self-propelled electronic device according to claim 1, wherein the travel control unit starts traveling to a selected target in response to the travel instruction.
前記目標位置決定部は、配置関係が対応する一対の三角形の頂点をなすそれぞれ3つの特徴点を基準特徴点とし、各対の3つの基準特徴点のうち2つの基準特徴点と基準特徴点以外の1つの特徴点がなす三角形について、さらに配置関係が対応するものが何対あるかを調べて、対応する対を最も多く含む位置情報に基づいて前記目標位置を決定する請求項4に記載の自走式電子機器。 Corresponding arrangement relation is that the length of all the sides of the triangle formed by the three points is the same for three of the feature points stored in the query storage unit and three of the feature points included in each position information. Based on whether or not
The target position determination unit uses three feature points that form the vertices of a pair of triangles corresponding to the arrangement relationship as reference feature points, and two of the three reference feature points of each pair other than the two reference feature points and the reference feature points 5. The target position is determined based on position information including the largest number of corresponding pairs, by examining how many pairs of the triangles formed by one feature point correspond to the arrangement relationship. Self-propelled electronic equipment.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2015226754A JP6609463B2 (en) | 2015-11-19 | 2015-11-19 | Self-propelled electronic device |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2015226754A JP6609463B2 (en) | 2015-11-19 | 2015-11-19 | Self-propelled electronic device |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2017093626A true JP2017093626A (en) | 2017-06-01 |
JP6609463B2 JP6609463B2 (en) | 2019-11-20 |
Family
ID=58804152
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2015226754A Expired - Fee Related JP6609463B2 (en) | 2015-11-19 | 2015-11-19 | Self-propelled electronic device |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP6609463B2 (en) |
Cited By (9)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
TWI671055B (en) * | 2018-01-31 | 2019-09-11 | 光寶電子(廣州)有限公司 | Inflatable device, system and control method using the same |
WO2020059292A1 (en) * | 2018-09-21 | 2020-03-26 | パナソニックIpマネジメント株式会社 | Autonomous traveling cleaner |
US10611028B1 (en) | 2018-11-30 | 2020-04-07 | NextVPU (Shanghai) Co., Ltd. | Map building and positioning of robot |
JP2020087415A (en) * | 2018-11-30 | 2020-06-04 | ネクストヴイピーユー(シャンハイ)カンパニー リミテッドNextvpu(Shanghai)Co.,Ltd. | Map construction and positioning of robot |
CN111685655A (en) * | 2019-03-15 | 2020-09-22 | 北京奇虎科技有限公司 | Task scheduling method and device for sweeping robot |
WO2020246085A1 (en) * | 2019-06-03 | 2020-12-10 | 株式会社イクシス | Inspection assistance system |
JP2021500140A (en) * | 2017-10-23 | 2021-01-07 | ストライカー・コーポレイション | Autonomous waste collection assemblies and medical waste collection systems and methods |
CN112806909A (en) * | 2021-01-19 | 2021-05-18 | 重庆自由汇网络科技有限公司 | Intelligent manufacturing floor sweeping robot auxiliary device capable of avoiding clamping sofa feet |
US11715229B2 (en) | 2019-11-15 | 2023-08-01 | Kabushiki Kaisha Toshiba | Moving body and system |
Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2002085305A (en) * | 2000-09-12 | 2002-03-26 | Toshiba Tec Corp | Robot cleaner and robot cleaner system |
JP2014059737A (en) * | 2012-09-18 | 2014-04-03 | Sharp Corp | Self-propelled device |
JP2014085829A (en) * | 2012-10-23 | 2014-05-12 | Sharp Corp | Device controller and self-propelled electronic device |
-
2015
- 2015-11-19 JP JP2015226754A patent/JP6609463B2/en not_active Expired - Fee Related
Patent Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2002085305A (en) * | 2000-09-12 | 2002-03-26 | Toshiba Tec Corp | Robot cleaner and robot cleaner system |
JP2014059737A (en) * | 2012-09-18 | 2014-04-03 | Sharp Corp | Self-propelled device |
JP2014085829A (en) * | 2012-10-23 | 2014-05-12 | Sharp Corp | Device controller and self-propelled electronic device |
Cited By (15)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP7418325B2 (en) | 2017-10-23 | 2024-01-19 | ストライカー・コーポレイション | Autonomous waste collection assembly and medical waste collection system and method |
JP2021500140A (en) * | 2017-10-23 | 2021-01-07 | ストライカー・コーポレイション | Autonomous waste collection assemblies and medical waste collection systems and methods |
TWI671055B (en) * | 2018-01-31 | 2019-09-11 | 光寶電子(廣州)有限公司 | Inflatable device, system and control method using the same |
WO2020059292A1 (en) * | 2018-09-21 | 2020-03-26 | パナソニックIpマネジメント株式会社 | Autonomous traveling cleaner |
KR102433743B1 (en) | 2018-11-30 | 2022-08-18 | 넥스트브이피유 (상하이) 코포레이트 리미티드 | Map building and location tracking of robots |
US10611028B1 (en) | 2018-11-30 | 2020-04-07 | NextVPU (Shanghai) Co., Ltd. | Map building and positioning of robot |
JP2020087415A (en) * | 2018-11-30 | 2020-06-04 | ネクストヴイピーユー(シャンハイ)カンパニー リミテッドNextvpu(Shanghai)Co.,Ltd. | Map construction and positioning of robot |
KR20210005925A (en) * | 2018-11-30 | 2021-01-15 | 넥스트브이피유 (상하이) 코포레이트 리미티드 | Map building and location tracking of robots |
CN111685655A (en) * | 2019-03-15 | 2020-09-22 | 北京奇虎科技有限公司 | Task scheduling method and device for sweeping robot |
CN111685655B (en) * | 2019-03-15 | 2023-07-04 | 北京奇虎科技有限公司 | Task scheduling method and device for sweeping robot |
JP2020197454A (en) * | 2019-06-03 | 2020-12-10 | 株式会社イクシス | Inspection support system |
US11869177B2 (en) | 2019-06-03 | 2024-01-09 | Ixs Co., Ltd. | Inspection support system |
WO2020246085A1 (en) * | 2019-06-03 | 2020-12-10 | 株式会社イクシス | Inspection assistance system |
US11715229B2 (en) | 2019-11-15 | 2023-08-01 | Kabushiki Kaisha Toshiba | Moving body and system |
CN112806909A (en) * | 2021-01-19 | 2021-05-18 | 重庆自由汇网络科技有限公司 | Intelligent manufacturing floor sweeping robot auxiliary device capable of avoiding clamping sofa feet |
Also Published As
Publication number | Publication date |
---|---|
JP6609463B2 (en) | 2019-11-20 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP6609463B2 (en) | Self-propelled electronic device | |
EP3048502B1 (en) | Robot cleaner and method for controlling robot cleaner | |
KR101366860B1 (en) | Mobile robot and controlling method of the same | |
KR101570377B1 (en) | 3 Method for builing 3D map by mobile robot with a single camera | |
EP3349087B1 (en) | Moving robot | |
US11537135B2 (en) | Moving robot and controlling method for the moving robot | |
KR101412590B1 (en) | Robot cleaner, and system and method for remotely controlling the same | |
CN110636789B (en) | Electric vacuum cleaner | |
KR102621350B1 (en) | Robot cleaner system and method for operating the same | |
KR20190007284A (en) | Moving Robot and controlling method | |
KR20100100520A (en) | Method for gradually building map by mobile robot and correcting position of mobile robot | |
JP2014059737A (en) | Self-propelled device | |
US20200293050A1 (en) | Mobile robot and method of controlling the same | |
KR102500529B1 (en) | Moving Robot and controlling method | |
KR101303161B1 (en) | Mobile robot and controlling method of the same | |
KR20130000278A (en) | Robot cleaner and controlling method of the same | |
KR102314537B1 (en) | Moving Robot and controlling method | |
JP2020106872A (en) | Moving device, object detection method and program | |
KR20200052388A (en) | Controlling method for Artificial intelligence Moving robot | |
JP2013246589A (en) | Space information generation device, space information use system, space information generation method, control program, and recording medium | |
JP2017041731A (en) | Self-traveling apparatus wireless communication setting system and setting method | |
KR20200142865A (en) | A robot cleaner using artificial intelligence and control method thereof | |
KR102203438B1 (en) | a Moving robot and Controlling method for the moving robot | |
JP2022021145A (en) | Autonomous travel type cleaner, method for controlling autonomous travel type cleaner, and program | |
JP2017045480A (en) | Object search system and object search device |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20180920 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20190618 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20190621 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20190712 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20191001 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20191028 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 6609463 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |
|
LAPS | Cancellation because of no payment of annual fees |