KR100883520B1 - Method and apparatus for providing indoor eco-map - Google Patents
Method and apparatus for providing indoor eco-map Download PDFInfo
- Publication number
- KR100883520B1 KR100883520B1 KR1020070073422A KR20070073422A KR100883520B1 KR 100883520 B1 KR100883520 B1 KR 100883520B1 KR 1020070073422 A KR1020070073422 A KR 1020070073422A KR 20070073422 A KR20070073422 A KR 20070073422A KR 100883520 B1 KR100883520 B1 KR 100883520B1
- Authority
- KR
- South Korea
- Prior art keywords
- information
- moving object
- unit
- sensing
- predicted
- Prior art date
Links
- 238000000034 method Methods 0.000 title claims abstract description 55
- 238000005259 measurement Methods 0.000 claims description 20
- 238000013507 mapping Methods 0.000 claims description 19
- 238000012545 processing Methods 0.000 claims description 16
- 230000007613 environmental effect Effects 0.000 claims description 8
- 229910052709 silver Inorganic materials 0.000 claims description 4
- 239000004332 silver Substances 0.000 claims description 4
- 238000001514 detection method Methods 0.000 claims description 3
- 238000004519 manufacturing process Methods 0.000 claims description 2
- 239000011159 matrix material Substances 0.000 description 13
- 238000005516 engineering process Methods 0.000 description 12
- 238000010586 diagram Methods 0.000 description 5
- 238000011161 development Methods 0.000 description 4
- 230000018109 developmental process Effects 0.000 description 4
- BQCADISMDOOEFD-UHFFFAOYSA-N Silver Chemical compound [Ag] BQCADISMDOOEFD-UHFFFAOYSA-N 0.000 description 3
- 238000012937 correction Methods 0.000 description 3
- 238000012827 research and development Methods 0.000 description 3
- 239000002131 composite material Substances 0.000 description 2
- 238000010276 construction Methods 0.000 description 2
- 238000011160 research Methods 0.000 description 2
- 230000001360 synchronised effect Effects 0.000 description 2
- 238000006243 chemical reaction Methods 0.000 description 1
- 238000004891 communication Methods 0.000 description 1
- 230000002596 correlated effect Effects 0.000 description 1
- 238000005314 correlation function Methods 0.000 description 1
- 230000000875 corresponding effect Effects 0.000 description 1
- 238000002474 experimental method Methods 0.000 description 1
- 238000012986 modification Methods 0.000 description 1
- 230000004048 modification Effects 0.000 description 1
- 238000003909 pattern recognition Methods 0.000 description 1
- 239000013589 supplement Substances 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G05—CONTROLLING; REGULATING
- G05D—SYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
- G05D1/00—Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots
- G05D1/02—Control of position or course in two dimensions
- G05D1/021—Control of position or course in two dimensions specially adapted to land vehicles
- G05D1/0268—Control of position or course in two dimensions specially adapted to land vehicles using internal positioning means
- G05D1/0274—Control of position or course in two dimensions specially adapted to land vehicles using internal positioning means using mapping information stored in a memory device
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01S—RADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
- G01S13/00—Systems using the reflection or reradiation of radio waves, e.g. radar systems; Analogous systems using reflection or reradiation of waves whose nature or wavelength is irrelevant or unspecified
- G01S13/02—Systems using reflection of radio waves, e.g. primary radar systems; Analogous systems
- G01S13/06—Systems determining position data of a target
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01C—MEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
- G01C21/00—Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00
- G01C21/38—Electronic maps specially adapted for navigation; Updating thereof
- G01C21/3804—Creation or updating of map data
- G01C21/3807—Creation or updating of map data characterised by the type of data
- G01C21/383—Indoor data
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01C—MEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
- G01C21/00—Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00
- G01C21/38—Electronic maps specially adapted for navigation; Updating thereof
- G01C21/3804—Creation or updating of map data
- G01C21/3833—Creation or updating of map data characterised by the source of data
- G01C21/3844—Data obtained from position sensors only, e.g. from inertial navigation
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01C—MEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
- G01C21/00—Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00
- G01C21/38—Electronic maps specially adapted for navigation; Updating thereof
- G01C21/3863—Structures of map data
- G01C21/387—Organisation of map data, e.g. version management or database structures
- G01C21/3881—Tile-based structures
-
- G—PHYSICS
- G05—CONTROLLING; REGULATING
- G05D—SYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
- G05D1/00—Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots
- G05D1/02—Control of position or course in two dimensions
- G05D1/021—Control of position or course in two dimensions specially adapted to land vehicles
- G05D1/0231—Control of position or course in two dimensions specially adapted to land vehicles using optical position detecting means
-
- G—PHYSICS
- G05—CONTROLLING; REGULATING
- G05D—SYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
- G05D1/00—Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots
- G05D1/02—Control of position or course in two dimensions
- G05D1/021—Control of position or course in two dimensions specially adapted to land vehicles
- G05D1/0231—Control of position or course in two dimensions specially adapted to land vehicles using optical position detecting means
- G05D1/0238—Control of position or course in two dimensions specially adapted to land vehicles using optical position detecting means using obstacle or wall sensors
- G05D1/024—Control of position or course in two dimensions specially adapted to land vehicles using optical position detecting means using obstacle or wall sensors in combination with a laser
-
- G—PHYSICS
- G05—CONTROLLING; REGULATING
- G05D—SYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
- G05D1/00—Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots
- G05D1/02—Control of position or course in two dimensions
- G05D1/021—Control of position or course in two dimensions specially adapted to land vehicles
- G05D1/0268—Control of position or course in two dimensions specially adapted to land vehicles using internal positioning means
- G05D1/0272—Control of position or course in two dimensions specially adapted to land vehicles using internal positioning means comprising means for registering the travel distance, e.g. revolutions of wheels
Landscapes
- Engineering & Computer Science (AREA)
- Radar, Positioning & Navigation (AREA)
- Remote Sensing (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Automation & Control Theory (AREA)
- Aviation & Aerospace Engineering (AREA)
- Electromagnetism (AREA)
- Databases & Information Systems (AREA)
- Optics & Photonics (AREA)
- Computer Networks & Wireless Communication (AREA)
- Navigation (AREA)
- Control Of Position, Course, Altitude, Or Attitude Of Moving Bodies (AREA)
- Instructional Devices (AREA)
Abstract
본 발명은 이동체와 레이저 센서 등의 거리측정 센서를 이용하여 실내 환경지도를 신속하게 획득하기 위한 방법에 관한 것이다. 이때 작성되는 지도로는 주위환경을 바둑판 모양으로 여러 격자들로 나눈 후, 격자에 해당하는 위치에 물체가 존재할 확률값을 부여하는 격자지도이다. 이를 작성하기 위해 기본적으로 물체 위치 측정 장치로는 레이저 센서 등의 거리측정 센서를 사용하였으며, 운송수단으로는 인코더가 장착된 이동체를 사용하였다. 거리측정 센서와 이동체에서 제공된 정보를 활용하여 보다 신속하고 정확하게 실내지도를 작성하는 기술을 본 발명에서 제안하고자 한다.The present invention relates to a method for rapidly obtaining an indoor environment map by using a distance measuring sensor such as a moving object and a laser sensor. The map created at this time is a grid map that divides the surrounding environment into a grid, and gives a probability that an object exists at a position corresponding to the grid. In order to prepare this, a distance measuring sensor such as a laser sensor was basically used as an object position measuring device, and a moving body equipped with an encoder was used as a vehicle. The present invention proposes a technique for creating an indoor map more quickly and accurately by using information provided from a ranging sensor and a moving object.
실내지도, 레이저 센서, 거리측정 센서, 이동체, 확장칼만필터(Extended Kalman Filter) Indoor Map, Laser Sensor, Distance Measuring Sensor, Moving Object, Extended Kalman Filter
Description
본 발명은 실내 환경지도 작성 기술에 관한 것으로, 특히 실내 환경의 구조 및 물체의 위치를 정확하고 신속하게 획득하는데 적합한 실내 환경지도 작성 시스템 및 방법에 관한 것이다.The present invention relates to an indoor environment mapping technology, and more particularly, to an indoor environment mapping system and method suitable for accurately and quickly acquiring a structure of an indoor environment and a position of an object.
본 발명은 정보통신부 및 정보통신연구진흥원의 IT신성장동력핵심기술개발사업의 일환으로 수행한 연구로부터 도출된 것이다[과제관리번호: 2005-S-033-03, 과제명: URC를 위한 내장형 컴포넌트 기술개발 및 표준화].The present invention is derived from the research conducted as part of the IT new growth engine core technology development project of the Ministry of Information and Communication and the Ministry of Information and Telecommunication Research and Development. [Task Management Number: 2005-S-033-03, Assignment Name: Embedded Component Technology for URC] Development and standardization].
문명의 발달과 함께, 도시, 국가, 산악 등 범세계적으로 매우 다양한 축척을 갖는 실외지도가 존재하고 있으며, 위성 및 GPS(Global Positioning System)를 이용하여 보다 정확하고 세련된 실외지도를 획득하는 등 그 활용범위도 점차 넓어지게 되었다.With the development of civilization, there are outdoor maps with various scales around the world such as cities, countries, and mountains, and more accurate and refined outdoor maps are obtained by using satellite and global positioning system (GPS). The range has also gradually expanded.
이와는 대조적으로 공장, 공공시설, 병원, 공항 등에 사용되는 실내지도는 응용분야의 다양성에도 불구하고 현재 실생활에 폭 넓게 사용되지 못하고 있는데, 그 이유는 위성 및 GPS와 같은 장치를 실내에 설치할 수 없기 때문에 정확한 위치 추적(정확한 지도정보의 획득)이 불가능하고 그에 따라 실내지도 제작비용이 크게 상승하기 때문이다.In contrast, indoor maps used in factories, public facilities, hospitals, airports, etc., despite the variety of applications, are not widely used in real life because they cannot install devices such as satellites and GPS indoors. This is because accurate location tracking (acquisition of accurate map information) is impossible and the indoor map production cost greatly increases.
한편, 실내 환경과 구조를 정확하게 지도로 표현하는 기술은 그 응용분야가 다양하여 많은 연구와 개발이 진행되어 오고 있다. 특히, 레이저 센서(Laser Sensor)를 이용하여 주위환경의 물체들의 위치를 탐지한 후에 이를 이용하여 환경지도를 작성하는 기술이 주를 이루고 있는데, 이는 레이저 센서가 임의 물체에 대해 매우 좁은 시간 간격으로 정확한 정보를 제공할 수 있기 때문이다.On the other hand, the technology to accurately map the indoor environment and structure has a variety of applications and many research and development has been progressed. In particular, the technique of using the laser sensor to detect the position of objects in the surrounding environment and using them to create an environmental map is mainly used, which means that the laser sensor is accurate at a very narrow time interval for an arbitrary object. This is because information can be provided.
정확한 환경지도를 작성하기 위해서는 레이저 센서를 통해 획득한 위치정보들이 서로 정확한 연관성에 의해 판별되어야 한다. 하지만, 현재 실내 GPS 등 절대 위치를 측정할 수 있는 장치가 없을 경우 레이저 센서를 통해 획득되는 위치정보를 정확히 파악한다는 것은 매우 어려운 일이며, 이를 극복하기 위한 많은 연구 및 개발이 이루어져 왔다.In order to create an accurate environmental map, location information acquired through a laser sensor must be determined by an accurate correlation with each other. However, if there is no device capable of measuring absolute position, such as indoor GPS, it is very difficult to accurately grasp the position information acquired by the laser sensor, and many researches and developments have been made to overcome this.
이러한 연구 및 개발의 일환으로 스캔 매칭 알고리즘(Scan matching algorithm)이라는 기술이 학계에서 대표적으로 다루어지고 있다. 스캔 매칭 알고리즘은, 레이저 센서를 탑재한 이동체가 기준 위치에서 다른 위치로 이동하였을 때 발생하는 이동체의 인코더 정보 오차를 레이저 센서 정보 사이의 매칭 관계를 이용하여 극복하고자 한 연구이다.As part of such research and development, a technique called a scan matching algorithm has been dealt with in the academic world. The scan matching algorithm is a study to overcome the encoder information error of the moving object generated when the moving object equipped with the laser sensor moves from the reference position to another position by using the matching relationship between the laser sensor information.
현재 사용되고 있는 스캔 매칭 기법으로 콕스(Cox)가 제안한 논문 ("Blanche-an experiment in guidance and navigation of an autonomous robot vehicle," IEEE Transactions on Robotics and Automation, 1991)에서는 "Point- to-Line matching" 기법을 소개하고 있으며, 루(Lu)는 논문 ("Robot pose estimation in unknown environments by matching 2D range scans," IEEE Computer Vision and Pattern Recognition Conference (CVPR), 1994)을 통하여 "Point-to-Point matching" 기술을 제안한 바 있다. 또한, 웨이스(Weiss)는 논문("A map based on laser scans without geometric interpretation," In U. R. et al., editor, intelligent Autonomous Systems, pages 403-407, IOS Press, 1995)에서 "Cross Correlation Function" 기술을 제안한 바 있다.In the paper proposed by Cox ("Blanche-an experiment in guidance and navigation of an autonomous robot vehicle," IEEE Transactions on Robotics and Automation, 1991), the "Point-to-Line matching" technique is used. Lu introduces the "Point-to-Point matching" technique through a paper ("Robot pose estimation in unknown environments by matching 2D range scans," IEEE Computer Vision and Pattern Recognition Conference (CVPR), 1994). Has been proposed. Weiss also described the "Cross Correlation Function" technique in a paper ("A map based on laser scans without geometric interpretation," In UR et al., Editor, intelligent Autonomous Systems, pages 403-407, IOS Press, 1995). Has been proposed.
산업계에서도 실내 환경지도 작성기술의 실용성을 생각하여 다방면으로 접근하고 있는데, 그 중에 대표적인 선행특허 "로봇의 환경인식 장치 및 그 제어 방법 (Methods and apparatus for enabling a self-propelled robot to create a map of a work area)" (KR 1997-0033627, US 5896488A1, CN 1161268 A, CN 1055772 B, CN 1161268 C, JP 3217281 B2, JP 1997-174471 A)은 로봇을 이용하여 환경을 인식하며 주위환경을 작성하는 기술을 다루고 있다.The industry is approaching in various ways in consideration of the practicality of indoor environment mapping technology. Among them, a representative prior patent "Methods and apparatus for enabling a self-propelled robot to create a map of a" work area) "(KR 1997-0033627, US 5896488A1, CN 1161268 A, CN 1055772 B, CN 1161268 C, JP 3217281 B2, JP 1997-174471 A) is a technology that recognizes the environment using a robot and creates the surrounding environment. Is dealing with.
그런데, 상술한 바와 같은 대부분의 스캔 매칭 기법들은 자동으로 지도를 작성하는 것에만 초점이 맞추어져 있어 실제 사용하지 못하는 예외적인 경우가 많으며, 작성된 지도의 품질 또한 좋지 못한 경우가 발생한다.However, most of the scan matching techniques described above are focused only on automatically creating a map, so there are many exceptions that cannot be actually used, and the quality of the created map is also poor.
또한, 로봇의 환경인식 기술에서는, 만일 환경인식이 잘못되거나 실패할 경우에 대한 자세한 보완내용을 갖추고 있지 못하다.In addition, the environmental awareness technology of the robot does not have a detailed supplement for the case where the environmental awareness is wrong or fails.
이에 본 발명은, 이동체의 위치 정보와 레이저 센싱 정보를 이용하여 신속하게 환경지도를 획득할 수 있는 실내 환경지도 작성 시스템 및 방법을 제안하고자 한다.Accordingly, an object of the present invention is to propose an indoor environment mapping system and method for quickly obtaining an environment map using location information and laser sensing information of a moving object.
또한 본 발명은, 기술의 안정성 및 사용자 편의성을 제공함으로써 어떤 환경에서도 실내 환경지도를 정확히 작성할 수 있는 실내 환경지도 작성 시스템 및 방법을 제안하고자 한다.In addition, the present invention is to propose an indoor environment mapping system and method that can accurately create an indoor environment map in any environment by providing the stability and user convenience of the technology.
또한 본 발명은, 간단한 DSP 기술을 시스템에 적용하여 위성 및 GPS에 준하는 실내 환경지도를 획득함으로써 시스템 구성비용을 최소화하면서 신속하고 정확하게 실내 구조 및 물체들의 위치를 환경지도로 작성할 수 있는 실내 환경지도 작성 시스템 및 방법을 제안하고자 한다.In addition, the present invention, by applying a simple DSP technology to the system to obtain the indoor environment map corresponding to the satellite and GPS to create an indoor environment map that can quickly and accurately create the indoor structure and the location of the object to the environment map while minimizing the system configuration cost We would like to propose a system and method.
본 발명의 과제를 해결하기 위한 일 관점에 따르면, 실내에서 이동하는 이동체로부터 획득되는 거리값 정보와 위치 정보를 통합 운영하는 이동체 처리부와, 확장칼만필터 알고리즘을 적용하여 상기 이동체의 위치 정보를 예측하는 이동체 위치 정보 예측부와, 상기 이동체 위치 정보 예측부를 통해 예측된 이동체의 위치 정보에서 측정모델을 이용하여 상기 이동체의 거리값 정보를 예측하는 센싱 정보 예측부와, 상기 센싱 정보 예측부로부터의 예측 측정값과 상기 이동체 처리부로부터의 실제 측정값의 매칭 여부를 검토하여 상기 예측한 값이 유효한지를 판단하는 매칭 여부 판단부와, 상기 매칭 여부 판단부를 통해, 상기 예측한 값이 유효한 것으로 판단되면 상기 이동체의 위치 정보를 갱신하는 이동체 위치 정보 갱신부와, 상기 이동체 위치 정보 갱신부의 갱신 결과에 따라 환경지도를 작성하는 환경지도 작성부를 포함하는 실내 환경지도 작성 시스템을 제공한다.According to one aspect for solving the problems of the present invention, the moving object processing unit for operating the integrated distance value information and position information obtained from the moving object moving in the room, and applying the extended Kalman filter algorithm to predict the position information of the moving object A sensing information predicting unit predicting distance value information of the moving object using a moving model using a measuring model from the moving object position information predicting unit, the position information of the moving object predicted by the moving object position information predicting unit, and predicted measurement from the sensing information predicting unit A matching determination unit determining whether the predicted value is valid by examining whether a value is matched with an actual measured value from the moving unit processing unit; and if the predicted value is determined to be valid through the matching determination unit, A moving position information updating unit for updating position information, and the moving position information An indoor environment mapping system including an environment map preparation unit for creating an environment map according to an update result of the update unit is provided.
본 발명의 과제를 해결하기 위한 다른 관점에 따르면, 주위 환경 정보를 획득하는 센싱부와, 다수 휠의 회전 정보를 획득하는 인코딩부가 각각 장착되는 이동체를 이용하여 상기 센싱부의 거리값 정보 및 상기 인코딩부의 위치 정보를 통합 운영하는 실내 환경지도 작성 방법으로서, 상기 이동체가 동작하면 상기 인코딩부에 의해 상기 이동체의 위치 정보를 생성하는 단계와, 상기 이동체의 센싱부에 의해 상기 레이저 센서로부터 주위 물체까지의 거리값 정보를 생성하는 단계와, 상기 생성되는 위치 정보 및 거리값 정보를 획득한 후 상기 이동체의 위치 정보 및 센싱 정보를 예측하는 단계와, 상기 예측되는 이동체의 위치 정보 및 센싱 정보와 상기 이동체의 실제 측정 정보가 매칭되는지를 판단하는 단계와, 상기 예측되는 이동체의 위치 정보 및 센싱 정보와 상기 이동체의 실제 측정 정보가 매칭되면 상기 예측되는 이동체의 위치 정보를 갱신한 후 실내 환경지도를 작성하는 단계를 포함하는 실내 환경지도 작성 방법을 제공한다.According to another aspect for solving the problem of the present invention, using the sensing unit for obtaining the environment information, and the moving body is equipped with the encoding unit for obtaining the rotation information of the plurality of wheels, respectively, the distance value information of the sensing unit and the encoding unit An indoor environment mapping method comprising integrated location information, the method comprising: generating location information of the moving object by the encoding unit when the moving object operates, and distance from the laser sensor to a surrounding object by the sensing unit of the moving object. Generating value information, acquiring the generated position information and distance value information, predicting the position information and the sensing information of the moving object, the position information and the sensing information of the predicted moving object, and the actual of the moving object. Determining whether the measurement information is matched, the position information and the sensor of the predicted moving object; When the information and the actual measured information of the mobile matching provides for an indoor environment map comprises: after updating the location information of the moving object which is the prediction create the indoor environment map.
본 발명에 의하면, 실내공간, 예를 들어 공공시설, 병원, 공항 등에서 이동체 및 사람이 주위 실내 환경을 인식하기 위한 실내 환경지도를 신속하고 정확하게 작성할 수 있다. 예컨대, 이동로봇 기술에 본 기술이 사용될 경우, 이동로봇에게 주위환경에 대한 정보를 제공하여 줌으로써 최적의 경로계획을 작성하는데 사용될 수 있다. 또한, 공공시설과 같은 여러 기타 실내 공간의 구조 및 특징을 손쉽게 작성하여 실내 공간 길안내 서비스 등에도 활용할 수 있다. 그리고 건설업체가 사용할 경우, 건설된 실내 구조와 건축도면이 일치하는지를 알아보기 위하여 실제 건축물의 구조를 신속하고 정확하게 작성하고 파악하는데 이용될 수도 있다. 이와 같이 실내구조를 필요로 하는 기술에는 어디에나 활용될 수 있다는 점에서, 본 발명이 의미하는 바가 크다고 볼 수 있다.According to the present invention, it is possible to quickly and accurately generate an indoor environment map for moving objects and people to recognize the indoor environment in an indoor space, for example, a public facility, a hospital, an airport, and the like. For example, when the present technology is used in the mobile robot technology, it can be used to prepare an optimal route plan by providing the mobile robot with information about the surrounding environment. In addition, the structure and features of many other indoor spaces, such as public facilities, can be easily created and used for indoor space guidance services. And if used by a construction company, it can be used to quickly and accurately create and grasp the structure of an actual building to see if the interior structure and the construction drawings match. As described above, the present invention has a great meaning in that it can be used anywhere in a technology requiring an indoor structure.
본 발명은 레이저 센서와 이동체를 이용하여 실내에서도 주위환경의 구조 및 물체의 위치를 정확하고 신속하게 작성할 수 있는 것을 특징으로 한다. 본 발명의 핵심은 크게 3가지로 분류될 수 있는데, 첫째가 실내 환경지도를 작성하기 위한 이동체와 레이저 센서의 사용 방법, 둘째가 확장칼만필터(Extended Kalman Filter)를 이용하여 신속하게 환경지도를 획득하는 방법, 셋째가 사용자의 정밀한 지도의 수용에 따른 점 매칭에 의한 환경지도를 작성하는 방법이며, 이러한 기술 사상으로부터 본 발명의 목적으로 하는 바를 용이하게 달성할 수 있을 것이다.The present invention is characterized in that the structure of the surrounding environment and the position of an object can be accurately and quickly created even in a room using a laser sensor and a moving object. The core of the present invention can be classified into three types, firstly, a method of using a moving object and a laser sensor for preparing an indoor environment map, and secondly, an environmental map is quickly obtained using an extended Kalman filter. The third method is to create an environment map by point matching according to the user's acceptance of precise maps, and from this technical idea, the object of the present invention can be easily achieved.
이하, 첨부된 도면을 참조하여 본 발명의 바람직한 실시예에 대하여 상세하게 설명한다.Hereinafter, with reference to the accompanying drawings will be described in detail a preferred embodiment of the present invention.
먼저, 도 1은 본 발명의 바람직한 실시예에 따른 실내 환경지도 작성 시스템에 적용되는 이동체를 예시한 것이다.First, Figure 1 illustrates a moving object applied to the indoor environment mapping system according to a preferred embodiment of the present invention.
도 1에 도시한 바와 같이, 이동체(100)는 레이저 센서(102)와, 제 1 휠(wheel), 제 2 휠, 제 3 휠(104a, 104b, 104c)과, 제 1 인코더(encoder), 제 2 인코더(106a, 106b)를 포함한다.As shown in FIG. 1, the
먼저, 레이저 센서(102)는 이동체(100)의 소정 위치에 장착되며, 주변 환경정보를 획득하기 위한 센싱 수단이다. 이때, 본 실시예에서는 설명의 편의를 위해 센싱 수단을 레이저 센서로 한정하였으나, 그 외의 거리 측정 센서, 예를 들면 초음파 센서, 적외선 센서 등도 사용될 수 있음을 주지해야 할 것이며, 이는 후술하는 특허청구범위로부터 보다 명확해 질 것이다.First, the
제 1 휠, 제 2 휠, 제 3 휠(104a, 104b, 104c)은 방향에 상관없이 이동체(100)를 자유롭게 이동 가능하게 하는 수단으로, 예를 들면 이동체(100)의 전방 하부에는 제 1 휠(104a) 및 제 2 휠(104b)이 좌/우로 장착되며, 이동체(100)의 후방 하부에는 제 3 휠(104c)이 장착될 수 있다.The first wheel, the second wheel, and the
이때, 제 1 휠(104a)과 제 2 휠(104b)에는 이동체(100)가 이동한 거리 및 방향을 산출할 수 있도록 제 1 인코더(106a) 및 제 2 인코더(106b)가 장착된다. 즉, 제 1 휠(104a) 및 제 2 휠(104b)이 회전한 정보를 얻기 위해 제 1 휠(104a)에는 제 1 인코더(106a)가, 제 2 휠(104b)에는 제 2 인코더(106b)가 각각 장착된다.In this case, the
레이저 센서(102)를 통해 획득된 레이저 센싱 정보와 제 1 인코더(106a) 및 제 2 인코더(106b)를 통해 획득된 인코딩 정보는 이동체 처리부에 의해 통합 운영된다. 이에 대해서 도 2를 참조하여 상세히 설명하기로 한다.The laser sensing information obtained through the
도 2는 본 발명의 일 관점에 따른 실내 환경지도 작성 시스템에 대한 구성 블록도로서, 레이저 센서(102), 제 1 인코더(106a), 제 2 인코더(106b), 이동체 처리부(200), 이동체 위치 정보 예측부(300), 레이저 센싱 정보 예측부(302), 매칭 여부 판단부(304), 이동체 위치 정보 갱신부(306) 및 환경지도 작성부(308)를 포함한다.2 is a block diagram illustrating an indoor environment mapping system according to an aspect of the present invention, and includes a
도 2에 도시한 바와 같이, 이동체 처리부(200)는 레이저 센서(102)로부터 획득된 레이저 센싱 정보, 즉 레이저 센서(102)에 의해 측정된 레이저 센서(102)로부터 주위 물체까지의 거리값 정보와, 제 1 인코더(106a) 및 제 2 인코더(106b)로부터 획득된 인코딩 정보, 즉 제 1 휠(104a) 및 제 2 휠(104b) 각각에 장착된 제 1 인코더(106a) 및 제 2 인코더(106b)에 의해 측정된 휠 회전 수 정보들을 통합하여 운영한다.As shown in FIG. 2, the moving
이때, 이동체 처리부(200)에서는 인코딩 정보와 레이저 센싱 정보 간의 측정시간차로 인해 발생할 수 있는 동기화 문제를 고려하여 환경지도 작성에 필요한 정보들을 관리 및 운영하게 된다. 즉, 이동체 처리부(200) 내에는 제 1 인코더(106a) 및 제 2 인코더(106b)로부터 제공되는 인코딩 정보를 이동체 위치 정보로 변환하는 이동체 위치 정보 변환부(202)와, 레이저 센서(102)로부터 제공되는 주변 환경 정보를 레이저 센싱 정보로 변환하는 레이저 센싱 정보 변환부(204)와, 이들 이동체 위치 정보 변환부(202) 및 레이저 센싱 정보 변환부(204)로부터의 정보를 동기화하는 동기화부(206)가 구비되며, 상기 동기화부(206)에 의해 인코딩 정보와 레이저 센싱 정보가 서로 동기화되어 출력된다.In this case, the moving
한편, 이동체(100)의 인코더 정보만을 가지고 주위환경지도를 작성할 경우, 바퀴의 미끄러짐 등과 같은 이유로 이동체(100)의 위치 정보에 오차가 발생할 수 있다. 이렇게 오차가 발생한 이동체(100)의 위치 정보를 그대로 사용할 경우, 정 확한 환경지도를 작성할 수 없게 된다.On the other hand, when the surrounding environment map is created using only the encoder information of the
따라서 발생한 오차를 보정하기 위한 수단이 필요한데, 본 실시예에서는 레이저 센서(102)에 기반한 「확장칼만필터 알고리즘」을 이용하여 오차가 발생한 이동체의 위치를 보정하여 신속하게 환경지도를 작성하는 방법을 제안하고자 한다.Therefore, a means for correcting the generated error is required. In this embodiment, a method of quickly creating an environment map by correcting the position of the moving object having an error using the "extended Kalman filter algorithm" based on the
도 2의 이동체 위치 정보 예측부(300)는 상기 확장칼만필터 알고리즘을 적용한 이동체 위치 정보 예측 수단이다.The moving object position
확장칼만필터를 사용하기 위해서는 이동체(100)의 휠에 대한 인코딩 정보를 이용한 이동체(100)의 위치를 예측하는 과정이 필요하며, 이를 도 3에 예시하였다.In order to use the extended Kalman filter, a process of estimating the position of the moving
도 3에 예시한 바와 같이, 위치 예측을 위한 첫 단계는 전 스텝 이동체 위치 정보로부터 다음 스텝의 이동체의 위치를 예측하는 것이다. 우선 2차원 평면에서 번째 이동체의 위치는 다음 [수학식 1]과 같이 표현될 수 있다.As illustrated in FIG. 3, the first step for position prediction is to predict the position of the moving body of the next step from the previous step moving body position information. First in a two-dimensional plane The position of the first moving object may be expressed as in
그리고 번째 이동체의 위치를 예측하는 과정에서 이동체가 얼마나 이동했는지를 알기 위해서는 인코더(106a)(106b)로부터의 제어 정보가 필요하다. 이러한 제어 정보는 다음 [수학식 2]와 같이 이동한 거리 와 회전한 각도 로 구성된다.And Control information from the
이를 이용하여 도 3과 같이 이동체가 이동하는 기구학적 특성으로부터 번째의 이동체 위치를 예측할 수 있다. 스텝의 이동체 위치에서 제어입력 을 받아 이동체가 만큼 회전한 후 만큼 이동하였다고 했을 때 번째의 이동체 위치는 다음 [수학식 3]과 같이 정의할 수 있다.By using this from the kinematic characteristics of the moving body as shown in FIG. The position of the first mobile body can be predicted. Control input at the moving body position of the step Take a mobile Rotate by When you move by The moving object position of the second can be defined as shown in [Equation 3].
여기서 는 이동체(100)의 기구학적인 모델로서, 다음 [수학식 4]와 같이 표현할 수 있다. 또한, 는 추측항법(dead reckoning)의 위치오차를 표현해 주는 것으로서, 평균이 0이고 공분산이 인 가우시안 노이즈(zeron mean Gaussian noise)로 표현된다.here Is a kinematic model of the moving
바퀴의 바닥 미끄러짐 등에 의한 오차로 인해 실제위치 는 알 수 없으 므로, 번째 추정위치 와 제어입력을 통하여 다음 [수학식 5]와 같은 결과를 예측할 수 있을 뿐이다.Actual position due to error due to floor slip Is unknown, First estimated position Through the control input and and can only predict the result as shown in [Equation 5].
[수학식 5]를 통하여 예측한 위치와 [수학식 3]에 정의되어 있는 실제 위치 사이의 오차는 공분산 형태로 표현한다. 이때, 는 추정된 값이지만, 는 실제 제어입력으로 명확한 값이다. 그러므로 [수학식 3]을 추정된 위치 에 의한 테일러 전개(Taylor series)를 하였을 때 번째 실제위치는 다음 [수학식 6]과 같다.The error between the position predicted by Equation 5 and the actual position defined in Equation 3 is expressed in covariance form. At this time, Is an estimated value, Is the actual control input. Therefore, the estimated position of [Equation 3] When Taylor developed by Taylor series The actual position is shown in Equation 6 below.
[수학식 6]을 1차항 이외의 고차항을 무시하고 선형화하면 다음 [수학식 7]과 같다.If Equation 6 is linearized by ignoring higher order terms other than the first term, Equation 7 is expressed as follows.
[수학식 7]에서 는 [수학식 5]의 자코비언 행렬로 다음 [수학식 8]과같다.In [Equation 7] Is the Jacobian matrix of Equation 5 as shown in Equation 8 below.
[수학식 7]에 선형화된 실제위치 값과 [수학식 5]의 추정된 값을 빼면 위치 추정 오차 을 다음 [수학식 9]와 같이 구할 수 있다.Subtract the actual position value linearized in [Equation 7] and the estimated value of [Equation 5]. Can be obtained as shown in [Equation 9].
[수학식 9]의 예측한 위치의 오차를 공분산 행렬로 표현하면, 다음 [수학식 10]의 과 같다.When the error of the predicted position of [Equation 9] is expressed by a covariance matrix, the following Equation 10 Is the same as
[수학식 10]에서 는 선형 연산자이다. 그리고 와 은 서로 상관관계가 없으므로(un-correlated), 처음 항과 마지막 항만이 남게 되어 는 다음 [수학식 11]과 같이 전개된다.In [Equation 10] Is a linear operator. And Wow Are un-correlated, leaving only the first and last terms Is developed as shown in
[수학식 11]에서 은 번째 위치 오차의 공분산 행렬인 이며, 는 추측항법의 위치오차를 표현해주는 공분산 행렬 로 정리되어 최종적으로 는 최종적으로 [수학식 12]와 같이 표현될 수 있다.In
[수학식 12]는 번째의 이동체 위치 불확실성은 번째의 이동체 위치 불확실성이 기하학적으로 관계로 진전되며, 제어입력 및 에 의한 불확실성 가 더해진다는 물리적 의미를 담고 있다.[Equation 12] is Mobile position uncertainty Mobile position uncertainty is geometrically Progress with relation, control input And Uncertainty by Contains the physical meaning of being added.
다른 한편, 도 2의 레이저 센싱 정보 예측부(302)는 이동체 보정을 위해 상기 이동체 위치 정보 예측부(300)를 통해 예측된 이동체의 위치에서 측정모델(measurement model)을 이용하여 레이저 센서(102)의 측정값을 예측하는 역할을 한다.On the other hand, the laser
도 4는 이와 같은 레이저 센싱 정보 예측부(302)의 기능을 설명하기 위한 도면으로서, 레이저 센서(102)의 위치가 이동체(100)의 중심을 기준으로 하는 지역 좌표계로 정의되어 있다.4 is a view for explaining the function of such a laser sensing
이를 환경지도의 원점을 기준으로 하는 전역 좌표계(global coordinate)로 변환할 수 있으며, 이는 다음 [수학식 13]과 같이 표현된다.This can be converted into a global coordinate based on the origin of the environment map, which is expressed as in Equation 13 below.
도 4에서 레이저 센서(102)의 번째 정보가 탐지할 수 있는 물체의 위치를 도시한 예측 탐지 격자의 위치는 다음 [수학식 14]와 같이 정의될 수 있다.Of the
[수학식 14]에서 는 레이저 센서(102)의 번째 정보가 탐지할 수 있는 물체의 위치를 나타낸 것으로, 여기서 는 레이저 센서(102)의 번째 정보가 탐지할 수 있는 전역좌표계에서의 물체의 축 위치이고, 는 전역좌표계에서의 축 위치이다.In [Equation 14] Of the
이때, 레이저 센서(102)가 번째 빔을 발사하였다면, 가장 가까운 물체가 존재할 격자에 의해 발사한 빔을 반사시킬 것이다. 이를 수식으로 표현하면 [수학식 15]와 같으며 이것이 측정모델이다.At this time, the
[수학식 15]에서 는 레이저 센서(102)의 번째 빔의 예측 거리값이다. 여기서, 는 전역좌표계에서 레이저 센서(102)의 위치, 는 전역좌표계에서 레이저 센서(102)의 위치, 는 예측된 물체의 전역좌표계에서의 축 위치, 는 예측된 물체의 전역좌표계에서의 축 위치이다.In [Equation 15] Of the
[수학식 15]에 정의된 측정모델을 활용하여, 예측된 이동체의 위치에서 레이저 센서(102)의 번째 정보의 측정값을 다음 [수학식 16]과 같이 예측할 수 있다.By utilizing the measurement model defined in Equation 15, the
[수학식 16]에서 는 번째 예측된 이동체의 위치에서 레이저 센서(102)의 번째 빔의 예측 거리값이다. 여기서, 는 번째 이동체의 위치에서 예측한 번째 이동체의 위치이며, 는 예측된 번째 이동체의 위치에서 레이저 센서(102)의 번째 정보가 탐지할 수 있는 물체의 위치를 나타낸다.In [Equation 16] Is Of the
매칭 여부 판단부(304)는 상기 레이저 센싱 정보 예측부(302)로부터의 예측 측정값([수학식 16])과, 상기 이동체 처리부(200)로부터의 실제 측정값의 매칭 여 부를 판단한다. 즉, 매칭 여부 판단부(304)는 본 실시예에 따라 이동체 처리부(200)의 실제 측정값과 레이저 센싱 정보 예측부(302)의 예측 측정값과의 차를 구하여 예측한 값이 유효한지를 판단한다.The matching
도 4에서 레이저 센서 번째 정보의 측정값은 다음 [수학식 17]과 같이 정의할 수 있다.Laser sensor in Figure 4 The measured value of the first information may be defined as in Equation 17 below.
[수학식 17]에서 는 예측된 이동체의 위치, 는 확률격자지도에서 물체가 탐지될 위치, 는 거리값, 는 레이저 센서(102)의 오차를 의미하며, 예측된 이동체의 위치 에서 레이저 센서의 번째 정보가 빔을 발사했을 때, 확률격자지도에서 물체가 탐지될 위치 에서 의 거리값에 센서의 오차 가 더해진 값이 거리 측정값이 된다는 것이다. 레이저 센서의 번째 정보의 측정 오차는 로서 평균이 0이고 공분산이 인 가우시안 노이즈로 표시된다. 상기 [수학식 17]을 예측된 위치 에 적용하였을 때, 에 대하여 다음 [수학식 18]과 같이 테일러 전개 될 수 있다.In Equation 17 Is the predicted position of the moving object, Where the object is to be detected on the probability grid Is the distance value, Denotes an error of the
[수학식 18]을 1차항 이외의 고차항을 무시하고 선형화하면 다음 [수학식 19]로 표현된다.Equation (18) is linearized by ignoring the higher order terms other than the first term.
[수학식 19]에서 는 [수학식 5]의 자코비언 행렬로 다음 [수학식 20]과 같다.In Equation 19 Is the Jacobian matrix of Equation 5 as shown in Equation 20 below.
[수학식 20]에서 는 예측된 센서의 위치에서 가장 가까운 물체가 존재하는 격자의 위치까지의 거리이다.In [Equation 20] Is the distance from the predicted sensor position to the position of the grating where the nearest object exists.
예측한 측정값이 유효한지를 판단하기 위하여 [수학식 16]의 예측값과 [수학식 19]의 실제 측정값의 차를 통해 다음 [수학식 21]과 같이 이노베이션(innovation)을 구한다.In order to determine whether the predicted measured value is valid, an innovation is obtained as shown in Equation 21 through the difference between the predicted value of Equation 16 and the actual measured value of Equation 19.
[수학식 21]에서 얻어지는 이노베이션의 공분산 행렬은 다음 [수학식 22]의 과 같다.The covariance matrix of the innovation obtained in Equation 21 is given by Equation 22 Is the same as
[수학식 22]에서 는 선형 연산자이며 와 은 서로 상관관계가 없으므로 처음 항과 마지막 항만이 남게 되어 는 [수학식 23]과 같이 전개된다.In Equation 22 Is a linear operator Wow Are not correlated, leaving only the first and last terms Is developed as shown in Equation 23.
[수학식 23]에서 은 예측된 이동체 위치의 공분산 행렬인 이며, 는 레이저 센서(102)의 측정 오차를 표현해주는 공분산 행렬 이므로 다음 [수학식 24]와 같이 정리될 수 있다.In Equation 23 Is the covariance matrix of the predicted mobile positions Is, Is a covariance matrix representing the measurement error of the
[수학식 21] 및 [수학식 24]의 이노베이션과 그 공분산 행렬을 이용하여 예측된 측정값과 실제 측정값이 잘 매칭되었는지를 다음 [수학식 25]를 통해 평가될 수 있다.Using the innovations of Equations 21 and 24 and the covariance matrix thereof, whether the predicted and actual measured values match well can be evaluated by the following Equation 25.
[수학식 25]에서 는 경계 오차 값으로서 미리 정해주는 매개변수이다. 만일, [수학식 25]를 만족한다면 매칭이 성공적임을 의미한다. 여러 개의 레이저 센서 정보를 동시에 사용하므로, [수학식 25]를 만족하는 개의 레이저 센서 정보가 있을 경우 합성이노베이션(composite innovation)은 다음 [수학식 26]과 같다.In [Equation 25] Is a predetermined parameter as the boundary error value. If Equation 25 is satisfied, the match is successful. Since multiple laser sensor information is used at the same time, the following Equation 25 If there are two laser sensor information, synthetic innovation (composite innovation) is given by Equation 26 below.
그리고 레이저 센서(102)의 합성측정모델(composite measurement model)의 자코비언 값 또한 다음 [수학식 27]과 같이 표현된다.The Jacobian value of the composite measurement model of the
상기 [수학식 27]을 이용하여 다음 [수학식 28]과 같은 합성이노베이션 공분산 행렬을 구할 수 있다.Using Equation 27, a synthetic innovation covariance matrix can be obtained as shown in Equation 28 below.
[수학식 28]에서 은 개의 레이저 센서 정보에 대한 가우시안 노이즈이다.In [Equation 28] silver Gaussian noise for two laser sensor information.
또 다른 한편, 이동체 위치 정보 갱신부(306)는 상기 매칭 여부 판단부(304)를 통해 구해진 합성이노베이션([수학식 26])을 이용하여 이동체 위치 정보를 갱신하는 역할을 한다.On the other hand, the moving object position
즉, 이동체 위치 정보 갱신부(306)는 레이저 센서(102)를 이용한 이동체 보정 과정의 마지막 단계를 수행하는 것으로, 앞서 구한 합성이노베이션을 이용하여 최종적으로 이동체의 위치와 그 공분산 행렬을 갱신하는 것이다. 이때, 잘 알려진 칼만이득(Kalman gain)은 다음 [수학식 29]와 같다.That is, the moving object position
[수학식 28]의 합성이노베이션 공분산 행렬과 [수학식 29]의 칼만이득을 이용하여 이동체의 추정된 위치 및 추정된 위치의 공분산은 다음 [수학식 30]과 [수학식 31]을 통해 갱신된다.Using the synthetic innovation covariance matrix of [Equation 28] and Kalmangain of [Equation 29], the estimated position and the covariance of the estimated position of the moving body are updated by the following [Equation 30] and [Equation 31]. .
끝으로, 환경지도 작성부(308)는 상기 이동체 위치 정보 갱신부(306)의 이동체 위치 및 공분산 행렬의 갱신 결과에 따라 환경지도를 작성하는 역할을 한다. 즉, 환경지도 작성부(308)는 상기 과정들, 즉 이동체 위치값 예측, 레이저 센서값 예측, 레이저 센서값 매칭 여부 판단, 추정된 이동체 위치 갱신 등의 과정들을 거쳐 이동체의 위치가 보정이 되었다면, 상기 위치 정보 값과 레이저 센서 정보 값을 활용하여 물체의 위치를 외부에 도시하여 주는 것으로 신속한 환경지도를 작성할 수 있다.Finally, the environment
그런데, 만일 위 알고리즘으로 보정이 잘 안된 경우에는 도 5와 같이 이동체의 위치를 레이저 센서 값에 매칭되는 위치로 수동조작으로 이동시킨다. 이 방법 을 이용할 경우 신속하면서도 정확하게 이동체의 위치를 보정하면서 환경지도를 작성할 수 있다.However, if the above algorithm is not well corrected, as shown in FIG. 5, the position of the moving object is moved manually to a position matching the laser sensor value. Using this method, environment maps can be created while correcting the position of moving objects quickly and accurately.
이동체의 인코더 정보만을 가지고 주위환경지도를 작성할 경우, 휠의 미끄러짐 등과 같은 이유로 이동체의 위치에 오차를 가지게 되며, 이를 보정하기 위한 수단으로 앞서 확장칼만필터 알고리즘을 사용하였다.When creating an environment map using only the encoder information of the moving object, the position of the moving object has an error for reasons such as wheel slippage, and the extended Kalman filter algorithm was used as a means for correcting this.
이와 비교하여, 신속하지는 못하지만 더욱 정밀한 지도를 작성하고자 하며 어떠한 장소에서도 환경지도를 작성하기 위한 방법을 제안하고자 한다.In comparison, we would like to create a faster but more accurate map and suggest a way to create an environmental map at any location.
이 방법은 각 이동체의 위치에서 획득한 레이저 센서를 이용하여 사람이 모든 과정을 수동으로 이동체의 위치를 보정해주는 방법이다.This method uses a laser sensor acquired at the position of each moving object to manually correct the position of the moving object.
도 6을 살펴보면, k 스텝에서 레이저 센서 정보를 통하여 작성된 지도와 k+1 스텝에서 레이저 센서정보를 통하여 작성된 지도 사이에 매칭되는 두 점을 이용하여 두 스텝에서 작성된 지도를 결합시켜 나가면, 최종적으로 정확한 환경지도를 작성시켜 나갈 수 있다.Referring to FIG. 6, when the map created in the two steps is combined using two points that are matched between the map created through the laser sensor information at step k and the map generated through the laser sensor information at step k + 1, finally the correct You can create an environmental map.
이때, k 스텝에서 매칭되는 두 점이 와 이고, k+1 스텝에서 매칭되는 두 점이 와 이라고 하였을 때, k 스텝의 이동체 위치로부터 k+1 스텝의 이동체 위치를 아래의 [수학식 32] 내지 [수학식 34]를 이용하여 구할 수 있으며, 이를 이용하여 상기 두 스텝(k 스텝 내지 k+1 스텝)에 걸쳐 작성된 지도를 서로 매칭시켜 정확한 지도를 작성한다.At this time, the two points matched in the k step Wow And two matching points in the k + 1 step Wow , The position of the moving body in the k step The position of the moving object of the k + 1 step can be obtained by using the following Equations 32 to 34. Create a correct map by matching.
상기 [수학식 32], [수학식 33], [수학식 34]는 k+1 스텝의 이동체의 위치를 구하는 수식들로서, 여기서 및 은 k번째 이동체의 레이저 센싱 정보값 중의 두 점의 위치이고, 및 은 및 과 매칭되는 k+1번째 이동체의 레이저 센싱 정보값이며, 는 k 스텝에서의 이동체의 위치, 은 k+1 스텝에서의 이동체의 위치를 각각 나타낸다.[Equation 32], [Equation 33], [Equation 34] are equations for obtaining the position of the moving object of k + 1 step, wherein And Is the position of two points in the laser sensing information of the k-th moving object, And silver And Is the laser sensing information of the k + 1th moving object that matches Is the position of the moving object in k steps, Denotes the position of the moving object in the k + 1 step, respectively.
이하, 상술한 구성 및 기능들과 함께, 본 발명의 다른 관점에 따른 실내 환경지도 작성 과정을 첨부한 도 7의 흐름도를 참조하여 상세히 설명하기로 한다.Hereinafter, the indoor environment mapping process according to another aspect of the present invention together with the above-described configuration and functions will be described in detail with reference to the flowchart of FIG. 7.
도 7에 도시한 바와 같이, 이동체(100)가 동작하면 이동체(100)의 각 휠들(104a)(104b)(104c)이 회전하게 되고, 상기 휠들(104a)(104b)(104c) 중 제 1 휠(104a) 및 제 2 휠(104b)에 장착된 제 1 인코더(106a) 및 제 2 인코더(106b)에 의해 이동체(100)의 위치 정보, 즉 이동체(100)가 이동한 거리 및 방향 정보가 생 성된다. 동시에, 이동체(100)의 레이저 센서(102)에 의해 주위 환경정보, 예컨대 레이저 센서(102)로부터 주위 물체까지의 거리값 정보가 생성된다(S700).As shown in FIG. 7, when the
이러한 제 1 인코더(106a) 및 제 2 인코더(106b)의 위치 정보와, 레이저 센서(102)의 거리값 정보는 이동체 처리부(200)로 제공되며, 이동체 처리부(200)에서는 정보 변환 및 동기화 과정을 거치게 된다.The position information of the
매칭 여부 판단부(304)는 이러한 이동체 처리부(200)의 변환 및 동기화된 위치 정보 및 거리값 정보, 즉 실제 이동체 위치 정보를 획득한다(S702).The matching
이후, 확장칼만필터를 적용할 것인지를 판단하고, 확장칼만필터를 사용하여 신속한 지도를 작성할 경우에는, 본 발명에서 제안한 레이저 센서기반 격자지도 위치추정 확장칼만필터 알고리즘을 통하여 이동체(100)의 위치를 보정하고, 보정된 이동체의 위치의 오차가 클 경우 수동 조작을 통한 이동체 위치 보정을 하여 정확하고 신속한 실내환경지도를 작성하는 것이다.After that, it is determined whether to apply the Extended Kalman Filter, and when creating a fast map using the Extended Kalman Filter, the position of the moving
이때, 이동체 위치 정보 예측부(300)는 본 실시예에 따라 이동체 위치 정보를 예측하고, 레이저 센싱 정보 예측부(302)는 이동체의 레이저 센싱 정보를 예측한다(S706). 이러한 이동체 위치 정보 및 레이저 센싱 정보 예측 과정은, 상기 도 3 및 도 4, 그리고 상기 [수학식 1] 내지 [수학식 16]에서 이미 기술한 바 있기 때문에 구체적인 설명은 생략하기로 한다.At this time, the moving object
이후, 단계(S708)에서는 매칭 여부 판단부(304)를 통해 상기 이동체 위치 정보 예측부(300) 및 레이저 센싱 정보 예측부(302)의 이동체 예측 정보와 상기 이동체 처리부(200)의 실제 측정 정보가 매칭되는지를 판단한다.Thereafter, in step S708, the moving object prediction information of the moving object position
만일, 이동체 예측 정보와 실제 측정 정보가 매칭되면, 단계(S710)로 진행하여 예측된 이동체 위치 정보를 갱신한 후 실내 환경지도를 작성한다. 즉, 상기 예측된 이동체 위치 정보를 이동체 위치 정보 갱신부(306)를 통해 갱신하고, 갱신된 정보를 환경지도 작성부(308)로 제공하여 물체의 위치를 도시하는 실내 환경지도를 작성하도록 한다.If the moving object prediction information and the actual measurement information match, the process proceeds to step S710 to update the predicted moving object position information and then creates an indoor environment map. That is, the predicted moving object position information is updated through the moving object position
반면, 이동체 예측 정보와 실제 측정 정보가 매칭되지 않으면, 단계(S712)로 진행하여 실제 이동체 위치를 보정하는 과정을 거친다. 즉, 상기 도 5에서 기술한 바와 같이, 레이저 센서 값에 매칭되는 위치로 수동 조작하여 이동체의 위치를 이동시킨다.On the other hand, if the moving object prediction information and the actual measurement information does not match, the process proceeds to step S712 to correct the actual moving object position. That is, as described in FIG. 5, the position of the moving object is moved by manual manipulation to a position matching the laser sensor value.
한편, 단계(S704)에서 확장칼만필터를 사용하지 않을 경우, 사용자가 각 이동체의 위치에서 측정한 레이저 센서 측정거리값을 이용하여 수동 점 매칭을 함으로써 이동체의 위치를 정확하게 보정할 수 있다(S714). 이러한 점 매칭 방법을 이용한 이동체 위치 보정 방법은 도 6에 도시한 바와 같으며, 확장칼만필터 사용에 비해 신속함은 떨어지지만, 어느 장소에서나 그 정확성을 보장할 수 있다.On the other hand, if the extended Kalman filter is not used in step S704, the user can accurately correct the position of the moving object by performing manual point matching using the laser sensor measurement distance value measured at the position of each moving object (S714). . The moving object position correction method using the point matching method is as shown in FIG. 6, although the speed is less than that of the use of the extended Kalman filter, the accuracy can be guaranteed at any place.
이와 같이 본 발명은 확장칼만필터 알고리즘을 통하여 신속하게 지도를 작성할 수도 있으며, 수동 점 매칭 사용을 통하여 어느 장소에서나 정확하게 실내지도를 작성할 수 있다As described above, the present invention can generate a map quickly through the extended Kalman filter algorithm, and can accurately create an indoor map at any place through the use of manual point matching.
이상 설명한 바와 같이, 본 발명의 실시예에 대해 상세히 기술하였으나 본 발명은 이러한 실시예에 국한되는 것은 아니며, 후술하는 청구범위에 기재된 본 발명의 기술적 사상과 범주 내에서 본 발명의 특징이 이해되어져야 할 것이며, 또한 이로부터 당업자라면 여러 가지 변형으로도 운용 가능함을 주지해야 할 것이다.As described above, embodiments of the present invention have been described in detail, but the present invention is not limited to these embodiments, and the features of the present invention should be understood within the spirit and scope of the present invention described in the following claims. It will also be appreciated by those skilled in the art that the invention can be operated in various modifications.
도 1은 이동체와 레이저 센서의 장착을 예시한 도면,1 is a view illustrating the mounting of a moving object and a laser sensor,
도 2는 본 발명의 일 관점에 따라 이동체와 레이저 센서 정보를 통합 운영하는 실내 환경지도 작성 시스템의 구성 블록도,2 is a block diagram illustrating a configuration of an indoor environment mapping system in which a moving object and laser sensor information are integrated and operated according to an aspect of the present invention;
도 3은 이동체의 인코더 정보를 이용한 이동체 위치 예측을 예시한 도면,3 is a diagram illustrating a moving object position prediction using encoder information of a moving object;
도 4는 레이저 센서의 거리 예측값을 예시한 도면,4 is a diagram illustrating a distance prediction value of a laser sensor;
도 5는 확장칼만필터를 이용한 이동체 위치 보정 중 오차가 많이 발생하였을 때 격자지도와 레이저 센서 정보값을 이용하여 수동으로 위치를 보정해주는 예시 도면,5 is an exemplary view of manually correcting a position using a grid map and laser sensor information when a large number of errors occur during moving object position correction using the Extended Kalman Filter.
도 6은 두 점을 수동으로 매칭하여 지도를 결합시켜 나가는 과정을 예시한 도면,6 is a diagram illustrating a process of combining two maps by manually matching two points;
도 7은 본 발명의 다른 관점에 따라 신속한 실내 환경지도 작성 과정을 나타낸 흐름도.7 is a flowchart illustrating a quick indoor environment mapping process according to another aspect of the present invention.
<도면의 주요 부호에 대한 간략한 설명><Brief description of the major symbols in the drawings>
102 : 레이저 센서 106a, 106b : 인코더102:
200 : 이동체 처리부 300 : 이동체 위치 정보 예측부200: moving object processing unit 300: moving object position information prediction unit
302 : 레이저 센싱 정보 예측부 304 : 매칭 여부 판단부302: laser sensing information prediction unit 304: matching determination unit
306 : 이동체 위치 정보 갱신부 308 : 환경지도 작성부306: moving object position information updating unit 308: environment map preparation unit
Claims (16)
Priority Applications (4)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
KR1020070073422A KR100883520B1 (en) | 2007-07-23 | 2007-07-23 | Method and apparatus for providing indoor eco-map |
PCT/KR2008/004090 WO2009014332A2 (en) | 2007-07-23 | 2008-07-11 | Method and system for creating indoor environment map |
JP2010518109A JP5400044B2 (en) | 2007-07-23 | 2008-07-11 | Method and system for creating indoor environment map |
US12/692,113 US9310807B2 (en) | 2007-07-23 | 2010-01-22 | Method and system for creating indoor environment map |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
KR1020070073422A KR100883520B1 (en) | 2007-07-23 | 2007-07-23 | Method and apparatus for providing indoor eco-map |
Publications (2)
Publication Number | Publication Date |
---|---|
KR20090010367A KR20090010367A (en) | 2009-01-30 |
KR100883520B1 true KR100883520B1 (en) | 2009-02-13 |
Family
ID=40281953
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
KR1020070073422A KR100883520B1 (en) | 2007-07-23 | 2007-07-23 | Method and apparatus for providing indoor eco-map |
Country Status (4)
Country | Link |
---|---|
US (1) | US9310807B2 (en) |
JP (1) | JP5400044B2 (en) |
KR (1) | KR100883520B1 (en) |
WO (1) | WO2009014332A2 (en) |
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR101737229B1 (en) * | 2015-10-21 | 2017-05-18 | 한국항공우주연구원 | Apparatus and method of generating a indoor map by using a flight object |
Families Citing this family (46)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US10809071B2 (en) | 2017-10-17 | 2020-10-20 | AI Incorporated | Method for constructing a map while performing work |
KR101581415B1 (en) * | 2009-02-23 | 2015-12-30 | 삼성전자주식회사 | apparatus and method for building a map |
US8462049B2 (en) | 2009-09-18 | 2013-06-11 | Teecom | Apparatus and method for constructing and utilizing a beacon location database |
US8188921B2 (en) * | 2009-09-18 | 2012-05-29 | TEECOM Design Group | Apparatus and method for constructing and utilizing a beacon location database |
KR101686169B1 (en) | 2010-02-09 | 2016-12-14 | 삼성전자주식회사 | Apparatus and Method for generating 3D map based on the octree map |
EP2572543A4 (en) | 2010-05-19 | 2017-03-29 | Nokia Technologies Oy | Extended fingerprint generation |
US10049455B2 (en) | 2010-05-19 | 2018-08-14 | Nokia Technologies Oy | Physically-constrained radiomaps |
WO2011144966A1 (en) * | 2010-05-19 | 2011-11-24 | Nokia Corporation | Crowd-sourced vision and sensor-surveyed mapping |
KR101429954B1 (en) * | 2010-06-25 | 2014-08-14 | 에스케이텔레콤 주식회사 | Method for Generating In-Building Radio Wave Evnironment Map, Apparatus therefor |
US9499338B2 (en) | 2010-12-15 | 2016-11-22 | Symbotic, LLC | Automated bot transfer arm drive system |
TWI654130B (en) * | 2010-12-15 | 2019-03-21 | 辛波提克有限責任公司 | Autonomous transport robot, suspension locking system for autonomous transport vehicles and suspension system for autonomous transport vehicles |
US8504288B2 (en) | 2011-05-11 | 2013-08-06 | Google Inc. | Quality control of mapping data |
US8583400B2 (en) | 2011-05-13 | 2013-11-12 | Google Inc. | Indoor localization of mobile devices |
US8548738B1 (en) | 2011-07-08 | 2013-10-01 | Google Inc. | Constructing paths based on a particle model |
US8386422B1 (en) | 2011-07-08 | 2013-02-26 | Google Inc. | Using constructed paths to supplement map data |
WO2013040411A1 (en) * | 2011-09-15 | 2013-03-21 | Honda Motor Co., Ltd. | System and method for dynamic localization of wheeled mobile robots |
US9291461B2 (en) * | 2012-03-12 | 2016-03-22 | Google Inc. | Location correction |
US9539164B2 (en) | 2012-03-20 | 2017-01-10 | Xerox Corporation | System for indoor guidance with mobility assistance |
KR102048954B1 (en) * | 2012-10-25 | 2020-01-09 | 한국전자통신연구원 | System, apparatus and method for servicing interior infra |
KR102158029B1 (en) | 2014-01-03 | 2020-09-21 | 한국전자통신연구원 | Method and apparatus for recognizing indoor location using field intensity map |
KR102125563B1 (en) * | 2014-05-29 | 2020-06-22 | 삼성전자주식회사 | Device and mathod for gernerating data of representing structure in the room |
US9971320B2 (en) | 2014-07-03 | 2018-05-15 | Google Llc | Methods and systems for adaptive triggering of data collection |
KR101697857B1 (en) * | 2015-04-08 | 2017-01-18 | 엘지전자 주식회사 | Moving robot and method for recognizing a location of the same |
CN106153043B (en) * | 2015-04-13 | 2019-09-10 | Tcl集团股份有限公司 | A kind of robot indoor positioning method and system based on infrared distance sensor |
CN104897161B (en) * | 2015-06-02 | 2018-12-14 | 武汉大学 | Indoor plane map making method based on laser ranging |
KR101734654B1 (en) | 2015-06-25 | 2017-05-11 | 현대자동차주식회사 | System and Method for writing Occupancy Grid Map of sensor centered coordinate system using laser scanner |
CN105043396B (en) * | 2015-08-14 | 2018-02-02 | 北京进化者机器人科技有限公司 | The method and system of self-built map in a kind of mobile robot room |
KR101976241B1 (en) * | 2016-01-22 | 2019-08-28 | 경희대학교 산학협력단 | Map building system and its method based on multi-robot localization |
JP6759625B2 (en) * | 2016-02-25 | 2020-09-23 | 株式会社大林組 | Measuring device |
WO2017167387A1 (en) * | 2016-03-31 | 2017-10-05 | Nec Europe Ltd. | Method for predicting a motion of an object |
JP2017194527A (en) * | 2016-04-19 | 2017-10-26 | トヨタ自動車株式会社 | Data structure of circumstance map, creation system of circumstance map and creation method, update system and update method of circumstance map |
CN106767820B (en) * | 2016-12-08 | 2017-11-14 | 立得空间信息技术股份有限公司 | A kind of indoor moving positioning and drafting method |
US10531065B2 (en) * | 2017-03-30 | 2020-01-07 | Microsoft Technology Licensing, Llc | Coarse relocalization using signal fingerprints |
US10600252B2 (en) * | 2017-03-30 | 2020-03-24 | Microsoft Technology Licensing, Llc | Coarse relocalization using signal fingerprints |
US10419133B2 (en) | 2017-09-18 | 2019-09-17 | Electronics And Telecommunications Research Institute | Method of estimating position of interference signal source and apparatus thereof |
CN108088446B (en) * | 2017-12-01 | 2019-07-19 | 合肥优控科技有限公司 | Mobile robot course angle detection method, device and computer readable storage medium |
CN108151727B (en) * | 2017-12-01 | 2019-07-26 | 合肥优控科技有限公司 | Method for positioning mobile robot, system and computer readable storage medium |
KR102466940B1 (en) * | 2018-04-05 | 2022-11-14 | 한국전자통신연구원 | Topological map generation apparatus for traveling robot and method thereof |
CN108692720B (en) | 2018-04-09 | 2021-01-22 | 京东方科技集团股份有限公司 | Positioning method, positioning server and positioning system |
CN108469826B (en) * | 2018-04-23 | 2021-06-08 | 宁波Gqy视讯股份有限公司 | Robot-based map generation method and system |
CN109460040A (en) * | 2018-12-28 | 2019-03-12 | 珠海凯浩电子有限公司 | It is a kind of that map system and method are established by mobile phone shooting photo array floor |
US11087103B2 (en) | 2019-07-02 | 2021-08-10 | Target Brands, Inc. | Adaptive spatial granularity based on system performance |
CN111060135B (en) * | 2019-12-10 | 2021-12-17 | 亿嘉和科技股份有限公司 | Map correction method and system based on local map |
JP7089550B2 (en) * | 2020-06-16 | 2022-06-22 | 日立建機株式会社 | Construction machinery |
CN111735463B (en) * | 2020-07-28 | 2020-11-24 | 北京云迹科技有限公司 | Picture construction method and device |
KR102521915B1 (en) * | 2020-12-18 | 2023-04-17 | 동국대학교 산학협력단 | Method and apparatus of detecting transparent obstacles using laser range finder |
Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR20040087171A (en) * | 2003-04-04 | 2004-10-13 | 엘지전자 주식회사 | Mapping method by path trace for mobile robot |
KR20060094929A (en) * | 2006-07-12 | 2006-08-30 | 안현식 | Localization system and method for mobile robot using corner's type |
KR20070039181A (en) * | 2005-10-07 | 2007-04-11 | 주식회사 대우일렉트로닉스 | Apparatus and method for reading a location for a robot cleaner |
KR20070061218A (en) * | 2005-12-08 | 2007-06-13 | 한국전자통신연구원 | Method and device for recognizing the location of indoor robot |
Family Cites Families (20)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
GB2158965B (en) * | 1984-05-16 | 1988-05-18 | Gen Electric Co Plc | Driverless vehicle |
JPS63213005A (en) * | 1987-03-02 | 1988-09-05 | Hitachi Ltd | Guiding method for mobile object |
JPH04227507A (en) * | 1990-07-02 | 1992-08-17 | Nec Corp | Method for forming and keeping map for moving robot |
JPH0680203A (en) * | 1992-03-24 | 1994-03-22 | East Japan Railway Co | Control method for floor surface cleaning robot |
JPH06149358A (en) * | 1992-11-13 | 1994-05-27 | Matsushita Electric Works Ltd | Mobile robot |
US5961571A (en) * | 1994-12-27 | 1999-10-05 | Siemens Corporated Research, Inc | Method and apparatus for automatically tracking the location of vehicles |
KR0168189B1 (en) * | 1995-12-01 | 1999-02-01 | 김광호 | Control method and apparatus for recognition of robot environment |
JPH10105236A (en) * | 1996-09-30 | 1998-04-24 | Minolta Co Ltd | Positioning device for traveling object and its method |
JPH11161328A (en) * | 1997-11-26 | 1999-06-18 | Nec Corp | Device and method for confirming position of self-traveling robot |
US20050234679A1 (en) * | 2004-02-13 | 2005-10-20 | Evolution Robotics, Inc. | Sequential selective integration of sensor data |
US7689321B2 (en) * | 2004-02-13 | 2010-03-30 | Evolution Robotics, Inc. | Robust sensor fusion for mapping and localization in a simultaneous localization and mapping (SLAM) system |
US7467115B2 (en) * | 2004-07-15 | 2008-12-16 | Neurosciences Research Foundation, Inc. | Mobile brain-based device having a simulated nervous system based on the hippocampus |
JP2006039682A (en) * | 2004-07-22 | 2006-02-09 | Toshiba Tec Corp | Autonomous travel robot |
JP4300199B2 (en) * | 2005-06-13 | 2009-07-22 | 株式会社東芝 | Mobile robot, mobile robot position and orientation calculation method, mobile robot autonomous traveling system |
AU2006274421B2 (en) * | 2005-07-26 | 2011-08-11 | Macdonald, Dettwiler And Associates Inc. | Traffic management system for a passageway environment |
JP2007094743A (en) * | 2005-09-28 | 2007-04-12 | Zmp:Kk | Autonomous mobile robot and system therefor |
KR100834761B1 (en) * | 2005-11-23 | 2008-06-05 | 삼성전자주식회사 | Method and apparatus for reckoning position of moving robot |
US20070150103A1 (en) * | 2005-12-08 | 2007-06-28 | Electronics And Telecommunications Research Institute | Positioning method and system for indoor moving robot |
US7539557B2 (en) * | 2005-12-30 | 2009-05-26 | Irobot Corporation | Autonomous mobile robot |
TWI397671B (en) * | 2009-12-16 | 2013-06-01 | Ind Tech Res Inst | System and method for locating carrier, estimating carrier posture and building map |
-
2007
- 2007-07-23 KR KR1020070073422A patent/KR100883520B1/en not_active IP Right Cessation
-
2008
- 2008-07-11 WO PCT/KR2008/004090 patent/WO2009014332A2/en active Application Filing
- 2008-07-11 JP JP2010518109A patent/JP5400044B2/en not_active Expired - Fee Related
-
2010
- 2010-01-22 US US12/692,113 patent/US9310807B2/en not_active Expired - Fee Related
Patent Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR20040087171A (en) * | 2003-04-04 | 2004-10-13 | 엘지전자 주식회사 | Mapping method by path trace for mobile robot |
KR20070039181A (en) * | 2005-10-07 | 2007-04-11 | 주식회사 대우일렉트로닉스 | Apparatus and method for reading a location for a robot cleaner |
KR20070061218A (en) * | 2005-12-08 | 2007-06-13 | 한국전자통신연구원 | Method and device for recognizing the location of indoor robot |
KR20060094929A (en) * | 2006-07-12 | 2006-08-30 | 안현식 | Localization system and method for mobile robot using corner's type |
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR101737229B1 (en) * | 2015-10-21 | 2017-05-18 | 한국항공우주연구원 | Apparatus and method of generating a indoor map by using a flight object |
Also Published As
Publication number | Publication date |
---|---|
JP2010534334A (en) | 2010-11-04 |
JP5400044B2 (en) | 2014-01-29 |
KR20090010367A (en) | 2009-01-30 |
US20100121488A1 (en) | 2010-05-13 |
WO2009014332A3 (en) | 2009-03-19 |
US9310807B2 (en) | 2016-04-12 |
WO2009014332A2 (en) | 2009-01-29 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
KR100883520B1 (en) | Method and apparatus for providing indoor eco-map | |
Winterhalter et al. | Accurate indoor localization for RGB-D smartphones and tablets given 2D floor plans | |
CN111402339B (en) | Real-time positioning method, device, system and storage medium | |
KR101271114B1 (en) | Autonomous movement device | |
JP6656886B2 (en) | Information processing apparatus, control method, program, and storage medium | |
CN112097768A (en) | Robot posture determining method and device, robot and storage medium | |
JP2004212400A (en) | Position and direction predicting system for robot | |
KR20190064311A (en) | Method and apparatus for building map using LiDAR | |
JP5776324B2 (en) | Map processing method and program, and robot system | |
CN103841642A (en) | Three-dimensional positioning method in a room | |
CN104897161A (en) | Indoor planimetric map making method based on laser ranging | |
Dryanovski et al. | An open-source pose estimation system for micro-air vehicles | |
KR101423139B1 (en) | Method for localization and mapping using 3D line, and mobile body thereof | |
Liu et al. | A LiDAR-aided indoor navigation system for UGVs | |
Zhou et al. | A graph optimization-based indoor map construction method via crowdsourcing | |
KR20140003987A (en) | Slam system for mobile robot based on vision sensor data and motion sensor data fusion | |
JP2013130495A (en) | Information processor and information processing method | |
CN106871893A (en) | Distributed INS/UWB tight integrations navigation system and method | |
Kachurka et al. | WeCo-SLAM: Wearable cooperative SLAM system for real-time indoor localization under challenging conditions | |
CN110936371A (en) | Multi-floor map switching method and robot | |
Zhang et al. | Seeing Eye Phone: a smart phone-based indoor localization and guidance system for the visually impaired | |
Karam et al. | Integrating a low-cost mems imu into a laser-based slam for indoor mobile mapping | |
Sternberg et al. | Precise indoor mapping as a basis for coarse indoor navigation | |
KR101619365B1 (en) | Apparatus and method for simultaneous localization and mapping of robot | |
Nazemzadeh et al. | Design and performance analysis of an indoor position tracking technique for smart rollators |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A201 | Request for examination | ||
E701 | Decision to grant or registration of patent right | ||
GRNT | Written decision to grant | ||
FPAY | Annual fee payment |
Payment date: 20130205 Year of fee payment: 5 |
|
FPAY | Annual fee payment |
Payment date: 20140123 Year of fee payment: 6 |
|
FPAY | Annual fee payment |
Payment date: 20150126 Year of fee payment: 7 |
|
FPAY | Annual fee payment |
Payment date: 20160127 Year of fee payment: 8 |
|
FPAY | Annual fee payment |
Payment date: 20170124 Year of fee payment: 9 |
|
LAPS | Lapse due to unpaid annual fee |