Nothing Special   »   [go: up one dir, main page]

KR100883520B1 - Method and apparatus for providing indoor eco-map - Google Patents

Method and apparatus for providing indoor eco-map Download PDF

Info

Publication number
KR100883520B1
KR100883520B1 KR1020070073422A KR20070073422A KR100883520B1 KR 100883520 B1 KR100883520 B1 KR 100883520B1 KR 1020070073422 A KR1020070073422 A KR 1020070073422A KR 20070073422 A KR20070073422 A KR 20070073422A KR 100883520 B1 KR100883520 B1 KR 100883520B1
Authority
KR
South Korea
Prior art keywords
information
moving object
unit
sensing
predicted
Prior art date
Application number
KR1020070073422A
Other languages
Korean (ko)
Other versions
KR20090010367A (en
Inventor
이유철
나상익
유원필
한규서
Original Assignee
한국전자통신연구원
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 한국전자통신연구원 filed Critical 한국전자통신연구원
Priority to KR1020070073422A priority Critical patent/KR100883520B1/en
Priority to PCT/KR2008/004090 priority patent/WO2009014332A2/en
Priority to JP2010518109A priority patent/JP5400044B2/en
Publication of KR20090010367A publication Critical patent/KR20090010367A/en
Application granted granted Critical
Publication of KR100883520B1 publication Critical patent/KR100883520B1/en
Priority to US12/692,113 priority patent/US9310807B2/en

Links

Images

Classifications

    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05DSYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
    • G05D1/00Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots
    • G05D1/02Control of position or course in two dimensions
    • G05D1/021Control of position or course in two dimensions specially adapted to land vehicles
    • G05D1/0268Control of position or course in two dimensions specially adapted to land vehicles using internal positioning means
    • G05D1/0274Control of position or course in two dimensions specially adapted to land vehicles using internal positioning means using mapping information stored in a memory device
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S13/00Systems using the reflection or reradiation of radio waves, e.g. radar systems; Analogous systems using reflection or reradiation of waves whose nature or wavelength is irrelevant or unspecified
    • G01S13/02Systems using reflection of radio waves, e.g. primary radar systems; Analogous systems
    • G01S13/06Systems determining position data of a target
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01CMEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
    • G01C21/00Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00
    • G01C21/38Electronic maps specially adapted for navigation; Updating thereof
    • G01C21/3804Creation or updating of map data
    • G01C21/3807Creation or updating of map data characterised by the type of data
    • G01C21/383Indoor data
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01CMEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
    • G01C21/00Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00
    • G01C21/38Electronic maps specially adapted for navigation; Updating thereof
    • G01C21/3804Creation or updating of map data
    • G01C21/3833Creation or updating of map data characterised by the source of data
    • G01C21/3844Data obtained from position sensors only, e.g. from inertial navigation
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01CMEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
    • G01C21/00Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00
    • G01C21/38Electronic maps specially adapted for navigation; Updating thereof
    • G01C21/3863Structures of map data
    • G01C21/387Organisation of map data, e.g. version management or database structures
    • G01C21/3881Tile-based structures
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05DSYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
    • G05D1/00Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots
    • G05D1/02Control of position or course in two dimensions
    • G05D1/021Control of position or course in two dimensions specially adapted to land vehicles
    • G05D1/0231Control of position or course in two dimensions specially adapted to land vehicles using optical position detecting means
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05DSYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
    • G05D1/00Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots
    • G05D1/02Control of position or course in two dimensions
    • G05D1/021Control of position or course in two dimensions specially adapted to land vehicles
    • G05D1/0231Control of position or course in two dimensions specially adapted to land vehicles using optical position detecting means
    • G05D1/0238Control of position or course in two dimensions specially adapted to land vehicles using optical position detecting means using obstacle or wall sensors
    • G05D1/024Control of position or course in two dimensions specially adapted to land vehicles using optical position detecting means using obstacle or wall sensors in combination with a laser
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05DSYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
    • G05D1/00Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots
    • G05D1/02Control of position or course in two dimensions
    • G05D1/021Control of position or course in two dimensions specially adapted to land vehicles
    • G05D1/0268Control of position or course in two dimensions specially adapted to land vehicles using internal positioning means
    • G05D1/0272Control of position or course in two dimensions specially adapted to land vehicles using internal positioning means comprising means for registering the travel distance, e.g. revolutions of wheels

Landscapes

  • Engineering & Computer Science (AREA)
  • Radar, Positioning & Navigation (AREA)
  • Remote Sensing (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Automation & Control Theory (AREA)
  • Aviation & Aerospace Engineering (AREA)
  • Electromagnetism (AREA)
  • Databases & Information Systems (AREA)
  • Optics & Photonics (AREA)
  • Computer Networks & Wireless Communication (AREA)
  • Navigation (AREA)
  • Control Of Position, Course, Altitude, Or Attitude Of Moving Bodies (AREA)
  • Instructional Devices (AREA)

Abstract

본 발명은 이동체와 레이저 센서 등의 거리측정 센서를 이용하여 실내 환경지도를 신속하게 획득하기 위한 방법에 관한 것이다. 이때 작성되는 지도로는 주위환경을 바둑판 모양으로 여러 격자들로 나눈 후, 격자에 해당하는 위치에 물체가 존재할 확률값을 부여하는 격자지도이다. 이를 작성하기 위해 기본적으로 물체 위치 측정 장치로는 레이저 센서 등의 거리측정 센서를 사용하였으며, 운송수단으로는 인코더가 장착된 이동체를 사용하였다. 거리측정 센서와 이동체에서 제공된 정보를 활용하여 보다 신속하고 정확하게 실내지도를 작성하는 기술을 본 발명에서 제안하고자 한다.The present invention relates to a method for rapidly obtaining an indoor environment map by using a distance measuring sensor such as a moving object and a laser sensor. The map created at this time is a grid map that divides the surrounding environment into a grid, and gives a probability that an object exists at a position corresponding to the grid. In order to prepare this, a distance measuring sensor such as a laser sensor was basically used as an object position measuring device, and a moving body equipped with an encoder was used as a vehicle. The present invention proposes a technique for creating an indoor map more quickly and accurately by using information provided from a ranging sensor and a moving object.

실내지도, 레이저 센서, 거리측정 센서, 이동체, 확장칼만필터(Extended Kalman Filter) Indoor Map, Laser Sensor, Distance Measuring Sensor, Moving Object, Extended Kalman Filter

Description

실내 환경지도 작성 시스템 및 방법{METHOD AND APPARATUS FOR PROVIDING INDOOR ECO-MAP}Indoor environment mapping system and method {METHOD AND APPARATUS FOR PROVIDING INDOOR ECO-MAP}

본 발명은 실내 환경지도 작성 기술에 관한 것으로, 특히 실내 환경의 구조 및 물체의 위치를 정확하고 신속하게 획득하는데 적합한 실내 환경지도 작성 시스템 및 방법에 관한 것이다.The present invention relates to an indoor environment mapping technology, and more particularly, to an indoor environment mapping system and method suitable for accurately and quickly acquiring a structure of an indoor environment and a position of an object.

본 발명은 정보통신부 및 정보통신연구진흥원의 IT신성장동력핵심기술개발사업의 일환으로 수행한 연구로부터 도출된 것이다[과제관리번호: 2005-S-033-03, 과제명: URC를 위한 내장형 컴포넌트 기술개발 및 표준화].The present invention is derived from the research conducted as part of the IT new growth engine core technology development project of the Ministry of Information and Communication and the Ministry of Information and Telecommunication Research and Development. [Task Management Number: 2005-S-033-03, Assignment Name: Embedded Component Technology for URC] Development and standardization].

문명의 발달과 함께, 도시, 국가, 산악 등 범세계적으로 매우 다양한 축척을 갖는 실외지도가 존재하고 있으며, 위성 및 GPS(Global Positioning System)를 이용하여 보다 정확하고 세련된 실외지도를 획득하는 등 그 활용범위도 점차 넓어지게 되었다.With the development of civilization, there are outdoor maps with various scales around the world such as cities, countries, and mountains, and more accurate and refined outdoor maps are obtained by using satellite and global positioning system (GPS). The range has also gradually expanded.

이와는 대조적으로 공장, 공공시설, 병원, 공항 등에 사용되는 실내지도는 응용분야의 다양성에도 불구하고 현재 실생활에 폭 넓게 사용되지 못하고 있는데, 그 이유는 위성 및 GPS와 같은 장치를 실내에 설치할 수 없기 때문에 정확한 위치 추적(정확한 지도정보의 획득)이 불가능하고 그에 따라 실내지도 제작비용이 크게 상승하기 때문이다.In contrast, indoor maps used in factories, public facilities, hospitals, airports, etc., despite the variety of applications, are not widely used in real life because they cannot install devices such as satellites and GPS indoors. This is because accurate location tracking (acquisition of accurate map information) is impossible and the indoor map production cost greatly increases.

한편, 실내 환경과 구조를 정확하게 지도로 표현하는 기술은 그 응용분야가 다양하여 많은 연구와 개발이 진행되어 오고 있다. 특히, 레이저 센서(Laser Sensor)를 이용하여 주위환경의 물체들의 위치를 탐지한 후에 이를 이용하여 환경지도를 작성하는 기술이 주를 이루고 있는데, 이는 레이저 센서가 임의 물체에 대해 매우 좁은 시간 간격으로 정확한 정보를 제공할 수 있기 때문이다.On the other hand, the technology to accurately map the indoor environment and structure has a variety of applications and many research and development has been progressed. In particular, the technique of using the laser sensor to detect the position of objects in the surrounding environment and using them to create an environmental map is mainly used, which means that the laser sensor is accurate at a very narrow time interval for an arbitrary object. This is because information can be provided.

정확한 환경지도를 작성하기 위해서는 레이저 센서를 통해 획득한 위치정보들이 서로 정확한 연관성에 의해 판별되어야 한다. 하지만, 현재 실내 GPS 등 절대 위치를 측정할 수 있는 장치가 없을 경우 레이저 센서를 통해 획득되는 위치정보를 정확히 파악한다는 것은 매우 어려운 일이며, 이를 극복하기 위한 많은 연구 및 개발이 이루어져 왔다.In order to create an accurate environmental map, location information acquired through a laser sensor must be determined by an accurate correlation with each other. However, if there is no device capable of measuring absolute position, such as indoor GPS, it is very difficult to accurately grasp the position information acquired by the laser sensor, and many researches and developments have been made to overcome this.

이러한 연구 및 개발의 일환으로 스캔 매칭 알고리즘(Scan matching algorithm)이라는 기술이 학계에서 대표적으로 다루어지고 있다. 스캔 매칭 알고리즘은, 레이저 센서를 탑재한 이동체가 기준 위치에서 다른 위치로 이동하였을 때 발생하는 이동체의 인코더 정보 오차를 레이저 센서 정보 사이의 매칭 관계를 이용하여 극복하고자 한 연구이다.As part of such research and development, a technique called a scan matching algorithm has been dealt with in the academic world. The scan matching algorithm is a study to overcome the encoder information error of the moving object generated when the moving object equipped with the laser sensor moves from the reference position to another position by using the matching relationship between the laser sensor information.

현재 사용되고 있는 스캔 매칭 기법으로 콕스(Cox)가 제안한 논문 ("Blanche-an experiment in guidance and navigation of an autonomous robot vehicle," IEEE Transactions on Robotics and Automation, 1991)에서는 "Point- to-Line matching" 기법을 소개하고 있으며, 루(Lu)는 논문 ("Robot pose estimation in unknown environments by matching 2D range scans," IEEE Computer Vision and Pattern Recognition Conference (CVPR), 1994)을 통하여 "Point-to-Point matching" 기술을 제안한 바 있다. 또한, 웨이스(Weiss)는 논문("A map based on laser scans without geometric interpretation," In U. R. et al., editor, intelligent Autonomous Systems, pages 403-407, IOS Press, 1995)에서 "Cross Correlation Function" 기술을 제안한 바 있다.In the paper proposed by Cox ("Blanche-an experiment in guidance and navigation of an autonomous robot vehicle," IEEE Transactions on Robotics and Automation, 1991), the "Point-to-Line matching" technique is used. Lu introduces the "Point-to-Point matching" technique through a paper ("Robot pose estimation in unknown environments by matching 2D range scans," IEEE Computer Vision and Pattern Recognition Conference (CVPR), 1994). Has been proposed. Weiss also described the "Cross Correlation Function" technique in a paper ("A map based on laser scans without geometric interpretation," In UR et al., Editor, intelligent Autonomous Systems, pages 403-407, IOS Press, 1995). Has been proposed.

산업계에서도 실내 환경지도 작성기술의 실용성을 생각하여 다방면으로 접근하고 있는데, 그 중에 대표적인 선행특허 "로봇의 환경인식 장치 및 그 제어 방법 (Methods and apparatus for enabling a self-propelled robot to create a map of a work area)" (KR 1997-0033627, US 5896488A1, CN 1161268 A, CN 1055772 B, CN 1161268 C, JP 3217281 B2, JP 1997-174471 A)은 로봇을 이용하여 환경을 인식하며 주위환경을 작성하는 기술을 다루고 있다.The industry is approaching in various ways in consideration of the practicality of indoor environment mapping technology. Among them, a representative prior patent "Methods and apparatus for enabling a self-propelled robot to create a map of a" work area) "(KR 1997-0033627, US 5896488A1, CN 1161268 A, CN 1055772 B, CN 1161268 C, JP 3217281 B2, JP 1997-174471 A) is a technology that recognizes the environment using a robot and creates the surrounding environment. Is dealing with.

그런데, 상술한 바와 같은 대부분의 스캔 매칭 기법들은 자동으로 지도를 작성하는 것에만 초점이 맞추어져 있어 실제 사용하지 못하는 예외적인 경우가 많으며, 작성된 지도의 품질 또한 좋지 못한 경우가 발생한다.However, most of the scan matching techniques described above are focused only on automatically creating a map, so there are many exceptions that cannot be actually used, and the quality of the created map is also poor.

또한, 로봇의 환경인식 기술에서는, 만일 환경인식이 잘못되거나 실패할 경우에 대한 자세한 보완내용을 갖추고 있지 못하다.In addition, the environmental awareness technology of the robot does not have a detailed supplement for the case where the environmental awareness is wrong or fails.

이에 본 발명은, 이동체의 위치 정보와 레이저 센싱 정보를 이용하여 신속하게 환경지도를 획득할 수 있는 실내 환경지도 작성 시스템 및 방법을 제안하고자 한다.Accordingly, an object of the present invention is to propose an indoor environment mapping system and method for quickly obtaining an environment map using location information and laser sensing information of a moving object.

또한 본 발명은, 기술의 안정성 및 사용자 편의성을 제공함으로써 어떤 환경에서도 실내 환경지도를 정확히 작성할 수 있는 실내 환경지도 작성 시스템 및 방법을 제안하고자 한다.In addition, the present invention is to propose an indoor environment mapping system and method that can accurately create an indoor environment map in any environment by providing the stability and user convenience of the technology.

또한 본 발명은, 간단한 DSP 기술을 시스템에 적용하여 위성 및 GPS에 준하는 실내 환경지도를 획득함으로써 시스템 구성비용을 최소화하면서 신속하고 정확하게 실내 구조 및 물체들의 위치를 환경지도로 작성할 수 있는 실내 환경지도 작성 시스템 및 방법을 제안하고자 한다.In addition, the present invention, by applying a simple DSP technology to the system to obtain the indoor environment map corresponding to the satellite and GPS to create an indoor environment map that can quickly and accurately create the indoor structure and the location of the object to the environment map while minimizing the system configuration cost We would like to propose a system and method.

본 발명의 과제를 해결하기 위한 일 관점에 따르면, 실내에서 이동하는 이동체로부터 획득되는 거리값 정보와 위치 정보를 통합 운영하는 이동체 처리부와, 확장칼만필터 알고리즘을 적용하여 상기 이동체의 위치 정보를 예측하는 이동체 위치 정보 예측부와, 상기 이동체 위치 정보 예측부를 통해 예측된 이동체의 위치 정보에서 측정모델을 이용하여 상기 이동체의 거리값 정보를 예측하는 센싱 정보 예측부와, 상기 센싱 정보 예측부로부터의 예측 측정값과 상기 이동체 처리부로부터의 실제 측정값의 매칭 여부를 검토하여 상기 예측한 값이 유효한지를 판단하는 매칭 여부 판단부와, 상기 매칭 여부 판단부를 통해, 상기 예측한 값이 유효한 것으로 판단되면 상기 이동체의 위치 정보를 갱신하는 이동체 위치 정보 갱신부와, 상기 이동체 위치 정보 갱신부의 갱신 결과에 따라 환경지도를 작성하는 환경지도 작성부를 포함하는 실내 환경지도 작성 시스템을 제공한다.According to one aspect for solving the problems of the present invention, the moving object processing unit for operating the integrated distance value information and position information obtained from the moving object moving in the room, and applying the extended Kalman filter algorithm to predict the position information of the moving object A sensing information predicting unit predicting distance value information of the moving object using a moving model using a measuring model from the moving object position information predicting unit, the position information of the moving object predicted by the moving object position information predicting unit, and predicted measurement from the sensing information predicting unit A matching determination unit determining whether the predicted value is valid by examining whether a value is matched with an actual measured value from the moving unit processing unit; and if the predicted value is determined to be valid through the matching determination unit, A moving position information updating unit for updating position information, and the moving position information An indoor environment mapping system including an environment map preparation unit for creating an environment map according to an update result of the update unit is provided.

본 발명의 과제를 해결하기 위한 다른 관점에 따르면, 주위 환경 정보를 획득하는 센싱부와, 다수 휠의 회전 정보를 획득하는 인코딩부가 각각 장착되는 이동체를 이용하여 상기 센싱부의 거리값 정보 및 상기 인코딩부의 위치 정보를 통합 운영하는 실내 환경지도 작성 방법으로서, 상기 이동체가 동작하면 상기 인코딩부에 의해 상기 이동체의 위치 정보를 생성하는 단계와, 상기 이동체의 센싱부에 의해 상기 레이저 센서로부터 주위 물체까지의 거리값 정보를 생성하는 단계와, 상기 생성되는 위치 정보 및 거리값 정보를 획득한 후 상기 이동체의 위치 정보 및 센싱 정보를 예측하는 단계와, 상기 예측되는 이동체의 위치 정보 및 센싱 정보와 상기 이동체의 실제 측정 정보가 매칭되는지를 판단하는 단계와, 상기 예측되는 이동체의 위치 정보 및 센싱 정보와 상기 이동체의 실제 측정 정보가 매칭되면 상기 예측되는 이동체의 위치 정보를 갱신한 후 실내 환경지도를 작성하는 단계를 포함하는 실내 환경지도 작성 방법을 제공한다.According to another aspect for solving the problem of the present invention, using the sensing unit for obtaining the environment information, and the moving body is equipped with the encoding unit for obtaining the rotation information of the plurality of wheels, respectively, the distance value information of the sensing unit and the encoding unit An indoor environment mapping method comprising integrated location information, the method comprising: generating location information of the moving object by the encoding unit when the moving object operates, and distance from the laser sensor to a surrounding object by the sensing unit of the moving object. Generating value information, acquiring the generated position information and distance value information, predicting the position information and the sensing information of the moving object, the position information and the sensing information of the predicted moving object, and the actual of the moving object. Determining whether the measurement information is matched, the position information and the sensor of the predicted moving object; When the information and the actual measured information of the mobile matching provides for an indoor environment map comprises: after updating the location information of the moving object which is the prediction create the indoor environment map.

본 발명에 의하면, 실내공간, 예를 들어 공공시설, 병원, 공항 등에서 이동체 및 사람이 주위 실내 환경을 인식하기 위한 실내 환경지도를 신속하고 정확하게 작성할 수 있다. 예컨대, 이동로봇 기술에 본 기술이 사용될 경우, 이동로봇에게 주위환경에 대한 정보를 제공하여 줌으로써 최적의 경로계획을 작성하는데 사용될 수 있다. 또한, 공공시설과 같은 여러 기타 실내 공간의 구조 및 특징을 손쉽게 작성하여 실내 공간 길안내 서비스 등에도 활용할 수 있다. 그리고 건설업체가 사용할 경우, 건설된 실내 구조와 건축도면이 일치하는지를 알아보기 위하여 실제 건축물의 구조를 신속하고 정확하게 작성하고 파악하는데 이용될 수도 있다. 이와 같이 실내구조를 필요로 하는 기술에는 어디에나 활용될 수 있다는 점에서, 본 발명이 의미하는 바가 크다고 볼 수 있다.According to the present invention, it is possible to quickly and accurately generate an indoor environment map for moving objects and people to recognize the indoor environment in an indoor space, for example, a public facility, a hospital, an airport, and the like. For example, when the present technology is used in the mobile robot technology, it can be used to prepare an optimal route plan by providing the mobile robot with information about the surrounding environment. In addition, the structure and features of many other indoor spaces, such as public facilities, can be easily created and used for indoor space guidance services. And if used by a construction company, it can be used to quickly and accurately create and grasp the structure of an actual building to see if the interior structure and the construction drawings match. As described above, the present invention has a great meaning in that it can be used anywhere in a technology requiring an indoor structure.

본 발명은 레이저 센서와 이동체를 이용하여 실내에서도 주위환경의 구조 및 물체의 위치를 정확하고 신속하게 작성할 수 있는 것을 특징으로 한다. 본 발명의 핵심은 크게 3가지로 분류될 수 있는데, 첫째가 실내 환경지도를 작성하기 위한 이동체와 레이저 센서의 사용 방법, 둘째가 확장칼만필터(Extended Kalman Filter)를 이용하여 신속하게 환경지도를 획득하는 방법, 셋째가 사용자의 정밀한 지도의 수용에 따른 점 매칭에 의한 환경지도를 작성하는 방법이며, 이러한 기술 사상으로부터 본 발명의 목적으로 하는 바를 용이하게 달성할 수 있을 것이다.The present invention is characterized in that the structure of the surrounding environment and the position of an object can be accurately and quickly created even in a room using a laser sensor and a moving object. The core of the present invention can be classified into three types, firstly, a method of using a moving object and a laser sensor for preparing an indoor environment map, and secondly, an environmental map is quickly obtained using an extended Kalman filter. The third method is to create an environment map by point matching according to the user's acceptance of precise maps, and from this technical idea, the object of the present invention can be easily achieved.

이하, 첨부된 도면을 참조하여 본 발명의 바람직한 실시예에 대하여 상세하게 설명한다.Hereinafter, with reference to the accompanying drawings will be described in detail a preferred embodiment of the present invention.

먼저, 도 1은 본 발명의 바람직한 실시예에 따른 실내 환경지도 작성 시스템에 적용되는 이동체를 예시한 것이다.First, Figure 1 illustrates a moving object applied to the indoor environment mapping system according to a preferred embodiment of the present invention.

도 1에 도시한 바와 같이, 이동체(100)는 레이저 센서(102)와, 제 1 휠(wheel), 제 2 휠, 제 3 휠(104a, 104b, 104c)과, 제 1 인코더(encoder), 제 2 인코더(106a, 106b)를 포함한다.As shown in FIG. 1, the movable body 100 includes a laser sensor 102, a first wheel, a second wheel, a third wheel 104a, 104b, 104c, a first encoder, Second encoders 106a, 106b.

먼저, 레이저 센서(102)는 이동체(100)의 소정 위치에 장착되며, 주변 환경정보를 획득하기 위한 센싱 수단이다. 이때, 본 실시예에서는 설명의 편의를 위해 센싱 수단을 레이저 센서로 한정하였으나, 그 외의 거리 측정 센서, 예를 들면 초음파 센서, 적외선 센서 등도 사용될 수 있음을 주지해야 할 것이며, 이는 후술하는 특허청구범위로부터 보다 명확해 질 것이다.First, the laser sensor 102 is mounted at a predetermined position of the moving object 100 and is a sensing means for acquiring surrounding environment information. At this time, in the present embodiment, for the convenience of description, the sensing means is limited to a laser sensor, but it should be noted that other distance measuring sensors, for example, an ultrasonic sensor and an infrared sensor, may be used. It will be clearer from

제 1 휠, 제 2 휠, 제 3 휠(104a, 104b, 104c)은 방향에 상관없이 이동체(100)를 자유롭게 이동 가능하게 하는 수단으로, 예를 들면 이동체(100)의 전방 하부에는 제 1 휠(104a) 및 제 2 휠(104b)이 좌/우로 장착되며, 이동체(100)의 후방 하부에는 제 3 휠(104c)이 장착될 수 있다.The first wheel, the second wheel, and the third wheel 104a, 104b, 104c are means for freely moving the movable body 100 regardless of the direction, for example, a first wheel at the front lower portion of the movable body 100. The 104a and the second wheel 104b may be mounted to the left and right, and the third wheel 104c may be mounted to the rear lower portion of the movable body 100.

이때, 제 1 휠(104a)과 제 2 휠(104b)에는 이동체(100)가 이동한 거리 및 방향을 산출할 수 있도록 제 1 인코더(106a) 및 제 2 인코더(106b)가 장착된다. 즉, 제 1 휠(104a) 및 제 2 휠(104b)이 회전한 정보를 얻기 위해 제 1 휠(104a)에는 제 1 인코더(106a)가, 제 2 휠(104b)에는 제 2 인코더(106b)가 각각 장착된다.In this case, the first encoder 106a and the second encoder 106b are mounted on the first wheel 104a and the second wheel 104b to calculate the distance and the direction in which the moving object 100 has moved. That is, in order to obtain the information that the first wheel 104a and the second wheel 104b are rotated, the first encoder 106a is provided on the first wheel 104a, and the second encoder 106b is provided on the second wheel 104b. Are mounted respectively.

레이저 센서(102)를 통해 획득된 레이저 센싱 정보와 제 1 인코더(106a) 및 제 2 인코더(106b)를 통해 획득된 인코딩 정보는 이동체 처리부에 의해 통합 운영된다. 이에 대해서 도 2를 참조하여 상세히 설명하기로 한다.The laser sensing information obtained through the laser sensor 102 and the encoding information obtained through the first encoder 106a and the second encoder 106b are integrated and operated by the moving object processor. This will be described in detail with reference to FIG. 2.

도 2는 본 발명의 일 관점에 따른 실내 환경지도 작성 시스템에 대한 구성 블록도로서, 레이저 센서(102), 제 1 인코더(106a), 제 2 인코더(106b), 이동체 처리부(200), 이동체 위치 정보 예측부(300), 레이저 센싱 정보 예측부(302), 매칭 여부 판단부(304), 이동체 위치 정보 갱신부(306) 및 환경지도 작성부(308)를 포함한다.2 is a block diagram illustrating an indoor environment mapping system according to an aspect of the present invention, and includes a laser sensor 102, a first encoder 106a, a second encoder 106b, a moving body processing unit 200, and a moving body position. The information predicting unit 300 includes a laser sensing information predicting unit 302, a matching determination unit 304, a moving object position information updating unit 306, and an environment map preparing unit 308.

도 2에 도시한 바와 같이, 이동체 처리부(200)는 레이저 센서(102)로부터 획득된 레이저 센싱 정보, 즉 레이저 센서(102)에 의해 측정된 레이저 센서(102)로부터 주위 물체까지의 거리값 정보와, 제 1 인코더(106a) 및 제 2 인코더(106b)로부터 획득된 인코딩 정보, 즉 제 1 휠(104a) 및 제 2 휠(104b) 각각에 장착된 제 1 인코더(106a) 및 제 2 인코더(106b)에 의해 측정된 휠 회전 수 정보들을 통합하여 운영한다.As shown in FIG. 2, the moving object processing unit 200 includes laser sensing information acquired from the laser sensor 102, that is, distance value information from the laser sensor 102 measured by the laser sensor 102 to surrounding objects. Encoding information obtained from the first encoder 106a and the second encoder 106b, that is, the first encoder 106a and the second encoder 106b mounted to the first wheel 104a and the second wheel 104b, respectively. It operates by integrating the wheel speed information measured by).

이때, 이동체 처리부(200)에서는 인코딩 정보와 레이저 센싱 정보 간의 측정시간차로 인해 발생할 수 있는 동기화 문제를 고려하여 환경지도 작성에 필요한 정보들을 관리 및 운영하게 된다. 즉, 이동체 처리부(200) 내에는 제 1 인코더(106a) 및 제 2 인코더(106b)로부터 제공되는 인코딩 정보를 이동체 위치 정보로 변환하는 이동체 위치 정보 변환부(202)와, 레이저 센서(102)로부터 제공되는 주변 환경 정보를 레이저 센싱 정보로 변환하는 레이저 센싱 정보 변환부(204)와, 이들 이동체 위치 정보 변환부(202) 및 레이저 센싱 정보 변환부(204)로부터의 정보를 동기화하는 동기화부(206)가 구비되며, 상기 동기화부(206)에 의해 인코딩 정보와 레이저 센싱 정보가 서로 동기화되어 출력된다.In this case, the moving object processing unit 200 manages and operates information necessary for environment map preparation in consideration of synchronization problems that may occur due to a measurement time difference between encoding information and laser sensing information. That is, in the mobile body processing unit 200, the mobile body position information converting unit 202 for converting the encoding information provided from the first encoder 106a and the second encoder 106b into the mobile body position information, and the laser sensor 102 from the laser sensor 102. A laser sensing information converting unit 204 for converting the provided surrounding environment information into laser sensing information, and a synchronizing unit 206 for synchronizing information from the moving object position information converting unit 202 and the laser sensing information converting unit 204. ) Is provided, and the synchronization information 206 is synchronized with each other and outputs the encoding information and the laser sensing information.

한편, 이동체(100)의 인코더 정보만을 가지고 주위환경지도를 작성할 경우, 바퀴의 미끄러짐 등과 같은 이유로 이동체(100)의 위치 정보에 오차가 발생할 수 있다. 이렇게 오차가 발생한 이동체(100)의 위치 정보를 그대로 사용할 경우, 정 확한 환경지도를 작성할 수 없게 된다.On the other hand, when the surrounding environment map is created using only the encoder information of the moving object 100, an error may occur in the position information of the moving object 100 due to the slipping of the wheel or the like. When the location information of the moving object 100 in which the error occurs is used as it is, it is impossible to create an accurate environment map.

따라서 발생한 오차를 보정하기 위한 수단이 필요한데, 본 실시예에서는 레이저 센서(102)에 기반한 「확장칼만필터 알고리즘」을 이용하여 오차가 발생한 이동체의 위치를 보정하여 신속하게 환경지도를 작성하는 방법을 제안하고자 한다.Therefore, a means for correcting the generated error is required. In this embodiment, a method of quickly creating an environment map by correcting the position of the moving object having an error using the "extended Kalman filter algorithm" based on the laser sensor 102 is proposed. I would like to.

도 2의 이동체 위치 정보 예측부(300)는 상기 확장칼만필터 알고리즘을 적용한 이동체 위치 정보 예측 수단이다.The moving object position information predicting unit 300 of FIG. 2 is a moving object position information predicting means to which the extended Kalman filter algorithm is applied.

확장칼만필터를 사용하기 위해서는 이동체(100)의 휠에 대한 인코딩 정보를 이용한 이동체(100)의 위치를 예측하는 과정이 필요하며, 이를 도 3에 예시하였다.In order to use the extended Kalman filter, a process of estimating the position of the moving object 100 using encoding information on the wheel of the moving object 100 is required, which is illustrated in FIG. 3.

도 3에 예시한 바와 같이, 위치 예측을 위한 첫 단계는 전 스텝 이동체 위치 정보로부터 다음 스텝의 이동체의 위치를 예측하는 것이다. 우선 2차원 평면에서

Figure 112007053192225-pat00001
번째 이동체의 위치는 다음 [수학식 1]과 같이 표현될 수 있다.As illustrated in FIG. 3, the first step for position prediction is to predict the position of the moving body of the next step from the previous step moving body position information. First in a two-dimensional plane
Figure 112007053192225-pat00001
The position of the first moving object may be expressed as in Equation 1 below.

Figure 112007053192225-pat00002
Figure 112007053192225-pat00002

그리고

Figure 112007053192225-pat00003
번째 이동체의 위치를 예측하는 과정에서 이동체가 얼마나 이동했는지를 알기 위해서는 인코더(106a)(106b)로부터의 제어 정보가 필요하다. 이러한 제어 정보는 다음 [수학식 2]와 같이 이동한 거리
Figure 112007053192225-pat00004
와 회전한 각도
Figure 112007053192225-pat00005
로 구성된다.And
Figure 112007053192225-pat00003
Control information from the encoders 106a and 106b is required to know how much the moving object has moved in the process of predicting the position of the second moving object. This control information is the distance traveled as shown in [Equation 2]
Figure 112007053192225-pat00004
And rotated angle
Figure 112007053192225-pat00005
It consists of.

Figure 112007053192225-pat00006
Figure 112007053192225-pat00006

이를 이용하여 도 3과 같이 이동체가 이동하는 기구학적 특성으로부터

Figure 112007053192225-pat00007
번째의 이동체 위치를 예측할 수 있다.
Figure 112007053192225-pat00008
스텝의 이동체 위치에서 제어입력
Figure 112007053192225-pat00009
을 받아 이동체가
Figure 112007053192225-pat00010
만큼 회전한 후
Figure 112007053192225-pat00011
만큼 이동하였다고 했을 때
Figure 112007053192225-pat00012
번째의 이동체 위치는 다음 [수학식 3]과 같이 정의할 수 있다.By using this from the kinematic characteristics of the moving body as shown in FIG.
Figure 112007053192225-pat00007
The position of the first mobile body can be predicted.
Figure 112007053192225-pat00008
Control input at the moving body position of the step
Figure 112007053192225-pat00009
Take a mobile
Figure 112007053192225-pat00010
Rotate by
Figure 112007053192225-pat00011
When you move by
Figure 112007053192225-pat00012
The moving object position of the second can be defined as shown in [Equation 3].

Figure 112007053192225-pat00013
Figure 112007053192225-pat00013

여기서

Figure 112007053192225-pat00014
는 이동체(100)의 기구학적인 모델로서, 다음 [수학식 4]와 같이 표현할 수 있다. 또한,
Figure 112007053192225-pat00015
는 추측항법(dead reckoning)의 위치오차를 표현해 주는 것으로서, 평균이 0이고 공분산이
Figure 112007053192225-pat00016
인 가우시안 노이즈(zeron mean Gaussian noise)로 표현된다.here
Figure 112007053192225-pat00014
Is a kinematic model of the moving object 100, and can be expressed as Equation 4 below. Also,
Figure 112007053192225-pat00015
Represents the positional error of dead reckoning, where the mean is zero and the covariance
Figure 112007053192225-pat00016
It is expressed as zeon mean Gaussian noise.

Figure 112007053192225-pat00017
Figure 112007053192225-pat00017

바퀴의 바닥 미끄러짐 등에 의한 오차로 인해 실제위치

Figure 112007053192225-pat00018
는 알 수 없으 므로,
Figure 112007053192225-pat00019
번째 추정위치
Figure 112007053192225-pat00020
와 제어입력을 통하여 다음 [수학식 5]와 같은 결과를 예측할 수 있을 뿐이다.Actual position due to error due to floor slip
Figure 112007053192225-pat00018
Is unknown,
Figure 112007053192225-pat00019
First estimated position
Figure 112007053192225-pat00020
Through the control input and and can only predict the result as shown in [Equation 5].

Figure 112007053192225-pat00021
Figure 112007053192225-pat00021

[수학식 5]를 통하여 예측한 위치와 [수학식 3]에 정의되어 있는 실제 위치 사이의 오차는 공분산 형태로 표현한다. 이때,

Figure 112007053192225-pat00022
는 추정된 값이지만,
Figure 112007053192225-pat00023
는 실제 제어입력으로 명확한 값이다. 그러므로 [수학식 3]을 추정된 위치
Figure 112007053192225-pat00024
에 의한 테일러 전개(Taylor series)를 하였을 때
Figure 112007053192225-pat00025
번째 실제위치는 다음 [수학식 6]과 같다.The error between the position predicted by Equation 5 and the actual position defined in Equation 3 is expressed in covariance form. At this time,
Figure 112007053192225-pat00022
Is an estimated value,
Figure 112007053192225-pat00023
Is the actual control input. Therefore, the estimated position of [Equation 3]
Figure 112007053192225-pat00024
When Taylor developed by Taylor series
Figure 112007053192225-pat00025
The actual position is shown in Equation 6 below.

Figure 112007053192225-pat00026
Figure 112007053192225-pat00026

[수학식 6]을 1차항 이외의 고차항을 무시하고 선형화하면 다음 [수학식 7]과 같다.If Equation 6 is linearized by ignoring higher order terms other than the first term, Equation 7 is expressed as follows.

Figure 112007053192225-pat00027
Figure 112007053192225-pat00027

[수학식 7]에서

Figure 112007053192225-pat00028
는 [수학식 5]의 자코비언 행렬로 다음 [수학식 8]과같다.In [Equation 7]
Figure 112007053192225-pat00028
Is the Jacobian matrix of Equation 5 as shown in Equation 8 below.

Figure 112007053192225-pat00029
Figure 112007053192225-pat00029

[수학식 7]에 선형화된 실제위치 값과 [수학식 5]의 추정된 값을 빼면 위치 추정 오차

Figure 112007053192225-pat00030
을 다음 [수학식 9]와 같이 구할 수 있다.Subtract the actual position value linearized in [Equation 7] and the estimated value of [Equation 5].
Figure 112007053192225-pat00030
Can be obtained as shown in [Equation 9].

Figure 112007053192225-pat00031
Figure 112007053192225-pat00031

[수학식 9]의 예측한 위치의 오차를 공분산 행렬로 표현하면, 다음 [수학식 10]의

Figure 112007053192225-pat00032
과 같다.When the error of the predicted position of [Equation 9] is expressed by a covariance matrix, the following Equation 10
Figure 112007053192225-pat00032
Is the same as

Figure 112007053192225-pat00033
Figure 112007053192225-pat00033

[수학식 10]에서

Figure 112007053192225-pat00034
는 선형 연산자이다. 그리고
Figure 112007053192225-pat00035
Figure 112007053192225-pat00036
은 서로 상관관계가 없으므로(un-correlated), 처음 항과 마지막 항만이 남게 되어
Figure 112007053192225-pat00037
는 다음 [수학식 11]과 같이 전개된다.In [Equation 10]
Figure 112007053192225-pat00034
Is a linear operator. And
Figure 112007053192225-pat00035
Wow
Figure 112007053192225-pat00036
Are un-correlated, leaving only the first and last terms
Figure 112007053192225-pat00037
Is developed as shown in Equation 11 below.

Figure 112007053192225-pat00038
Figure 112007053192225-pat00038

[수학식 11]에서

Figure 112007053192225-pat00039
Figure 112007053192225-pat00040
번째 위치 오차의 공분산 행렬인
Figure 112007053192225-pat00041
이며,
Figure 112007053192225-pat00042
는 추측항법의 위치오차를 표현해주는 공분산 행렬
Figure 112007053192225-pat00043
로 정리되어 최종적으로
Figure 112007053192225-pat00044
는 최종적으로 [수학식 12]와 같이 표현될 수 있다.In Equation 11
Figure 112007053192225-pat00039
silver
Figure 112007053192225-pat00040
Is the covariance matrix of the second position error
Figure 112007053192225-pat00041
Is,
Figure 112007053192225-pat00042
Is a covariance matrix representing the positional error of the dead reckoning.
Figure 112007053192225-pat00043
Finally organized into
Figure 112007053192225-pat00044
Finally can be expressed as shown in [Equation 12].

Figure 112007053192225-pat00045
Figure 112007053192225-pat00045

[수학식 12]는

Figure 112007053192225-pat00046
번째의 이동체 위치 불확실성은
Figure 112007053192225-pat00047
번째의 이동체 위치 불확실성이 기하학적으로
Figure 112007053192225-pat00048
관계로 진전되며, 제어입력
Figure 112007053192225-pat00049
Figure 112007053192225-pat00050
에 의한 불확실성
Figure 112007053192225-pat00051
가 더해진다는 물리적 의미를 담고 있다.[Equation 12] is
Figure 112007053192225-pat00046
Mobile position uncertainty
Figure 112007053192225-pat00047
Mobile position uncertainty is geometrically
Figure 112007053192225-pat00048
Progress with relation, control input
Figure 112007053192225-pat00049
And
Figure 112007053192225-pat00050
Uncertainty by
Figure 112007053192225-pat00051
Contains the physical meaning of being added.

다른 한편, 도 2의 레이저 센싱 정보 예측부(302)는 이동체 보정을 위해 상기 이동체 위치 정보 예측부(300)를 통해 예측된 이동체의 위치에서 측정모델(measurement model)을 이용하여 레이저 센서(102)의 측정값을 예측하는 역할을 한다.On the other hand, the laser sensing information predictor 302 of FIG. 2 uses the measurement model at the position of the moving object predicted by the moving object position information predictor 300 to correct the moving object. It predicts the measured value of.

도 4는 이와 같은 레이저 센싱 정보 예측부(302)의 기능을 설명하기 위한 도면으로서, 레이저 센서(102)의 위치가 이동체(100)의 중심을 기준으로 하는 지역 좌표계

Figure 112007053192225-pat00052
로 정의되어 있다.4 is a view for explaining the function of such a laser sensing information prediction unit 302, the local coordinate system whose position of the laser sensor 102 is based on the center of the moving object 100
Figure 112007053192225-pat00052
It is defined as

이를 환경지도의 원점을 기준으로 하는 전역 좌표계(global coordinate)로 변환할 수 있으며, 이는 다음 [수학식 13]과 같이 표현된다.This can be converted into a global coordinate based on the origin of the environment map, which is expressed as in Equation 13 below.

Figure 112007053192225-pat00053
Figure 112007053192225-pat00053

도 4에서 레이저 센서(102)의

Figure 112007053192225-pat00054
번째 정보가 탐지할 수 있는 물체의 위치를 도시한 예측 탐지 격자의 위치는 다음 [수학식 14]와 같이 정의될 수 있다.Of the laser sensor 102 in FIG.
Figure 112007053192225-pat00054
The position of the prediction detection grid showing the position of the object that the first information can detect may be defined as in Equation 14 below.

Figure 112007053192225-pat00055
Figure 112007053192225-pat00055

[수학식 14]에서

Figure 112007053192225-pat00056
는 레이저 센서(102)의
Figure 112007053192225-pat00057
번째 정보가 탐지할 수 있는 물체의 위치를 나타낸 것으로, 여기서
Figure 112007053192225-pat00058
는 레이저 센서(102)의
Figure 112007053192225-pat00059
번째 정보가 탐지할 수 있는 전역좌표계에서의 물체의
Figure 112007053192225-pat00060
축 위치이고,
Figure 112007053192225-pat00061
는 전역좌표계에서의
Figure 112007053192225-pat00062
축 위치이다.In [Equation 14]
Figure 112007053192225-pat00056
Of the laser sensor 102
Figure 112007053192225-pat00057
The first information is the position of the object that can be detected, where
Figure 112007053192225-pat00058
Of the laser sensor 102
Figure 112007053192225-pat00059
Of the object in the global coordinate system that the first information can detect
Figure 112007053192225-pat00060
Axis position,
Figure 112007053192225-pat00061
In the global coordinate system
Figure 112007053192225-pat00062
The axis position.

이때, 레이저 센서(102)가

Figure 112007053192225-pat00063
번째 빔을 발사하였다면, 가장 가까운 물체가 존재할 격자에 의해 발사한 빔을 반사시킬 것이다. 이를 수식으로 표현하면 [수학식 15]와 같으며 이것이 측정모델이다.At this time, the laser sensor 102
Figure 112007053192225-pat00063
If you fired the first beam, it will reflect the fired beam by the grating where the nearest object will be. This can be expressed as an equation (15), which is a measurement model.

Figure 112007053192225-pat00064
Figure 112007053192225-pat00064

[수학식 15]에서

Figure 112007053192225-pat00065
는 레이저 센서(102)의
Figure 112007053192225-pat00066
번째 빔의 예측 거리값이다. 여기서,
Figure 112007053192225-pat00067
는 전역좌표계에서 레이저 센서(102)의
Figure 112007053192225-pat00068
위치,
Figure 112007053192225-pat00069
는 전역좌표계에서 레이저 센서(102)의
Figure 112007053192225-pat00070
위치,
Figure 112007053192225-pat00071
는 예측된 물체의 전역좌표계에서의
Figure 112007053192225-pat00072
축 위치,
Figure 112007053192225-pat00073
는 예측된 물체의 전역좌표계에서의
Figure 112007053192225-pat00074
축 위치이다.In [Equation 15]
Figure 112007053192225-pat00065
Of the laser sensor 102
Figure 112007053192225-pat00066
The predicted distance value of the first beam. here,
Figure 112007053192225-pat00067
Of the laser sensor 102 in the global coordinate system.
Figure 112007053192225-pat00068
location,
Figure 112007053192225-pat00069
Of the laser sensor 102 in the global coordinate system.
Figure 112007053192225-pat00070
location,
Figure 112007053192225-pat00071
In the global coordinate system of the predicted object
Figure 112007053192225-pat00072
Axial position,
Figure 112007053192225-pat00073
In the global coordinate system of the predicted object
Figure 112007053192225-pat00074
The axis position.

[수학식 15]에 정의된 측정모델을 활용하여, 예측된 이동체의 위치에서 레이저 센서(102)의

Figure 112007053192225-pat00075
번째 정보의 측정값을 다음 [수학식 16]과 같이 예측할 수 있다.By utilizing the measurement model defined in Equation 15, the laser sensor 102
Figure 112007053192225-pat00075
The measured value of the first information can be predicted as shown in Equation 16 below.

Figure 112007053192225-pat00076
Figure 112007053192225-pat00076

[수학식 16]에서

Figure 112007053192225-pat00077
Figure 112007053192225-pat00078
번째 예측된 이동체의 위치에서 레이저 센서(102)의
Figure 112007053192225-pat00079
번째 빔의 예측 거리값이다. 여기서,
Figure 112007053192225-pat00080
Figure 112007053192225-pat00081
번째 이동체의 위치에서 예측한
Figure 112007053192225-pat00082
번째 이동체의 위치이며,
Figure 112007053192225-pat00083
는 예측된
Figure 112007053192225-pat00084
번째 이동체의 위치에서 레이저 센서(102)의
Figure 112007053192225-pat00085
번째 정보가 탐지할 수 있는 물체의 위치를 나타낸다.In [Equation 16]
Figure 112007053192225-pat00077
Is
Figure 112007053192225-pat00078
Of the laser sensor 102 at the position of the first predicted moving object.
Figure 112007053192225-pat00079
The predicted distance value of the first beam. here,
Figure 112007053192225-pat00080
Is
Figure 112007053192225-pat00081
Predicted from the position of the first moving object
Figure 112007053192225-pat00082
Position of the second moving object,
Figure 112007053192225-pat00083
Is predicted
Figure 112007053192225-pat00084
Of the laser sensor 102 at the position of the first moving object
Figure 112007053192225-pat00085
The first information indicates the position of the object that can be detected.

매칭 여부 판단부(304)는 상기 레이저 센싱 정보 예측부(302)로부터의 예측 측정값([수학식 16])과, 상기 이동체 처리부(200)로부터의 실제 측정값의 매칭 여 부를 판단한다. 즉, 매칭 여부 판단부(304)는 본 실시예에 따라 이동체 처리부(200)의 실제 측정값과 레이저 센싱 정보 예측부(302)의 예측 측정값과의 차를 구하여 예측한 값이 유효한지를 판단한다.The matching determination unit 304 determines whether the predicted measurement value (Equation 16) from the laser sensing information prediction unit 302 matches the actual measurement value from the moving object processing unit 200. That is, the matching determination unit 304 determines the difference between the actual measured value of the moving object processing unit 200 and the predicted measured value of the laser sensing information predicting unit 302 according to the present embodiment, and determines whether the predicted value is valid. .

도 4에서 레이저 센서

Figure 112007053192225-pat00086
번째 정보의 측정값은 다음 [수학식 17]과 같이 정의할 수 있다.Laser sensor in Figure 4
Figure 112007053192225-pat00086
The measured value of the first information may be defined as in Equation 17 below.

Figure 112007053192225-pat00087
Figure 112007053192225-pat00087

[수학식 17]에서

Figure 112007053192225-pat00088
는 예측된 이동체의 위치,
Figure 112007053192225-pat00089
는 확률격자지도에서 물체가 탐지될 위치,
Figure 112007053192225-pat00090
는 거리값,
Figure 112007053192225-pat00091
는 레이저 센서(102)의 오차를 의미하며, 예측된 이동체의 위치
Figure 112007053192225-pat00092
에서 레이저 센서의
Figure 112007053192225-pat00093
번째 정보가 빔을 발사했을 때, 확률격자지도에서 물체가 탐지될 위치
Figure 112007053192225-pat00094
에서
Figure 112007053192225-pat00095
의 거리값에 센서의 오차
Figure 112007053192225-pat00096
가 더해진 값이 거리 측정값이 된다는 것이다. 레이저 센서의
Figure 112007053192225-pat00097
번째 정보의 측정 오차는
Figure 112007053192225-pat00098
로서 평균이 0이고 공분산이
Figure 112007053192225-pat00099
인 가우시안 노이즈로 표시된다. 상기 [수학식 17]을 예측된 위치
Figure 112007053192225-pat00100
에 적용하였을 때,
Figure 112007053192225-pat00101
에 대하여 다음 [수학식 18]과 같이 테일러 전개 될 수 있다.In Equation 17
Figure 112007053192225-pat00088
Is the predicted position of the moving object,
Figure 112007053192225-pat00089
Where the object is to be detected on the probability grid
Figure 112007053192225-pat00090
Is the distance value,
Figure 112007053192225-pat00091
Denotes an error of the laser sensor 102, and predicted position of the moving object.
Figure 112007053192225-pat00092
Of the laser sensor
Figure 112007053192225-pat00093
Where the object will be detected on the stochastic grid when the first information fires the beam
Figure 112007053192225-pat00094
in
Figure 112007053192225-pat00095
Sensor error in the distance value of
Figure 112007053192225-pat00096
The added value is the distance measurement. Of laser sensor
Figure 112007053192225-pat00097
Error of the first information
Figure 112007053192225-pat00098
As the mean is 0 and the covariance is
Figure 112007053192225-pat00099
It is represented by Gaussian noise. Equation 17 is predicted position
Figure 112007053192225-pat00100
When applied to
Figure 112007053192225-pat00101
With respect to Taylor can be developed as shown in Equation 18.

Figure 112007053192225-pat00102
Figure 112007053192225-pat00102

[수학식 18]을 1차항 이외의 고차항을 무시하고 선형화하면 다음 [수학식 19]로 표현된다.Equation (18) is linearized by ignoring the higher order terms other than the first term.

Figure 112007053192225-pat00103
Figure 112007053192225-pat00103

[수학식 19]에서

Figure 112007053192225-pat00104
는 [수학식 5]의 자코비언 행렬로 다음 [수학식 20]과 같다.In Equation 19
Figure 112007053192225-pat00104
Is the Jacobian matrix of Equation 5 as shown in Equation 20 below.

Figure 112007053192225-pat00105
Figure 112007053192225-pat00105

[수학식 20]에서

Figure 112007053192225-pat00106
는 예측된 센서의 위치에서 가장 가까운 물체가 존재하는 격자의 위치까지의 거리이다.In [Equation 20]
Figure 112007053192225-pat00106
Is the distance from the predicted sensor position to the position of the grating where the nearest object exists.

예측한 측정값이 유효한지를 판단하기 위하여 [수학식 16]의 예측값과 [수학식 19]의 실제 측정값의 차를 통해 다음 [수학식 21]과 같이 이노베이션(innovation)을 구한다.In order to determine whether the predicted measured value is valid, an innovation is obtained as shown in Equation 21 through the difference between the predicted value of Equation 16 and the actual measured value of Equation 19.

Figure 112007053192225-pat00107
Figure 112007053192225-pat00107

[수학식 21]에서 얻어지는 이노베이션의 공분산 행렬은 다음 [수학식 22]의

Figure 112007053192225-pat00108
과 같다.The covariance matrix of the innovation obtained in Equation 21 is given by Equation 22
Figure 112007053192225-pat00108
Is the same as

Figure 112007053192225-pat00109
Figure 112007053192225-pat00109

[수학식 22]에서

Figure 112007053192225-pat00110
는 선형 연산자이며
Figure 112007053192225-pat00111
Figure 112007053192225-pat00112
은 서로 상관관계가 없으므로 처음 항과 마지막 항만이 남게 되어
Figure 112007053192225-pat00113
는 [수학식 23]과 같이 전개된다.In Equation 22
Figure 112007053192225-pat00110
Is a linear operator
Figure 112007053192225-pat00111
Wow
Figure 112007053192225-pat00112
Are not correlated, leaving only the first and last terms
Figure 112007053192225-pat00113
Is developed as shown in Equation 23.

Figure 112007053192225-pat00114
Figure 112007053192225-pat00114

[수학식 23]에서

Figure 112007053192225-pat00115
은 예측된 이동체 위치의 공분산 행렬인
Figure 112007053192225-pat00116
이며,
Figure 112007053192225-pat00117
는 레이저 센서(102)의 측정 오차를 표현해주는 공분산 행렬
Figure 112007053192225-pat00118
이므로 다음 [수학식 24]와 같이 정리될 수 있다.In Equation 23
Figure 112007053192225-pat00115
Is the covariance matrix of the predicted mobile positions
Figure 112007053192225-pat00116
Is,
Figure 112007053192225-pat00117
Is a covariance matrix representing the measurement error of the laser sensor 102.
Figure 112007053192225-pat00118
Because it can be summarized as follows [Equation 24].

Figure 112007053192225-pat00119
Figure 112007053192225-pat00119

[수학식 21] 및 [수학식 24]의 이노베이션과 그 공분산 행렬을 이용하여 예측된 측정값과 실제 측정값이 잘 매칭되었는지를 다음 [수학식 25]를 통해 평가될 수 있다.Using the innovations of Equations 21 and 24 and the covariance matrix thereof, whether the predicted and actual measured values match well can be evaluated by the following Equation 25.

Figure 112007053192225-pat00120
Figure 112007053192225-pat00120

[수학식 25]에서

Figure 112007053192225-pat00121
는 경계 오차 값으로서 미리 정해주는 매개변수이다. 만일, [수학식 25]를 만족한다면 매칭이 성공적임을 의미한다. 여러 개의 레이저 센서 정보를 동시에 사용하므로, [수학식 25]를 만족하는
Figure 112007053192225-pat00122
개의 레이저 센서 정보가 있을 경우 합성이노베이션(composite innovation)은 다음 [수학식 26]과 같다.In [Equation 25]
Figure 112007053192225-pat00121
Is a predetermined parameter as the boundary error value. If Equation 25 is satisfied, the match is successful. Since multiple laser sensor information is used at the same time, the following Equation 25
Figure 112007053192225-pat00122
If there are two laser sensor information, synthetic innovation (composite innovation) is given by Equation 26 below.

Figure 112007053192225-pat00123
Figure 112007053192225-pat00123

그리고 레이저 센서(102)의 합성측정모델(composite measurement model)의 자코비언 값 또한 다음 [수학식 27]과 같이 표현된다.The Jacobian value of the composite measurement model of the laser sensor 102 is also expressed by Equation 27 below.

Figure 112007053192225-pat00124
Figure 112007053192225-pat00124

상기 [수학식 27]을 이용하여 다음 [수학식 28]과 같은 합성이노베이션 공분산 행렬을 구할 수 있다.Using Equation 27, a synthetic innovation covariance matrix can be obtained as shown in Equation 28 below.

Figure 112007053192225-pat00125
Figure 112007053192225-pat00125

[수학식 28]에서

Figure 112007053192225-pat00126
Figure 112007053192225-pat00127
개의 레이저 센서 정보에 대한 가우시안 노이즈이다.In [Equation 28]
Figure 112007053192225-pat00126
silver
Figure 112007053192225-pat00127
Gaussian noise for two laser sensor information.

또 다른 한편, 이동체 위치 정보 갱신부(306)는 상기 매칭 여부 판단부(304)를 통해 구해진 합성이노베이션([수학식 26])을 이용하여 이동체 위치 정보를 갱신하는 역할을 한다.On the other hand, the moving object position information updating unit 306 serves to update the moving object position information using the synthetic innovation (Equation 26) obtained through the matching determination unit 304.

즉, 이동체 위치 정보 갱신부(306)는 레이저 센서(102)를 이용한 이동체 보정 과정의 마지막 단계를 수행하는 것으로, 앞서 구한 합성이노베이션을 이용하여 최종적으로 이동체의 위치와 그 공분산 행렬을 갱신하는 것이다. 이때, 잘 알려진 칼만이득(Kalman gain)은 다음 [수학식 29]와 같다.That is, the moving object position information updating unit 306 performs the last step of the moving object correction process using the laser sensor 102, and finally updates the position of the moving object and its covariance matrix using the synthetic innovation obtained above. In this case, the well-known Kalman gain is expressed by Equation 29 below.

Figure 112007053192225-pat00128
Figure 112007053192225-pat00128

[수학식 28]의 합성이노베이션 공분산 행렬과 [수학식 29]의 칼만이득을 이용하여 이동체의 추정된 위치 및 추정된 위치의 공분산은 다음 [수학식 30]과 [수학식 31]을 통해 갱신된다.Using the synthetic innovation covariance matrix of [Equation 28] and Kalmangain of [Equation 29], the estimated position and the covariance of the estimated position of the moving body are updated by the following [Equation 30] and [Equation 31]. .

Figure 112007053192225-pat00129
Figure 112007053192225-pat00129

Figure 112007053192225-pat00130
Figure 112007053192225-pat00130

끝으로, 환경지도 작성부(308)는 상기 이동체 위치 정보 갱신부(306)의 이동체 위치 및 공분산 행렬의 갱신 결과에 따라 환경지도를 작성하는 역할을 한다. 즉, 환경지도 작성부(308)는 상기 과정들, 즉 이동체 위치값 예측, 레이저 센서값 예측, 레이저 센서값 매칭 여부 판단, 추정된 이동체 위치 갱신 등의 과정들을 거쳐 이동체의 위치가 보정이 되었다면, 상기 위치 정보 값과 레이저 센서 정보 값을 활용하여 물체의 위치를 외부에 도시하여 주는 것으로 신속한 환경지도를 작성할 수 있다.Finally, the environment map preparation unit 308 serves to create an environment map according to the update result of the mobile body position and the covariance matrix of the mobile body position information updating unit 306. That is, if the environment map preparation unit 308 has corrected the position of the moving object through the above processes, namely, moving object position value prediction, laser sensor value prediction, laser sensor value matching determination, estimated moving object position update, and the like, By using the location information value and the laser sensor information value to show the location of the object to the outside, a quick environment map can be created.

그런데, 만일 위 알고리즘으로 보정이 잘 안된 경우에는 도 5와 같이 이동체의 위치를 레이저 센서 값에 매칭되는 위치로 수동조작으로 이동시킨다. 이 방법 을 이용할 경우 신속하면서도 정확하게 이동체의 위치를 보정하면서 환경지도를 작성할 수 있다.However, if the above algorithm is not well corrected, as shown in FIG. 5, the position of the moving object is moved manually to a position matching the laser sensor value. Using this method, environment maps can be created while correcting the position of moving objects quickly and accurately.

이동체의 인코더 정보만을 가지고 주위환경지도를 작성할 경우, 휠의 미끄러짐 등과 같은 이유로 이동체의 위치에 오차를 가지게 되며, 이를 보정하기 위한 수단으로 앞서 확장칼만필터 알고리즘을 사용하였다.When creating an environment map using only the encoder information of the moving object, the position of the moving object has an error for reasons such as wheel slippage, and the extended Kalman filter algorithm was used as a means for correcting this.

이와 비교하여, 신속하지는 못하지만 더욱 정밀한 지도를 작성하고자 하며 어떠한 장소에서도 환경지도를 작성하기 위한 방법을 제안하고자 한다.In comparison, we would like to create a faster but more accurate map and suggest a way to create an environmental map at any location.

이 방법은 각 이동체의 위치에서 획득한 레이저 센서를 이용하여 사람이 모든 과정을 수동으로 이동체의 위치를 보정해주는 방법이다.This method uses a laser sensor acquired at the position of each moving object to manually correct the position of the moving object.

도 6을 살펴보면, k 스텝에서 레이저 센서 정보를 통하여 작성된 지도와 k+1 스텝에서 레이저 센서정보를 통하여 작성된 지도 사이에 매칭되는 두 점을 이용하여 두 스텝에서 작성된 지도를 결합시켜 나가면, 최종적으로 정확한 환경지도를 작성시켜 나갈 수 있다.Referring to FIG. 6, when the map created in the two steps is combined using two points that are matched between the map created through the laser sensor information at step k and the map generated through the laser sensor information at step k + 1, finally the correct You can create an environmental map.

이때, k 스텝에서 매칭되는 두 점이

Figure 112007053192225-pat00131
Figure 112007053192225-pat00132
이고, k+1 스텝에서 매칭되는 두 점이
Figure 112007053192225-pat00133
Figure 112007053192225-pat00134
이라고 하였을 때, k 스텝의 이동체 위치
Figure 112007053192225-pat00135
로부터 k+1 스텝의 이동체 위치를 아래의 [수학식 32] 내지 [수학식 34]를 이용하여 구할 수 있으며, 이를 이용하여 상기 두 스텝(k 스텝 내지 k+1 스텝)에 걸쳐 작성된 지도를 서로 매칭시켜 정확한 지도를 작성한다.At this time, the two points matched in the k step
Figure 112007053192225-pat00131
Wow
Figure 112007053192225-pat00132
And two matching points in the k + 1 step
Figure 112007053192225-pat00133
Wow
Figure 112007053192225-pat00134
, The position of the moving body in the k step
Figure 112007053192225-pat00135
The position of the moving object of the k + 1 step can be obtained by using the following Equations 32 to 34. Create a correct map by matching.

Figure 112007053192225-pat00136
Figure 112007053192225-pat00136

Figure 112007053192225-pat00137
Figure 112007053192225-pat00137

Figure 112007053192225-pat00138
Figure 112007053192225-pat00138

상기 [수학식 32], [수학식 33], [수학식 34]는 k+1 스텝의 이동체의 위치를 구하는 수식들로서, 여기서

Figure 112007053192225-pat00139
Figure 112007053192225-pat00140
은 k번째 이동체의 레이저 센싱 정보값 중의 두 점의 위치이고,
Figure 112007053192225-pat00141
Figure 112007053192225-pat00142
Figure 112007053192225-pat00143
Figure 112007053192225-pat00144
과 매칭되는 k+1번째 이동체의 레이저 센싱 정보값이며,
Figure 112007053192225-pat00145
는 k 스텝에서의 이동체의 위치,
Figure 112007053192225-pat00146
은 k+1 스텝에서의 이동체의 위치를 각각 나타낸다.[Equation 32], [Equation 33], [Equation 34] are equations for obtaining the position of the moving object of k + 1 step, wherein
Figure 112007053192225-pat00139
And
Figure 112007053192225-pat00140
Is the position of two points in the laser sensing information of the k-th moving object,
Figure 112007053192225-pat00141
And
Figure 112007053192225-pat00142
silver
Figure 112007053192225-pat00143
And
Figure 112007053192225-pat00144
Is the laser sensing information of the k + 1th moving object that matches
Figure 112007053192225-pat00145
Is the position of the moving object in k steps,
Figure 112007053192225-pat00146
Denotes the position of the moving object in the k + 1 step, respectively.

이하, 상술한 구성 및 기능들과 함께, 본 발명의 다른 관점에 따른 실내 환경지도 작성 과정을 첨부한 도 7의 흐름도를 참조하여 상세히 설명하기로 한다.Hereinafter, the indoor environment mapping process according to another aspect of the present invention together with the above-described configuration and functions will be described in detail with reference to the flowchart of FIG. 7.

도 7에 도시한 바와 같이, 이동체(100)가 동작하면 이동체(100)의 각 휠들(104a)(104b)(104c)이 회전하게 되고, 상기 휠들(104a)(104b)(104c) 중 제 1 휠(104a) 및 제 2 휠(104b)에 장착된 제 1 인코더(106a) 및 제 2 인코더(106b)에 의해 이동체(100)의 위치 정보, 즉 이동체(100)가 이동한 거리 및 방향 정보가 생 성된다. 동시에, 이동체(100)의 레이저 센서(102)에 의해 주위 환경정보, 예컨대 레이저 센서(102)로부터 주위 물체까지의 거리값 정보가 생성된다(S700).As shown in FIG. 7, when the movable body 100 operates, the wheels 104a, 104b, 104c of the movable body 100 rotate, and the first of the wheels 104a, 104b, 104c is rotated. The positional information of the movable body 100, that is, the distance and the direction of movement of the movable body 100 by the first encoder 106a and the second encoder 106b mounted to the wheel 104a and the second wheel 104b, Is generated. At the same time, the surrounding environment information, for example, the distance value information from the laser sensor 102 to the surrounding object is generated by the laser sensor 102 of the moving object 100 (S700).

이러한 제 1 인코더(106a) 및 제 2 인코더(106b)의 위치 정보와, 레이저 센서(102)의 거리값 정보는 이동체 처리부(200)로 제공되며, 이동체 처리부(200)에서는 정보 변환 및 동기화 과정을 거치게 된다.The position information of the first encoder 106a and the second encoder 106b and the distance value information of the laser sensor 102 are provided to the moving object processing unit 200, and the moving object processing unit 200 performs an information conversion and synchronization process. Going through.

매칭 여부 판단부(304)는 이러한 이동체 처리부(200)의 변환 및 동기화된 위치 정보 및 거리값 정보, 즉 실제 이동체 위치 정보를 획득한다(S702).The matching determination unit 304 obtains the converted and synchronized position information and distance value information of the moving object processing unit 200, that is, the actual moving position information (S702).

이후, 확장칼만필터를 적용할 것인지를 판단하고, 확장칼만필터를 사용하여 신속한 지도를 작성할 경우에는, 본 발명에서 제안한 레이저 센서기반 격자지도 위치추정 확장칼만필터 알고리즘을 통하여 이동체(100)의 위치를 보정하고, 보정된 이동체의 위치의 오차가 클 경우 수동 조작을 통한 이동체 위치 보정을 하여 정확하고 신속한 실내환경지도를 작성하는 것이다.After that, it is determined whether to apply the Extended Kalman Filter, and when creating a fast map using the Extended Kalman Filter, the position of the moving object 100 is determined through the laser sensor-based grid map position estimation Extended Kalman Filter algorithm proposed in the present invention. If the corrected position error of the corrected moving object is large, the moving object position is corrected by manual operation to create an accurate and fast indoor environment map.

이때, 이동체 위치 정보 예측부(300)는 본 실시예에 따라 이동체 위치 정보를 예측하고, 레이저 센싱 정보 예측부(302)는 이동체의 레이저 센싱 정보를 예측한다(S706). 이러한 이동체 위치 정보 및 레이저 센싱 정보 예측 과정은, 상기 도 3 및 도 4, 그리고 상기 [수학식 1] 내지 [수학식 16]에서 이미 기술한 바 있기 때문에 구체적인 설명은 생략하기로 한다.At this time, the moving object position information predictor 300 predicts the moving position information according to the present embodiment, and the laser sensing information predicting unit 302 predicts the laser sensing information of the moving object (S706). Since the moving position information and the laser sensing information prediction process have already been described with reference to FIGS. 3 and 4 and the above Equations 1 to 16, detailed descriptions thereof will be omitted.

이후, 단계(S708)에서는 매칭 여부 판단부(304)를 통해 상기 이동체 위치 정보 예측부(300) 및 레이저 센싱 정보 예측부(302)의 이동체 예측 정보와 상기 이동체 처리부(200)의 실제 측정 정보가 매칭되는지를 판단한다.Thereafter, in step S708, the moving object prediction information of the moving object position information predicting unit 300 and the laser sensing information predicting unit 302 and the actual measurement information of the moving object processing unit 200 are matched through the matching determination unit 304. Determine if a match is found.

만일, 이동체 예측 정보와 실제 측정 정보가 매칭되면, 단계(S710)로 진행하여 예측된 이동체 위치 정보를 갱신한 후 실내 환경지도를 작성한다. 즉, 상기 예측된 이동체 위치 정보를 이동체 위치 정보 갱신부(306)를 통해 갱신하고, 갱신된 정보를 환경지도 작성부(308)로 제공하여 물체의 위치를 도시하는 실내 환경지도를 작성하도록 한다.If the moving object prediction information and the actual measurement information match, the process proceeds to step S710 to update the predicted moving object position information and then creates an indoor environment map. That is, the predicted moving object position information is updated through the moving object position information updating unit 306, and the updated information is provided to the environment map preparing unit 308 to create an indoor environment map showing the position of the object.

반면, 이동체 예측 정보와 실제 측정 정보가 매칭되지 않으면, 단계(S712)로 진행하여 실제 이동체 위치를 보정하는 과정을 거친다. 즉, 상기 도 5에서 기술한 바와 같이, 레이저 센서 값에 매칭되는 위치로 수동 조작하여 이동체의 위치를 이동시킨다.On the other hand, if the moving object prediction information and the actual measurement information does not match, the process proceeds to step S712 to correct the actual moving object position. That is, as described in FIG. 5, the position of the moving object is moved by manual manipulation to a position matching the laser sensor value.

한편, 단계(S704)에서 확장칼만필터를 사용하지 않을 경우, 사용자가 각 이동체의 위치에서 측정한 레이저 센서 측정거리값을 이용하여 수동 점 매칭을 함으로써 이동체의 위치를 정확하게 보정할 수 있다(S714). 이러한 점 매칭 방법을 이용한 이동체 위치 보정 방법은 도 6에 도시한 바와 같으며, 확장칼만필터 사용에 비해 신속함은 떨어지지만, 어느 장소에서나 그 정확성을 보장할 수 있다.On the other hand, if the extended Kalman filter is not used in step S704, the user can accurately correct the position of the moving object by performing manual point matching using the laser sensor measurement distance value measured at the position of each moving object (S714). . The moving object position correction method using the point matching method is as shown in FIG. 6, although the speed is less than that of the use of the extended Kalman filter, the accuracy can be guaranteed at any place.

이와 같이 본 발명은 확장칼만필터 알고리즘을 통하여 신속하게 지도를 작성할 수도 있으며, 수동 점 매칭 사용을 통하여 어느 장소에서나 정확하게 실내지도를 작성할 수 있다As described above, the present invention can generate a map quickly through the extended Kalman filter algorithm, and can accurately create an indoor map at any place through the use of manual point matching.

이상 설명한 바와 같이, 본 발명의 실시예에 대해 상세히 기술하였으나 본 발명은 이러한 실시예에 국한되는 것은 아니며, 후술하는 청구범위에 기재된 본 발명의 기술적 사상과 범주 내에서 본 발명의 특징이 이해되어져야 할 것이며, 또한 이로부터 당업자라면 여러 가지 변형으로도 운용 가능함을 주지해야 할 것이다.As described above, embodiments of the present invention have been described in detail, but the present invention is not limited to these embodiments, and the features of the present invention should be understood within the spirit and scope of the present invention described in the following claims. It will also be appreciated by those skilled in the art that the invention can be operated in various modifications.

도 1은 이동체와 레이저 센서의 장착을 예시한 도면,1 is a view illustrating the mounting of a moving object and a laser sensor,

도 2는 본 발명의 일 관점에 따라 이동체와 레이저 센서 정보를 통합 운영하는 실내 환경지도 작성 시스템의 구성 블록도,2 is a block diagram illustrating a configuration of an indoor environment mapping system in which a moving object and laser sensor information are integrated and operated according to an aspect of the present invention;

도 3은 이동체의 인코더 정보를 이용한 이동체 위치 예측을 예시한 도면,3 is a diagram illustrating a moving object position prediction using encoder information of a moving object;

도 4는 레이저 센서의 거리 예측값을 예시한 도면,4 is a diagram illustrating a distance prediction value of a laser sensor;

도 5는 확장칼만필터를 이용한 이동체 위치 보정 중 오차가 많이 발생하였을 때 격자지도와 레이저 센서 정보값을 이용하여 수동으로 위치를 보정해주는 예시 도면,5 is an exemplary view of manually correcting a position using a grid map and laser sensor information when a large number of errors occur during moving object position correction using the Extended Kalman Filter.

도 6은 두 점을 수동으로 매칭하여 지도를 결합시켜 나가는 과정을 예시한 도면,6 is a diagram illustrating a process of combining two maps by manually matching two points;

도 7은 본 발명의 다른 관점에 따라 신속한 실내 환경지도 작성 과정을 나타낸 흐름도.7 is a flowchart illustrating a quick indoor environment mapping process according to another aspect of the present invention.

<도면의 주요 부호에 대한 간략한 설명><Brief description of the major symbols in the drawings>

102 : 레이저 센서 106a, 106b : 인코더102: laser sensor 106a, 106b: encoder

200 : 이동체 처리부 300 : 이동체 위치 정보 예측부200: moving object processing unit 300: moving object position information prediction unit

302 : 레이저 센싱 정보 예측부 304 : 매칭 여부 판단부302: laser sensing information prediction unit 304: matching determination unit

306 : 이동체 위치 정보 갱신부 308 : 환경지도 작성부306: moving object position information updating unit 308: environment map preparation unit

Claims (16)

주위 환경 정보를 획득하는 센싱부와, 다수 휠의 회전 정보를 획득하는 인코딩부가 각각 장착되는 이동체를 이용하여 상기 센싱부의 거리값 정보 및 상기 인코딩부의 위치 정보를 통합 운영하는 실내 환경지도 작성 방법으로서,A method for creating an indoor environment map by integrating and operating distance value information of the sensing unit and location information of the encoding unit by using a sensing unit for acquiring surrounding environment information and a moving body equipped with an encoding unit for obtaining rotation information of a plurality of wheels, respectively. 상기 이동체가 동작하면 상기 인코딩부에 의해 상기 이동체의 위치 정보를 생성하는 단계와,Generating location information of the mobile unit by the encoding unit when the mobile unit operates; 상기 이동체의 센싱부에 의해 상기 센싱부로부터 주위 물체까지의 거리값 정보를 생성하는 단계와,Generating distance value information from the sensing unit to the surrounding object by the sensing unit of the moving object; 상기 생성되는 위치 정보 및 거리값 정보를 획득한 후 상기 이동체의 위치 정보 및 센싱 정보를 예측하는 단계와,Predicting location information and sensing information of the moving object after acquiring the generated location information and distance value information; 상기 예측되는 이동체의 위치 정보 및 센싱 정보와 상기 이동체의 실제 측정 정보가 매칭되는지를 판단하는 단계와,Determining whether the predicted position information and sensing information of the moving object and the actual measurement information of the moving object are matched; 상기 예측되는 이동체의 위치 정보 및 센싱 정보와 상기 이동체의 실제 측정 정보가 매칭되면 상기 예측되는 이동체의 위치 정보를 갱신한 후 실내 환경지도를 작성하는 단계Creating an indoor environment map after updating the location information of the predicted moving object when the position information and the sensing information of the moving object are matched with the actual measurement information of the moving object. 를 포함하는 실내 환경지도 작성 방법.Indoor environment mapping method comprising a. 제 1 항에 있어서,The method of claim 1, 상기 생성되는 위치 정보 및 거리값 정보를 변환 및 동기화하는 단계를 더 포함하는 것을 특징으로 하는 실내 환경지도 작성 방법.And converting and synchronizing the generated location information and distance value information. 제 1 항에 있어서,The method of claim 1, 상기 이동체의 위치 정보 및 센싱 정보의 예측은 확장칼만필터 알고리즘을 적용한 것을 특징으로 하는 실내 환경지도 작성 방법.The prediction method of the location information and the sensing information of the moving object indoor map production method characterized in that the extended Kalman filter algorithm. 제 3 항에 있어서,The method of claim 3, wherein 상기 센싱 정보의 예측은 상기 센싱부의
Figure 112007053192225-pat00147
번째 정보의 측정값을 예측하는 것으로,
Prediction of the sensing information is the sensing unit
Figure 112007053192225-pat00147
To predict the measured value of the first piece of information,
상기 센싱부의
Figure 112007053192225-pat00148
번째 정보가 탐지할 수 있는 물체의 예측 탐지 위치는,
The sensing unit
Figure 112007053192225-pat00148
The predicted detection position of the object that the first information can detect is
수학식
Figure 112007053192225-pat00149
로 정의되되,
Equation
Figure 112007053192225-pat00149
Defined as
상기
Figure 112007053192225-pat00150
는 상기 센싱부의
Figure 112007053192225-pat00151
번째 정보가 탐지할 수 있는 물체의 위치, 상기
Figure 112007053192225-pat00152
는 상기 센싱부의
Figure 112007053192225-pat00153
번째 정보가 탐지할 수 있는 전역좌표계에서의 물체의
Figure 112007053192225-pat00154
축 위치, 상기
Figure 112007053192225-pat00155
는 전역좌표계에서의
Figure 112007053192225-pat00156
축 위치인 것을 특징으로 하는 실내 환경지도 작성 방법.
remind
Figure 112007053192225-pat00150
Is the sensing unit
Figure 112007053192225-pat00151
Location of the object the first information can be detected,
Figure 112007053192225-pat00152
Is the sensing unit
Figure 112007053192225-pat00153
Of the object in the global coordinate system that the first information can detect
Figure 112007053192225-pat00154
Axial position, above
Figure 112007053192225-pat00155
In the global coordinate system
Figure 112007053192225-pat00156
An indoor environment mapping method, characterized in that the axis position.
제 4 항에 있어서,The method of claim 4, wherein 상기 센싱부가
Figure 112007053192225-pat00157
번째 빔을 발사한 경우, 가장 가까운 물체가 존재할 예측 탐지 격자의 측정 모델은,
The sensing unit
Figure 112007053192225-pat00157
When the first beam is fired, the measurement model of the prediction detection grid where the nearest object will exist is
수학식
Figure 112007053192225-pat00158
로 정의되되,
Equation
Figure 112007053192225-pat00158
Defined as
상기
Figure 112007053192225-pat00159
는 상기 센싱부의
Figure 112007053192225-pat00160
번째 빔의 예측 거리값, 상기
Figure 112007053192225-pat00161
는 전역좌표계에서 상기 센싱부의
Figure 112007053192225-pat00162
위치, 상기
Figure 112007053192225-pat00163
는 전역좌표계에서 상기 센싱부의
Figure 112007053192225-pat00164
위치, 상기
Figure 112007053192225-pat00165
는 예측된 물체의 전역좌표계에서의
Figure 112007053192225-pat00166
축 위치, 상기
Figure 112007053192225-pat00167
는 예측된 물체의 전역좌표계에서의
Figure 112007053192225-pat00168
축 위치인 것을 특징으로 하는 실내 환경지도 작성 방법.
remind
Figure 112007053192225-pat00159
Is the sensing unit
Figure 112007053192225-pat00160
Predicted distance value of the second beam, the
Figure 112007053192225-pat00161
Is the sensing unit in the global coordinate system
Figure 112007053192225-pat00162
Location, remind
Figure 112007053192225-pat00163
Is the sensing unit in the global coordinate system
Figure 112007053192225-pat00164
Location, remind
Figure 112007053192225-pat00165
In the global coordinate system of the predicted object
Figure 112007053192225-pat00166
Axial position, above
Figure 112007053192225-pat00167
In the global coordinate system of the predicted object
Figure 112007053192225-pat00168
An indoor environment mapping method, characterized in that the axis position.
제 5 항에 있어서,The method of claim 5, wherein 상기 측정 모델을 이용하여 예측되는 상기
Figure 112007053192225-pat00169
번째 정보의 예측값은,
The predicted using the measurement model
Figure 112007053192225-pat00169
The predicted value of the first information is
수학식
Figure 112007053192225-pat00170
로 정의되되,
Equation
Figure 112007053192225-pat00170
Defined as
상기
Figure 112007053192225-pat00171
Figure 112007053192225-pat00172
번째 예측된 이동체의 위치에서 상기 센싱부의
Figure 112007053192225-pat00173
번째 빔의 예측 거리값, 상기
Figure 112007053192225-pat00174
Figure 112007053192225-pat00175
번째 이동체의 위치에서 예측한
Figure 112007053192225-pat00176
번째 이동체의 위치값, 상기
Figure 112007053192225-pat00177
는 예측된
Figure 112007053192225-pat00178
번째 이동체의 위치에서 상기 센싱부 의
Figure 112007053192225-pat00179
번째 정보가 탐지할 수 있는 물체의 위치값인 것을 특징으로 하는 실내 환경지도 작성 방법.
remind
Figure 112007053192225-pat00171
Is
Figure 112007053192225-pat00172
The sensing unit at the position of the second predicted moving object
Figure 112007053192225-pat00173
Predicted distance value of the second beam, the
Figure 112007053192225-pat00174
Is
Figure 112007053192225-pat00175
Predicted from the position of the first moving object
Figure 112007053192225-pat00176
Position value of the first mobile body,
Figure 112007053192225-pat00177
Is predicted
Figure 112007053192225-pat00178
Of the sensing unit at the position of the first moving object
Figure 112007053192225-pat00179
And the second information is a position value of an object that can be detected.
제 1 항에 있어서,The method of claim 1, 상기 실내 환경지도를 작성하는 단계는, Creating the indoor environment map, k 스텝에서의 상기 센싱부의 센싱 정보를 통해 작성된 지도와 k+1 스텝에서의 상기 센싱부의 센싱 정보를 통해 작성된 지도간의 매칭되는 두 점을 이용하여 상기 k 스텝 및 k+1 스텝에서 작성된 지도를 결합시켜 환경지도를 작성하는 것을 특징으로 하는 실내 환경지도 작성 방법.The map created in the k step and the k + 1 step is combined by using two matching points between the map created through the sensing information of the sensing unit in the k step and the map created through the sensing information of the sensing unit in the k + 1 step. Indoor environment mapping method, characterized in that for creating an environmental map. 제 7 항에 있어서,The method of claim 7, wherein 상기 k 스텝에서 매칭되는 두 점이
Figure 112007053192225-pat00180
Figure 112007053192225-pat00181
이고, 상기 k+1 스텝에서 매칭되는 두 점이
Figure 112007053192225-pat00182
Figure 112007053192225-pat00183
인 경우, 상기 k 스텝의 이동체 위치
Figure 112007053192225-pat00184
로부터 상기 k+1 스텝의 이동체 위치는,
The two points matched in the k step
Figure 112007053192225-pat00180
Wow
Figure 112007053192225-pat00181
And the two points matched in the k + 1 step
Figure 112007053192225-pat00182
Wow
Figure 112007053192225-pat00183
If is, the moving body position of the k step
Figure 112007053192225-pat00184
From the k + 1 step the moving object position,
수학식
Figure 112007053192225-pat00185
,
Equation
Figure 112007053192225-pat00185
,
수학식
Figure 112007053192225-pat00186
,
Equation
Figure 112007053192225-pat00186
,
수학식
Figure 112007053192225-pat00187
로부터 구해지며,
Equation
Figure 112007053192225-pat00187
Is obtained from
상기
Figure 112007053192225-pat00188
Figure 112007053192225-pat00189
은 k번째 이동체의 센싱 정보값 중의 두 점의 위치, 상기
Figure 112007053192225-pat00190
Figure 112007053192225-pat00191
Figure 112007053192225-pat00192
Figure 112007053192225-pat00193
과 매칭되는 k+1번째 이동체의 센싱 정보값, 상기
Figure 112007053192225-pat00194
는 상기 k 스텝에서의 이동체의 위치, 상기
Figure 112007053192225-pat00195
은 k+1 스텝에서의 이동체의 위치인 것을 특징으로 하는 실내 환경지도 작성 방법.
remind
Figure 112007053192225-pat00188
And
Figure 112007053192225-pat00189
Is the position of two points in the sensing information value of the k-th moving object,
Figure 112007053192225-pat00190
And
Figure 112007053192225-pat00191
silver
Figure 112007053192225-pat00192
And
Figure 112007053192225-pat00193
Sensing information value of the k + 1 th moving object matched with
Figure 112007053192225-pat00194
Is the position of the moving object in the k step,
Figure 112007053192225-pat00195
Is the position of the moving object in the k + 1 step.
제 1 항에 있어서,The method of claim 1, 상기 작성되는 실내 환경지도는, 주위환경을 바둑판 모양으로 여러 격자들로 나눈 후 각 격자에 해당하는 위치에 물체가 존재할 확률값을 부여하는 격자 지도인 것을 특징으로 하는 실내 환경지도 작성 방법.The indoor environment map generation method is a grid map which divides the surrounding environment into grids and gives a probability value that an object exists at a position corresponding to each grid. 실내에서 이동하는 이동체로부터 획득되는 거리값 정보와 위치 정보를 통합 운영하는 이동체 처리부와,A moving object processing unit which integrates distance value information and location information obtained from a moving object moving indoors, 확장칼만필터 알고리즘을 적용하여 상기 이동체의 위치 정보를 예측하는 이동체 위치 정보 예측부와,A moving object position information predicting unit for predicting position information of the moving object by applying an extended Kalman filter algorithm; 상기 이동체 위치 정보 예측부를 통해 예측된 이동체의 위치 정보에서 측정모델을 이용하여 상기 이동체의 거리값 정보를 예측하는 센싱 정보 예측부와,A sensing information predicting unit predicting distance value information of the moving object using a measurement model from the position information of the moving object predicted by the moving position information predicting unit; 상기 센싱 정보 예측부로부터의 예측 측정값과 상기 이동체 처리부로부터의 실제 측정값의 매칭 여부를 검토하여 상기 예측한 값이 유효한지를 판단하는 매칭 여부 판단부와,A matching determination unit determining whether the predicted value is valid by examining whether the predicted measured value from the sensing information predictor matches the actual measured value from the moving object processor; 상기 매칭 여부 판단부를 통해, 상기 예측한 값이 유효한 것으로 판단되면 상기 이동체의 위치 정보를 갱신하는 이동체 위치 정보 갱신부와,A moving object position information updating unit for updating the position information of the moving object if it is determined that the predicted value is valid through the matching determination unit; 상기 이동체 위치 정보 갱신부의 갱신 결과에 따라 환경지도를 작성하는 환경지도 작성부Environment map preparation unit for creating an environment map according to the update result of the moving position information update unit 를 포함하는 실내 환경지도 작성 시스템.Indoor environment mapping system comprising a. 제 10 항에 있어서,The method of claim 10, 상기 이동체는,The movable body, 상기 이동체의 소정 위치에 장착되어 주변 환경정보를 획득하는 거리 측정 센서와,A distance measuring sensor mounted at a predetermined position of the moving object to obtain surrounding environment information; 상기 이동체의 좌측 휠에 장착되어 상기 이동체가 이동한 거리 및 방향을 산출하는 제 1 인코더와,A first encoder mounted on a left wheel of the movable body and calculating a distance and a direction in which the movable body is moved; 상기 이동체의 우측 휠에 장착되어 상기 이동체가 이동한 거리 및 방향을 산출하는 제 2 인코더A second encoder mounted on a right wheel of the movable body to calculate a distance and a direction in which the movable body has moved 를 포함하는 실내 환경지도 작성 시스템.Indoor environment mapping system comprising a. 제 11 항에 있어서,The method of claim 11, 상기 거리 측정 센서는, 레이저 센서, 초음파 센서, 적외선 센서 중 적어도 하나인 것을 특징으로 하는 실내 환경지도 작성 시스템.The distance measuring sensor is at least one of a laser sensor, an ultrasonic sensor, and an infrared sensor. 제 11 항에 있어서,The method of claim 11, 상기 이동체 처리부는, 상기 거리 측정 센서로부터 획득되는 거리값 정보와, 상기 제 1 인코더 및 제 2 인코더로부터 획득되는 위치 정보를 통합하여 운영하는 것을 특징으로 하는 실내 환경지도 작성 시스템.And the moving object processing unit integrates and operates distance value information obtained from the distance measuring sensor and location information obtained from the first encoder and the second encoder. 제 11 항에 있어서,The method of claim 11, 상기 이동체 처리부는, The moving body processing unit, 상기 제 1 인코더 및 제 2 인코더로부터 제공되는 인코딩 정보를 이동체 위치 정보로 변환하는 이동체 위치 정보 변환부와,A moving object position information converting unit converting encoding information provided from the first encoder and the second encoder into moving body position information; 상기 거리 측정 센서로부터 제공되는 주변 환경 정보를 센싱 정보로 변환하는 센싱 정보 변환부와,A sensing information converter configured to convert surrounding environment information provided from the distance measuring sensor into sensing information; 상기 이동체 위치 정보 변환부 및 센싱 정보 변환부로부터의 정보를 동기화하는 동기화부A synchronizer for synchronizing information from the moving object position information converting unit and the sensing information converting unit; 를 포함하는 실내 환경지도 작성 시스템.Indoor environment mapping system comprising a. 제 10 항에 있어서,The method of claim 10, 상기 매칭 여부 판단부는, 상기 이동체 처리부의 실제 측정값과 상기 센싱 정보 예측부의 예측 측정값과의 차를 구하여 상기 예측한 값이 유효한지를 판단하는 것을 특징으로 하는 실내 환경지도 작성 시스템.And the matching determination unit determines a difference between an actual measured value of the moving object processor and a predicted measured value of the sensing information predictor to determine whether the predicted value is valid. 제 10 항에 있어서,The method of claim 10, 상기 작성되는 실내 환경지도는, 주위환경을 바둑판 모양으로 여러 격자들로 나눈 후 각 격자에 해당하는 위치에 물체가 존재할 확률값을 부여하는 격자 지도인 것을 특징으로 하는 실내 환경 지도 작성 시스템.And the indoor environment map to be created is a grid map that divides the surrounding environment into grids and gives a probability value that an object exists at a position corresponding to each grid.
KR1020070073422A 2007-07-23 2007-07-23 Method and apparatus for providing indoor eco-map KR100883520B1 (en)

Priority Applications (4)

Application Number Priority Date Filing Date Title
KR1020070073422A KR100883520B1 (en) 2007-07-23 2007-07-23 Method and apparatus for providing indoor eco-map
PCT/KR2008/004090 WO2009014332A2 (en) 2007-07-23 2008-07-11 Method and system for creating indoor environment map
JP2010518109A JP5400044B2 (en) 2007-07-23 2008-07-11 Method and system for creating indoor environment map
US12/692,113 US9310807B2 (en) 2007-07-23 2010-01-22 Method and system for creating indoor environment map

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020070073422A KR100883520B1 (en) 2007-07-23 2007-07-23 Method and apparatus for providing indoor eco-map

Publications (2)

Publication Number Publication Date
KR20090010367A KR20090010367A (en) 2009-01-30
KR100883520B1 true KR100883520B1 (en) 2009-02-13

Family

ID=40281953

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020070073422A KR100883520B1 (en) 2007-07-23 2007-07-23 Method and apparatus for providing indoor eco-map

Country Status (4)

Country Link
US (1) US9310807B2 (en)
JP (1) JP5400044B2 (en)
KR (1) KR100883520B1 (en)
WO (1) WO2009014332A2 (en)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR101737229B1 (en) * 2015-10-21 2017-05-18 한국항공우주연구원 Apparatus and method of generating a indoor map by using a flight object

Families Citing this family (46)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US10809071B2 (en) 2017-10-17 2020-10-20 AI Incorporated Method for constructing a map while performing work
KR101581415B1 (en) * 2009-02-23 2015-12-30 삼성전자주식회사 apparatus and method for building a map
US8462049B2 (en) 2009-09-18 2013-06-11 Teecom Apparatus and method for constructing and utilizing a beacon location database
US8188921B2 (en) * 2009-09-18 2012-05-29 TEECOM Design Group Apparatus and method for constructing and utilizing a beacon location database
KR101686169B1 (en) 2010-02-09 2016-12-14 삼성전자주식회사 Apparatus and Method for generating 3D map based on the octree map
EP2572543A4 (en) 2010-05-19 2017-03-29 Nokia Technologies Oy Extended fingerprint generation
US10049455B2 (en) 2010-05-19 2018-08-14 Nokia Technologies Oy Physically-constrained radiomaps
WO2011144966A1 (en) * 2010-05-19 2011-11-24 Nokia Corporation Crowd-sourced vision and sensor-surveyed mapping
KR101429954B1 (en) * 2010-06-25 2014-08-14 에스케이텔레콤 주식회사 Method for Generating In-Building Radio Wave Evnironment Map, Apparatus therefor
US9499338B2 (en) 2010-12-15 2016-11-22 Symbotic, LLC Automated bot transfer arm drive system
TWI654130B (en) * 2010-12-15 2019-03-21 辛波提克有限責任公司 Autonomous transport robot, suspension locking system for autonomous transport vehicles and suspension system for autonomous transport vehicles
US8504288B2 (en) 2011-05-11 2013-08-06 Google Inc. Quality control of mapping data
US8583400B2 (en) 2011-05-13 2013-11-12 Google Inc. Indoor localization of mobile devices
US8548738B1 (en) 2011-07-08 2013-10-01 Google Inc. Constructing paths based on a particle model
US8386422B1 (en) 2011-07-08 2013-02-26 Google Inc. Using constructed paths to supplement map data
WO2013040411A1 (en) * 2011-09-15 2013-03-21 Honda Motor Co., Ltd. System and method for dynamic localization of wheeled mobile robots
US9291461B2 (en) * 2012-03-12 2016-03-22 Google Inc. Location correction
US9539164B2 (en) 2012-03-20 2017-01-10 Xerox Corporation System for indoor guidance with mobility assistance
KR102048954B1 (en) * 2012-10-25 2020-01-09 한국전자통신연구원 System, apparatus and method for servicing interior infra
KR102158029B1 (en) 2014-01-03 2020-09-21 한국전자통신연구원 Method and apparatus for recognizing indoor location using field intensity map
KR102125563B1 (en) * 2014-05-29 2020-06-22 삼성전자주식회사 Device and mathod for gernerating data of representing structure in the room
US9971320B2 (en) 2014-07-03 2018-05-15 Google Llc Methods and systems for adaptive triggering of data collection
KR101697857B1 (en) * 2015-04-08 2017-01-18 엘지전자 주식회사 Moving robot and method for recognizing a location of the same
CN106153043B (en) * 2015-04-13 2019-09-10 Tcl集团股份有限公司 A kind of robot indoor positioning method and system based on infrared distance sensor
CN104897161B (en) * 2015-06-02 2018-12-14 武汉大学 Indoor plane map making method based on laser ranging
KR101734654B1 (en) 2015-06-25 2017-05-11 현대자동차주식회사 System and Method for writing Occupancy Grid Map of sensor centered coordinate system using laser scanner
CN105043396B (en) * 2015-08-14 2018-02-02 北京进化者机器人科技有限公司 The method and system of self-built map in a kind of mobile robot room
KR101976241B1 (en) * 2016-01-22 2019-08-28 경희대학교 산학협력단 Map building system and its method based on multi-robot localization
JP6759625B2 (en) * 2016-02-25 2020-09-23 株式会社大林組 Measuring device
WO2017167387A1 (en) * 2016-03-31 2017-10-05 Nec Europe Ltd. Method for predicting a motion of an object
JP2017194527A (en) * 2016-04-19 2017-10-26 トヨタ自動車株式会社 Data structure of circumstance map, creation system of circumstance map and creation method, update system and update method of circumstance map
CN106767820B (en) * 2016-12-08 2017-11-14 立得空间信息技术股份有限公司 A kind of indoor moving positioning and drafting method
US10531065B2 (en) * 2017-03-30 2020-01-07 Microsoft Technology Licensing, Llc Coarse relocalization using signal fingerprints
US10600252B2 (en) * 2017-03-30 2020-03-24 Microsoft Technology Licensing, Llc Coarse relocalization using signal fingerprints
US10419133B2 (en) 2017-09-18 2019-09-17 Electronics And Telecommunications Research Institute Method of estimating position of interference signal source and apparatus thereof
CN108088446B (en) * 2017-12-01 2019-07-19 合肥优控科技有限公司 Mobile robot course angle detection method, device and computer readable storage medium
CN108151727B (en) * 2017-12-01 2019-07-26 合肥优控科技有限公司 Method for positioning mobile robot, system and computer readable storage medium
KR102466940B1 (en) * 2018-04-05 2022-11-14 한국전자통신연구원 Topological map generation apparatus for traveling robot and method thereof
CN108692720B (en) 2018-04-09 2021-01-22 京东方科技集团股份有限公司 Positioning method, positioning server and positioning system
CN108469826B (en) * 2018-04-23 2021-06-08 宁波Gqy视讯股份有限公司 Robot-based map generation method and system
CN109460040A (en) * 2018-12-28 2019-03-12 珠海凯浩电子有限公司 It is a kind of that map system and method are established by mobile phone shooting photo array floor
US11087103B2 (en) 2019-07-02 2021-08-10 Target Brands, Inc. Adaptive spatial granularity based on system performance
CN111060135B (en) * 2019-12-10 2021-12-17 亿嘉和科技股份有限公司 Map correction method and system based on local map
JP7089550B2 (en) * 2020-06-16 2022-06-22 日立建機株式会社 Construction machinery
CN111735463B (en) * 2020-07-28 2020-11-24 北京云迹科技有限公司 Picture construction method and device
KR102521915B1 (en) * 2020-12-18 2023-04-17 동국대학교 산학협력단 Method and apparatus of detecting transparent obstacles using laser range finder

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20040087171A (en) * 2003-04-04 2004-10-13 엘지전자 주식회사 Mapping method by path trace for mobile robot
KR20060094929A (en) * 2006-07-12 2006-08-30 안현식 Localization system and method for mobile robot using corner's type
KR20070039181A (en) * 2005-10-07 2007-04-11 주식회사 대우일렉트로닉스 Apparatus and method for reading a location for a robot cleaner
KR20070061218A (en) * 2005-12-08 2007-06-13 한국전자통신연구원 Method and device for recognizing the location of indoor robot

Family Cites Families (20)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
GB2158965B (en) * 1984-05-16 1988-05-18 Gen Electric Co Plc Driverless vehicle
JPS63213005A (en) * 1987-03-02 1988-09-05 Hitachi Ltd Guiding method for mobile object
JPH04227507A (en) * 1990-07-02 1992-08-17 Nec Corp Method for forming and keeping map for moving robot
JPH0680203A (en) * 1992-03-24 1994-03-22 East Japan Railway Co Control method for floor surface cleaning robot
JPH06149358A (en) * 1992-11-13 1994-05-27 Matsushita Electric Works Ltd Mobile robot
US5961571A (en) * 1994-12-27 1999-10-05 Siemens Corporated Research, Inc Method and apparatus for automatically tracking the location of vehicles
KR0168189B1 (en) * 1995-12-01 1999-02-01 김광호 Control method and apparatus for recognition of robot environment
JPH10105236A (en) * 1996-09-30 1998-04-24 Minolta Co Ltd Positioning device for traveling object and its method
JPH11161328A (en) * 1997-11-26 1999-06-18 Nec Corp Device and method for confirming position of self-traveling robot
US20050234679A1 (en) * 2004-02-13 2005-10-20 Evolution Robotics, Inc. Sequential selective integration of sensor data
US7689321B2 (en) * 2004-02-13 2010-03-30 Evolution Robotics, Inc. Robust sensor fusion for mapping and localization in a simultaneous localization and mapping (SLAM) system
US7467115B2 (en) * 2004-07-15 2008-12-16 Neurosciences Research Foundation, Inc. Mobile brain-based device having a simulated nervous system based on the hippocampus
JP2006039682A (en) * 2004-07-22 2006-02-09 Toshiba Tec Corp Autonomous travel robot
JP4300199B2 (en) * 2005-06-13 2009-07-22 株式会社東芝 Mobile robot, mobile robot position and orientation calculation method, mobile robot autonomous traveling system
AU2006274421B2 (en) * 2005-07-26 2011-08-11 Macdonald, Dettwiler And Associates Inc. Traffic management system for a passageway environment
JP2007094743A (en) * 2005-09-28 2007-04-12 Zmp:Kk Autonomous mobile robot and system therefor
KR100834761B1 (en) * 2005-11-23 2008-06-05 삼성전자주식회사 Method and apparatus for reckoning position of moving robot
US20070150103A1 (en) * 2005-12-08 2007-06-28 Electronics And Telecommunications Research Institute Positioning method and system for indoor moving robot
US7539557B2 (en) * 2005-12-30 2009-05-26 Irobot Corporation Autonomous mobile robot
TWI397671B (en) * 2009-12-16 2013-06-01 Ind Tech Res Inst System and method for locating carrier, estimating carrier posture and building map

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20040087171A (en) * 2003-04-04 2004-10-13 엘지전자 주식회사 Mapping method by path trace for mobile robot
KR20070039181A (en) * 2005-10-07 2007-04-11 주식회사 대우일렉트로닉스 Apparatus and method for reading a location for a robot cleaner
KR20070061218A (en) * 2005-12-08 2007-06-13 한국전자통신연구원 Method and device for recognizing the location of indoor robot
KR20060094929A (en) * 2006-07-12 2006-08-30 안현식 Localization system and method for mobile robot using corner's type

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR101737229B1 (en) * 2015-10-21 2017-05-18 한국항공우주연구원 Apparatus and method of generating a indoor map by using a flight object

Also Published As

Publication number Publication date
JP2010534334A (en) 2010-11-04
JP5400044B2 (en) 2014-01-29
KR20090010367A (en) 2009-01-30
US20100121488A1 (en) 2010-05-13
WO2009014332A3 (en) 2009-03-19
US9310807B2 (en) 2016-04-12
WO2009014332A2 (en) 2009-01-29

Similar Documents

Publication Publication Date Title
KR100883520B1 (en) Method and apparatus for providing indoor eco-map
Winterhalter et al. Accurate indoor localization for RGB-D smartphones and tablets given 2D floor plans
CN111402339B (en) Real-time positioning method, device, system and storage medium
KR101271114B1 (en) Autonomous movement device
JP6656886B2 (en) Information processing apparatus, control method, program, and storage medium
CN112097768A (en) Robot posture determining method and device, robot and storage medium
JP2004212400A (en) Position and direction predicting system for robot
KR20190064311A (en) Method and apparatus for building map using LiDAR
JP5776324B2 (en) Map processing method and program, and robot system
CN103841642A (en) Three-dimensional positioning method in a room
CN104897161A (en) Indoor planimetric map making method based on laser ranging
Dryanovski et al. An open-source pose estimation system for micro-air vehicles
KR101423139B1 (en) Method for localization and mapping using 3D line, and mobile body thereof
Liu et al. A LiDAR-aided indoor navigation system for UGVs
Zhou et al. A graph optimization-based indoor map construction method via crowdsourcing
KR20140003987A (en) Slam system for mobile robot based on vision sensor data and motion sensor data fusion
JP2013130495A (en) Information processor and information processing method
CN106871893A (en) Distributed INS/UWB tight integrations navigation system and method
Kachurka et al. WeCo-SLAM: Wearable cooperative SLAM system for real-time indoor localization under challenging conditions
CN110936371A (en) Multi-floor map switching method and robot
Zhang et al. Seeing Eye Phone: a smart phone-based indoor localization and guidance system for the visually impaired
Karam et al. Integrating a low-cost mems imu into a laser-based slam for indoor mobile mapping
Sternberg et al. Precise indoor mapping as a basis for coarse indoor navigation
KR101619365B1 (en) Apparatus and method for simultaneous localization and mapping of robot
Nazemzadeh et al. Design and performance analysis of an indoor position tracking technique for smart rollators

Legal Events

Date Code Title Description
A201 Request for examination
E701 Decision to grant or registration of patent right
GRNT Written decision to grant
FPAY Annual fee payment

Payment date: 20130205

Year of fee payment: 5

FPAY Annual fee payment

Payment date: 20140123

Year of fee payment: 6

FPAY Annual fee payment

Payment date: 20150126

Year of fee payment: 7

FPAY Annual fee payment

Payment date: 20160127

Year of fee payment: 8

FPAY Annual fee payment

Payment date: 20170124

Year of fee payment: 9

LAPS Lapse due to unpaid annual fee