KR101508860B1 - 레이저 거리 센서에 의해 측정된 측정 거리의 거리 유형을 평가하는 방법 및 이를 이용한 이동 로봇의 위치 추정 방법 - Google Patents
레이저 거리 센서에 의해 측정된 측정 거리의 거리 유형을 평가하는 방법 및 이를 이용한 이동 로봇의 위치 추정 방법 Download PDFInfo
- Publication number
- KR101508860B1 KR101508860B1 KR20130167958A KR20130167958A KR101508860B1 KR 101508860 B1 KR101508860 B1 KR 101508860B1 KR 20130167958 A KR20130167958 A KR 20130167958A KR 20130167958 A KR20130167958 A KR 20130167958A KR 101508860 B1 KR101508860 B1 KR 101508860B1
- Authority
- KR
- South Korea
- Prior art keywords
- distance
- type
- measured
- error
- distances
- Prior art date
Links
Images
Classifications
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01S—RADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
- G01S17/00—Systems using the reflection or reradiation of electromagnetic waves other than radio waves, e.g. lidar systems
- G01S17/02—Systems using the reflection of electromagnetic waves other than radio waves
- G01S17/06—Systems determining position data of a target
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01S—RADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
- G01S7/00—Details of systems according to groups G01S13/00, G01S15/00, G01S17/00
- G01S7/48—Details of systems according to groups G01S13/00, G01S15/00, G01S17/00 of systems according to group G01S17/00
- G01S7/4808—Evaluating distance, position or velocity data
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01S—RADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
- G01S17/00—Systems using the reflection or reradiation of electromagnetic waves other than radio waves, e.g. lidar systems
- G01S17/02—Systems using the reflection of electromagnetic waves other than radio waves
- G01S17/06—Systems determining position data of a target
- G01S17/42—Simultaneous measurement of distance and other co-ordinates
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01S—RADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
- G01S17/00—Systems using the reflection or reradiation of electromagnetic waves other than radio waves, e.g. lidar systems
- G01S17/88—Lidar systems specially adapted for specific applications
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01S—RADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
- G01S17/00—Systems using the reflection or reradiation of electromagnetic waves other than radio waves, e.g. lidar systems
- G01S17/88—Lidar systems specially adapted for specific applications
- G01S17/93—Lidar systems specially adapted for specific applications for anti-collision purposes
- G01S17/931—Lidar systems specially adapted for specific applications for anti-collision purposes of land vehicles
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01S—RADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
- G01S7/00—Details of systems according to groups G01S13/00, G01S15/00, G01S17/00
- G01S7/48—Details of systems according to groups G01S13/00, G01S15/00, G01S17/00 of systems according to group G01S17/00
- G01S7/4804—Auxiliary means for detecting or identifying lidar signals or the like, e.g. laser illuminators
Landscapes
- Engineering & Computer Science (AREA)
- Physics & Mathematics (AREA)
- Computer Networks & Wireless Communication (AREA)
- General Physics & Mathematics (AREA)
- Radar, Positioning & Navigation (AREA)
- Remote Sensing (AREA)
- Electromagnetism (AREA)
- Optics & Photonics (AREA)
- Optical Radar Systems And Details Thereof (AREA)
- Length Measuring Devices By Optical Means (AREA)
- Control Of Position, Course, Altitude, Or Attitude Of Moving Bodies (AREA)
Abstract
본 발명은 레이저 거리 센서에 의해 측정된 측정 거리의 거리 유형을 판단하는 방법 및 이를 이용한 이동 로봇의 위치 추정 방법에 관한 것이다. 본 발명에 따른 측정 거리의 거리 유형을 판단하는 방법은 현재 위치에 대한 추정 포즈를 중심으로 복수의 예비 샘플이 추출되는 샘플 추출 단계와; 각각의 상기 예비 샘플이 기 등록된 레퍼런스 거리 산출 알고리즘에 적용되어, 각각의 상기 예비 샘플에 대한 레퍼런스 거리 세트가 산출되는 레퍼런스 세트 산출 단계-상기 레퍼런스 거리 세트는 복수의 거리 유형 각각에 대한 레퍼런스 거리로 구성됨-와; 상기 레퍼런스 거리 세트를 구성하는 각각의 상기 레퍼런스 거리와 상기 측정 거리 간의 거리 오차 중 가장 작은 거리 오차에 기초하여, 상기 각각의 상기 레퍼런스 거리 세트에 대한 거리 유형을 추출하는 거리 유형 추출 단계와; 각각의 상기 레퍼런스 거리 세트에 대해 판단된 거리 유형에 기초하여, 상기 측정 거리의 거리 유형이 평가되는 거리 유형 평가 단계를 포함하는 것을 특징으로 한다. 이에 따라, 레이저 거리 센서에 의해 측정된 측정 거리를 이용한 위치 추정에서 유리벽과 같은 빛의 투과성을 갖는 물체, 개방 및 폐쇄되는 도어, 알려지지 않은 장애물 등에 대해서도 강인하게 된다.
Description
본 발명은 레이저 거리 센서에 의해 측정된 측정 거리의 거리 유형을 평가하는 방법 및 이를 이용한 이동 로봇의 위치 추정 방법에 관한 것으로서, 보다 상세하게는 레이저 거리 센서에 의해 측정된 측정 거리를 이용한 위치 추정에서 유리벽과 같은 빛의 투과성을 갖는 물체, 개방 및 폐쇄되는 도어, 알려지지 않은 장애물 등에 대해서도 강인한 레이저 거리 센서에 의해 측정된 측정 거리의 거리 유형을 평가하는 방법 및 이를 이용한 이동 로봇의 위치 추정 방법에 관한 것이다.
실내용 이동 로봇의 사용이 증가함에 따라 실내에서의 이동 로봇의 위치 추정 방법에 관한 관심은 날로 증대되어 왔다. 특히 레이저 거리 센서(Laser Range Finder)는 높은 정확도와 넓은 감지 범위를 가지고 있기 때문에 레이저 거리 센서를 이용한 이동 로봇의 위치 추정 방법은 널리 연구 및 사용되고 있다.
이와 같은 레이저 거리 센서를 이용한 위치 추정 방법에서 이동 로봇의 위치는 실내 환경에 존재하는 자연표식 또는 인공표식을 감지함으로써 추정된다. 자연표식기반 위치 추정 방법은 주행환경 내에 존재하는 물체들로부터 측정된 측정 거리 또는 반사강도의 세기를 이용한다.
반면 인공표식기반 위치 추정 방법에서는 주변 물체와 구별되는 반사강도를 가진 반사체를 이동 로봇의 주행 환경에 배치하고, 레이저 거리 센서가 반사체를 감지함으로써, 위치를 추정하게 된다. 그러나, 인공표식기반 위치 추정 방법은 인공표식의 배치를 위해 상당한 비용과 수고를 필요로 하기 때문에, 인공표식배치가 불가피한 환경을 제외하고는 자연표식을 최대한 활용하는 것이 효율적이다.
자연표식기반 위치 추정 방법을 사용할 때 직면하는 중요한 문제는 레이저 거리 센서에 의해 측정된 측정 거리의 오차이다. 측정 거리의 오차는 알려지지 않은 장애물이나 위치 추정 환경의 반사특성에 의해 야기된다.
알려지지 않은 장애물에 의한 위치 추정 문제는 부분적인 거리 오차에 강인한 관측모델의 설계를 통해 해결되어 왔다. 예를 들어, Moon 등의 논문 "Observation Likelihood Model Design and Failure Recovery Scheme toward Reliable Localization of Mobile Robots(International Journal of Advanced Robotic Systems, vol. 7, no. 4, pp. 113??122, 2010.)"에는 레이저 거리 센서의 실제 스캔 이미지와 레퍼런스 이미지의 면적차이를 이용한 스캔매칭기법이 제안되었다.
여기서, 레퍼런스 이미지는 이동 로봇의 잠재적 포즈에서 맵 정보를 바탕으로 예측된 레이저 이미지이다. 상기 논문을 통해 제안된 기법은 각 레이저 빔의 거리 오차에 따른 확률 곱이 아니라 전체 스캔 이미지의 면적차이를 이용한 확률 모델을 사용하였기 때문에 부분적인 거리 오차에 대해서도 강인한 특성을 갖는다.
S. Thrun, D. Fox, 그리고 W. Burgard의 논문 "Probabilistic Robotics(The MIT Press, 2005.)"에서는 빔 모델을 제안하고 있는데, 근접 장애물에 의한 오차가 발생할 가능성을 확률적으로 부여함으로써 알려지지 않은 장애물에 의한 위치추정 문제를 다루었다.
그러나, 상기 논문들을 통해 제안된 방법은 알려지지 않은 장애물에 의한 부분적인 거리 오차 만을 극복할 수 있는 한계가 있다. 만약, 위치추정 환경의 반사특성에 의해 다수의 스캔방향에서 거리 오차가 발생하게 되면, 상기 논문들을 통해 제안된 방법은 그 성능을 보장할 수 없게 된다.
한편, 환경의 반사특성에 의해 거리 오차를 발생시키는 대표적인 환경으로서 유리벽으로 둘러싸인 실내 환경을 예시할 수 있다. 보통의 물체에 대한 레이저 거리 센서의 측정값은 레이저 빔이 최초로 입사한 물체로부터 확산 반사에 의해 측정된 거리이다.
그런데, 도 1에 도시된 바와 같이, 레이저 거리 센서로부터 출력된 레이저 빔이 유리처럼 투명한 물체에 입사했을 때 나타나는 레이저 거리 센서의 측정값은 유리벽에서의 확산반사(Diffuse reflection), 정반사(Specular reflection), 투과(Penetration) 등 다양한 반사현상에 의해 결정된다. 이와 같은 반사 특성으로 인해 스캔 매칭을 위해 스캔 이미지와 비교되어야 할 레퍼런스 이미지의 형태를 결정하기가 힘들게 된다.
실제로, 주행환경에서 드러나는 레이저 거리 센서의 반사특성을 고려한 위치 추정 방법들이 다양하게 연구되어 왔다. 일 예로 M. Bennewitz의 논문 "Utilizing Reflection Properties of Surfaces to Improve Mobile Robot Localization(IEEE International Conference on Robotics & Automation, 2009.")에서는 저가형 레이저 센서가 반사성이 낮은 물체를 감지하지 못할 때 발생하는 위치 추정 문제를 다루고 있다. 하지만, 유리벽에서의 반사 특성은 단순히 반사성이 낮은 물체에서 나타나는 것보다 복잡하다.
H. Yoshitaka의 논문 "Mobile Robot Localization and Mapping by Scan Matching using Laser Reflection Intensity of the SOKUIKI Sensor(IEEE Industrial Electronics, Proc.of IECON'06, 2006.)"에서는 반사강도를 이용한 스캔매칭기법인 Intensity ICP가 개시되어 있다. 그러나, 유리벽에 방향에 대한 레이저 센서의 반사강도출력은 다양한 변수의 영향을 받기 때문에 유리벽으로 둘러싸인 환경에서 Intensity ICP를 적용하기는 힘들다.
S. Yang의 논문 "On Solving Mirror Reflection in LIDAR Sensing(IEEE/ASME TRANSACTIONS ON MECHATRONICS, vol. 16, no. 2, pp. 255??265, 2011.)"에서는 측정된 거리 값들을 분석함으로써 거울의 위치를 감지하고 추적하는 방법이 개시되어 있다. 그러나, 거울이 아닌 유리벽에서 발생 가능한 거울 이미지는 고려하지 않고 있는 문제가 있다.
그리고, M. Awais의 논문 "Improved Laser-based Navigation for Mobile Robots(International Conference on Advanced Robotics, 2009.)"에서는 빛의 특성에 기반하여 유리벽 방향으로 입사한 빔의 거리와 입사각에 따라 나타날 센서 출력의 유형을 확률적으로 예측하는 기술이 개시되어 있다. M. Awais의 논문에 개시된 방법은 레이저 빔이 빛의 특성을 따를지라도, 실제 유리벽에 대해 나타나는 스캔 거리의 유형은 예측하기 힘들다.
이에 본 발명은 상기와 같은 문제점을 해결하기 위해 안출된 것으로써, 유리벽으로 둘러싸인 환경에서 이동 로봇의 국소 위치 추정 성능을 향상시킬 수 있는 레이저 거리 센서에 의해 측정된 측정 거리의 거리 유형을 평가하는 방법 및 이를 이용한 이동 로봇의 위치 추정 방법을 제공하는데 목적이 있다.
또한, 본 발명은 유리벽 외에 유리벽과 같은 빛의 투과성을 갖는 물체, 개방 및 폐쇄되는 도어, 알려지지 않은 장애물이 존재하는 환경에서도 강인한 위치 추정을 보장할 수 있는 레이저 거리 센서에 의해 측정된 측정 거리의 거리 유형을 평가하는 방법 및 이를 이용한 이동 로봇의 위치 추정 방법을 제공하는데 또 다른 목적이 있다.
상기 목적은 본 발명에 따라, 레이저 거리 센서에 의해 측정된 측정 거리의 거리 유형을 판단하는 방법에 있어서, 현재 위치에 대한 추정 포즈를 중심으로 복수의 예비 샘플이 추출되는 샘플 추출 단계와; 각각의 상기 예비 샘플이 기 등록된 레퍼런스 거리 산출 알고리즘에 적용되어, 각각의 상기 예비 샘플에 대한 레퍼런스 거리 세트가 산출되는 레퍼런스 세트 산출 단계-상기 레퍼런스 거리 세트는 복수의 거리 유형 각각에 대한 레퍼런스 거리로 구성됨-와; 상기 레퍼런스 거리 세트를 구성하는 각각의 상기 레퍼런스 거리와 상기 측정 거리 간의 거리 오차 중 가장 작은 거리 오차에 기초하여, 상기 각각의 상기 레퍼런스 거리 세트에 대한 거리 유형을 추출하는 거리 유형 추출 단계와; 각각의 상기 레퍼런스 거리 세트에 대해 판단된 거리 유형에 기초하여, 상기 측정 거리의 거리 유형이 평가되는 거리 유형 평가 단계를 포함하는 것을 특징으로 하는 레이저 거리 센서에 의해 측정된 측정 거리의 거리 유형을 판단하는 방법에 의해서 달성된다.
여기서, 상기 거리 유형 평가 단계에서는 각각의 상기 레퍼런스 거리 세트에 대해 판단된 거리 유형이 동일한 경우, 해당 거리 유형이 상기 측정 거리의 거리 유형으로 평가될 수 있다.
여기서, 상기 샘플 추출 단계에서 상기 추정 포즈는 이전 스텝에서 추정된 포즈와 오도메트리 측정값에 기초하여 산출될 수 있다.
또한, 상기 샘플 추출 단계에서 상기 예비 샘플은 상기 추정 포즈를 중심으로 기 설정된 방향각 간격으로 계통 샘플링을 수행하여 추출될 수 있다.
그리고, 상기 레퍼런스 거리 산출 알고리즘은 레이캐스팅 알고리즘을 포함하며; 상기 레퍼런스 세트 산출 단계에서는 상기 예비 샘플의 포즈와 기 등록된 그리드 맵이 상기 레이캐스팅 알고리즘에 적용되되, 상기 그리드 맵에 기초하여 상기 예비 샘플의 포즈에서의 확산 반사 거리, 투과 반사 거리 및 정반사 거리 각각에 대응하는 레퍼런스 거리가 산출될 수 있다.
또한, 상기 거리 유형 추출 단계에서 하나의 상기 레퍼런스 거리 세트에 대한 거리 유형은 상기 레퍼런스 거리 세트를 구성하는 각각의 상기 레퍼런스 거리와 상기 측정 거리 간의 거리 오차를 산출하는 단계와; 상기 산출된 거리 오차 중 가장 작은 거리 오차를 추출하는 단계와; 상기 추출된 거리 오차가 기 설정된 오차 한계값보다 작은 경우, 상기 추출된 거리 오차에 대한 거리 유형을 상기 레퍼런스 거리 세트에 대한 거리 유형으로 추출하는 단계를 통해 추출될 수 있다.
그리고, 상기 오차 한계값은 상기 측정 거리에 비례하여 산출될 수 있다.
그리고, 상기 레퍼런스 거리 세트는 적어도 4 이상의 거리 유형 각각에 대한 레퍼런스 거리로 구성될 수 있다.
그리고, 상기 레퍼런스 거리 세트는 적어도 4 이상의 거리 유형 각각에 대한 레퍼런스 거리로 구성될 수 있다.
한편, 상기 목적은 본 발명의 다른 실시 형태에 따라, 레이저 거리 센서를 이용한 이동 로봇의 위치 추정 방법에 있어서, 현재 스텝에서의 상기 이동 로봇의 추정 포즈가 산출되는 단계와; 현재 스텝에서 상기 레이저 거리 센서의 스캔을 통해 복수의 측정 거리가 측정되는 단계와; 각각의 상기 측정 거리에 대해 상기의 거리 유형을 판단하는 방법을 적용하여 각각의 상기 측정 거리에 대한 거리 유형을 평가하는 단계와; 상기 복수의 측정 거리가 스캔매칭기법에 적용되되, 상기 스캔매칭기법 상의 레퍼런스 거리가 상기 평가된 거리 유형이 반영되어 적용되는 단계와; 상기 스캔매칭기법에 따른 매칭 오차에 기초하여 상기 이동 로봇의 위치가 추정되는 단계를 포함할 수 있다.
본 발명에 따르면, 유리벽으로 둘러싸인 환경에서 이동 로봇의 국소 위치 추정 성능을 향상시킬 수 있는 레이저 거리 센서에 의해 측정된 측정 거리의 거리 유형을 평가하는 방법 및 이를 이용한 이동 로봇의 위치 추정 방법이 제공된다.
또한, 본 발명에 따르면 유리벽 외에 유리벽과 같은 빛의 투과성을 갖는 물체, 개방 및 폐쇄되는 도어, 알려지지 않은 장애물이 존재하는 환경에서도 강인한 위치 추정을 보장할 수 있는 레이저 거리 센서에 의해 측정된 측정 거리의 거리 유형을 평가하는 방법 및 이를 이용한 이동 로봇의 위치 추정 방법이 제공된다.
도 1은 유리벽에서의 레이저 빔의 반사 특성을 설명하기 위한 도면이고,
도 2는 빛이 유리벽에 도달했을 때 발생할 수 있는 모든 경로를 나타낸 도면이고,
도 3은 빛의 반사 특성에 따라 검출되는 거리의 유형을 설명하기 위한 도면이고,
도 4 및 도 5는 본 발명에 따른 레이저 거리 센서에 의해 측정된 측정 거리의 거리 유형을 판단하는 방법을 설명하기 위한 도면이고,
도 6 및 도 7은 본 발명에 따른 레이저 거리 센서를 이용한 이동 로봇의 위치 추정 방법을 설명하기 위한 도면이다.
도 2는 빛이 유리벽에 도달했을 때 발생할 수 있는 모든 경로를 나타낸 도면이고,
도 3은 빛의 반사 특성에 따라 검출되는 거리의 유형을 설명하기 위한 도면이고,
도 4 및 도 5는 본 발명에 따른 레이저 거리 센서에 의해 측정된 측정 거리의 거리 유형을 판단하는 방법을 설명하기 위한 도면이고,
도 6 및 도 7은 본 발명에 따른 레이저 거리 센서를 이용한 이동 로봇의 위치 추정 방법을 설명하기 위한 도면이다.
이하에서는 첨부된 도면들을 참조하여 본 발명에 따른 실시예에 대해 상세히 설명한다.
본 발명에 따른 레이저 거리 센서에 의해 측정된 측정 거리의 거리 유형을 평가하는 방법 및 이를 이용한 이동 로봇(100)의 위치 추정 방법을 설명하기에 앞서, 유리벽(200)에서의 빛의 반사 특성에 대해 살펴본다.
레이저 거리 센서는 빛의 특성을 따르는 광학 센서의 하나이다. 따라서, 레이저 거리 센서로부터 방출되는 레이저 빔이 유리벽(200)에 도달한 후에 변화하는 진행 방향은 빛의 특성과 밀접한데, 도 2는 빛이 유리벽(200)에 도달했을 때 발생할 수 있는 모든 경로를 나타내고 있다. 도 2의 (a)는 확산 반사를 나타낸 것이고, 도 2의 (b)는 정반사를 나타낸 것이고, 도 2의 (c)는 투과를 나타낸 도면이다.
도 2를 참조하여 설명하면, 확산 반사(Diffuse reflection)는 레이저 빔이 유리벽(200)에서 여러 방향으로 확산적으로 반사되는 현상이다. 확산 반사의 정도는 반사면의 거칠기에 의해 영향을 받기 때문에, 매끄러운 유리벽(200)에서는 전체 반사된 빛 중 확산 반사되는 빛의 비율이 상대적으로 적다. 확산 반사의 강도는 유리벽(200)과 레이저 거리 센서 사이의 거리가 멀수록, 유리벽(200)에 대한 레이저 빔의 입사각이 클수록, 그리고 유리벽(200)의 투명도가 높을수록 작아진다.
상기와 같은 확산 반사의 특성으로 인해, 유리벽(200)에서 투과(Penetration)되지 않은 빛의 상당량은 정반사(Specular reflection)된다. 그리고, 유리벽(200)을 투과하는 빛은 실제로 굴절된다. 그러나, 주행 환경에 존재하는 대부분의 유리벽(200)은 얇기 때문에, 본 발명에서는 굴절의 영향은 무시될 수 있다고 가정한다.
이와 같은 유리벽(200)에서 빛의 반사 특성을 근거로 하여, 레이저 거리 센서는 도 3에 도시된 바와 같이, 유리벽(200) 방향에 대해 세 가지의 거리, 즉, dd, ds, dp를 측정할 수 있다. 여기서, dd는 확산 반사에 의해 나타나는 측정 거리이고, ds는 정반사에 의해 나타나는 측정 거리이고, dp는 투과에 의해 나타나는 측정 거리이다.
일반적으로 레이저 거리 센서는 일정한 반사 강도 이상의 반사파를 시간 순으로 2개까지 감지할 수 있는데, 실제로 두 번째 반사파는 감지되지 않는 경우가 많기 때문에, 본 발명에 따른 위치 추정 방법에서는 첫 번째 반사파에 의해 측정된 측정 거리를 이용한다. 여기서, 측정 거리는 정해진 반사 강도 이상만을 감지할 수 있기 때문에, 레이저 거리 센서에 의해 측정된 측정 거리가 dd, ds, dp 중 어느 것에 해당하는지는 명확하게 판단하기 어렵다. 일 예로, 상술한 바와 같이, 확산 반사에 의한 반사파가 일정 반사 강도 이하이면 레이저 거리 센서에 의해 측정되지 않는데, 이 경우, 첫 번째로 측정된 측정 거리가 dd, ds, dp 중 어느 것인지 명확히 알기는 실질적으로 어렵게 된다.
이에, 몇몇 선행 연구들에서 확산 반사의 반사 강도를 이용하여 측정 거리가 확산 반사에 의한 거리일 확률을 모델링하려는 시도가 있었으나, 확산 반사의 강도는 상술한 바와 같이 동일한 유리벽(200)에 대해서도 입사각, 거리, 투명도 등에 따라 달라지는 바, 이를 모델링하게는 현실적으로 어렵다. 이는 정반사나 투과에 의한 반사파에서도 동일하다.
이에 본 발명에서는 레이저 거리 센서에 의해 측정된 측정 거리의 거리 유형을 평가하기 위해, 반사파, 즉 레이저 빔의 반사 강도 특성이 아닌 실제 측정된 측정 거리 자체를 이용함으로써, 유리벽(200)의 환경 조건 변화에 무관하게 정확한 거리 유형의 판단을 가능하게 한다.
이하에서는, 도 4를 참조하여 본 발명에 따른 레이저 거리 센서에 의해 측정된 측정 거리의 거리 유형을 판단하는 방법에 대해 상세히 설명한다.
먼저, 레이저 거리 센서의 스캔을 통해 현재 스텝에서의 측정 거리가 측정되면, 해당 측정 거리와 추정 포즈가 입력된다(S30). 여기서, 이동 로봇(100)에는 이동 로봇(100)의 이동 환경과 관련된 맵 정보인 그리드 맵이 등록된 상태이며, 그리드 맵은 후술할 레퍼런스 거리 세트의 산출 과정에 적용된다.
그리고, 추정 포즈는 현재 스텝에서 이동 로봇(100)의 현재 위치에서의 대략적인 포즈로, 이전 스텝에서 추정된 이동 로봇(100)의 포즈와, 현재 스텝에서의 오도메트리 측정값에 기초하여 산출된다.
여기서, 도 4에 도시된 유형 평가 과정은 레이저 거리 센서의 스캔 과정에서 어느 일 방향, 즉 특정 각도에서 측정된 측정 거리에 대한 거리 유형의 평가 과정으로, 레이저 거리 센서의 스캔 각도 각각에 대해 도 4에 도시된 거리 유형의 평가 과정이 진행된다.
다시, 도 4를 참조하여 설명하면, 측정 거리와 추정 포즈가 입력되면(S30), 추정 포즈를 중심으로 추정 포즈를 포함한 복수의 예비 샘플이 추출된다(S31). 그리고, 각각의 예비 샘플에 대한 레퍼런스 거리 세트가 산출된다(S32).
이와 같이, 본 발명에서는 이동 로봇(100)의 추정 포즈에 대한 하나의 레퍼런스 거리 세트가 아닌 추정 포즈를 중심으로 복수의 예비 샘플을 추출하고, 추출된 예비 샘플들에 대한 레퍼런스 거리 세트를 추출함으로써, 거리 유형 평가의 불확실성을 현저히 줄일 수 있게 된다.
여기서, 본 발명의 일 실시예에서는 예비 샘플이 추정 포즈를 중심으로 기 설정된 방향각 간격으로 계통 샘플링을 수행하여 추출되는 것을 예로 한다. 랜덤 샘플링을 통해 예비 샘플을 추출하게 되면, 예비 샘플들의 포즈가 유사해질 경우가 확률적으로 발생할 수 있고, 유사한 예비 샘플들의 포즈를 중심으로 계산된 복수의 레퍼런스 거리 세트를 이용해 측정 거리의 거리 유형을 평가하는 것은 정확하지 않을 가능성이 높다.
반면, 일정한 방향각 간격으로 행해진 계통 샘플링에 의해 예비 샘플들을 추출하고, 이와 같은 예비 샘플들을 중심으로 산출된 레퍼런스 거리 세트가 특정 각도 범위 내에서 계산된 레퍼런스 거리의 경향을 보여줌으로써, 측정 거리의 거리 유형을 평가하는데 보다 정확성을 제공하게 된다.
여기서, 레퍼런스 거리 세트는 예비 샘플이 기 등록된 레퍼런스 거리 산출 알고리즘에 적용되어 산출되는데, 레퍼런스 거리 세트는 복수의 거리 유형 각각에 대한 레퍼런스 거리로 구성된다. 본 발명에서는 레퍼런스 거리 세트가 적어도 4 이상의 거리 유형 각각에 대한 레퍼런스 거리로 구성되는 것을 예로 한다.
본 발명에 따른 실시예에서는 유리벽(200)을 고려하여 거리 유형이 확산 반사, 투과 반사 및 정반사를 포함하는 것을 예로 하며, 레퍼런스 거리 세트를 구성하는 레퍼런스 거리는 확산 반사 거리, 투과 반사 거리 및 정반사 거리에 대응하여 산출되는 것을 예로 한다. 여기서, 본 발명에서는 레이저 빔이 복수의 유리벽(200)을 투과하여 반사될 수 있는 상황을 고려하여 두 번째 투과 반사 거리를 포함하는 것을 예로 하는 바, 레퍼런스 거리 세트의 레퍼런스 거리의 개수와 거리 유형의 개수는 4개인 것을 예로 한다.
여기서, 본 발명에 따른 거리 유형을 평가하는 방법에서는 레퍼런스 거리 산출 알고리즘으로 레이캐스팅(RayCasting) 알고리즘이 적용되는 것을 예로 한다. 그리고, 레이캐스팅 알고리즘에 예비 샘플의 포즈와 상술한 바와 같이 기 등록된 그리드 맵이 적용되어 복수의 레퍼런스 거리, 즉 확산 반사 거리, 정반사 거리, 및 두 개의 투과 반사 거리에 각각 대응하는 레퍼런스 거리가 산출된다.
일반적으로, 레이캐스팅 알고리즘은 특정 위치와 각도에서 레이저 빔이 방출될 때 처음 만나는 물체의 위치를 찾는 방법을 제공한다. 따라서, 기존의 레이캐스팅 알고리즘에 의해 산출되는 레퍼런스 거리는 확산 반사 거리에 대응하게 된다.
이에, 본 발명에서는 예비 샘플의 포즈와 그리드 맵을 이용하여, 정반사 거리에 대응하는 레퍼런스 거리와, 투과 거리에 대응하는 레퍼런스 거리를 계산할 수 있도록 레이캐스팅 알고리즘을 변형하게 된다.
예컨대, 정반사 거리에 대응하는 레퍼런스 거리는 레이저 빔이 처음 장애물을 만난 점에서, 해당 장애물에 대한 입사각과 동일한 반사각으로 방향을 바꿔 빔이 추가적으로 진행하게 되고, 추가적으로 진행한 빔이 다시 장애물을 만났을 때, 빔의 총 이동 거리를 계산하게 된다.
마찬가지로, 투과 거리에 대응하는 레퍼런스 거리는 레이저 빔이 처음 장애물을 만난 점에서, 방향의 변화없이 빔이 추가적으로 진행하게 도고, 추가적으로 진행한 빔이 다시 장애물을 만났을 때, 빔의 총 이동 거리를 계산하게 된다. 두 번째 투과 거리에 대응하는 레퍼런스 거리도 동일한 방법으로 계산이 가능하게 된다.
상기와 같은 과정을 통해 각각의 예비 샘플에 대한 레퍼런스 거리 세트들이 산출되면, 각각의 레퍼런스 거리 세트와 측정 거리를 비교하여 각각의 레퍼런스 거리 세트에 대한 거리 유형으로 추출한다(S36).
도 4를 참조하여 보다 구체적으로 설명하면, 먼저 하나의 레퍼런스 거리 세트를 구성하는 복수의 레퍼런스 거리와 측정 거리 간의 거리 오차를 산출한다(S33). 상술한 바와 같이 4개의 레퍼런스 거리 각각과 측정 거리 간의 거리 오차가 산출되는 바, 4개의 거리 오차가 산출된다.
그런 다음, 4개의 거리 오차 중 가장 작은 거리 오차(emin)를 추출한다(S34). 즉, 그리드 맵을 기준으로 하여 산출된 레퍼런스 거리 중 측정 거리와 가장 가까운 레퍼런스 거리를 추출하게 된다.
이 때, 본 발명에서는 가장 작은 거리 오차(emin)가 오차 한계값보다 작은지 여부를 판단한다(S35). 그리고, 가장 작은 거리 오차(emin)가 오차 한계값보다 작은 경우, 해당 거리 오차에 해당하는 레퍼런스 거리의 거리 유형을 현재의 레퍼런스 거리 세트의 거리 유형, 즉 현재의 예비 샘플에 대한 거리 유형을 추출한다(S36).
여기서, 오차 한계값은 측정 거리와 레퍼런스 거리가 비교될 때 두 거리가 같은 유형으로 판단될 수 있는 최소 거리의 차이를 반영하게 된다. 즉, 오차 한계값을 초과하는 거리 오차를 발생하게 되면, 그 거리 오차가 해당 레퍼런스 거리 세트에서 가장 작은 거리 오차(emin)라 할지라도 해당 거리 유형으로 판단하기 어렵다는 점을 반영하게 된다.
예를 들어, 도 5에 도시된 바와 같이, 유리벽(200)을 투과한 레이저 빔이 알려지지 않은 장애물(300)에 반사되어 입사되는 경우, 즉, 확산 반사의 반사 강도가 낮아 레이저 거리 센서가 인식하지 못한 상태에서 해당 장애물로부터 반사된 빔이 레이저 거리 센서로 입사되면, 해당 측정 거리는 확산 반사, 투과 반사 및 정반사 중 어느 것과도 실질적으로 일치하지 않게 된다.
이 때, 오차 한계값에 의한 거리 오차의 체크 과정이 없는 경우 확산 반사, 투과 반사 및 정반사에 대응하는 레퍼런스 거리 중 어느 하나가 최소의 거리 오차를 나타내게 되어 해당 거리 오차의 거리 유형이 추출되는 오류가 나타난다.
이와 같은 오류가 오차 한계값에 의해 필터링되는데, 도 5에 도시된 바와 같은 유리벽(200) 반대편에 위치하는 알려지지 않은 장애물(300) 외에도, 이동 로봇(100)의 주행 경로 상에 위치하는 알려지지 않은 장애물(300)로부터 반사되는 빔에 의한 측정 거리가 후술할 불확실한 유형으로 평가되어 배제됨으로써, 알려지지 않은 장애물(300)에 의해 발생하는 위치 추정의 오류가 본 발명에 따른 거리 유형의 평가를 통해 제거되는 효과를 제공하게 된다.
본 발명에서는 오차 한계값이 측정 거리에 비례하여 산출되는 것을 예로 한다. 본 발명의 일 실시예에서, 예비 샘플이 일정한 방향각 단위로 계통 샘플링을 통해 추출되는 것을 예로 하고 있는 바, 방향각의 변화에 따른 레퍼런스 거리의 편차는 측정 거리에 영향을 받기 때문에 오차 한계값의 설정에 측정 거리를 반영하는 것을 예로 한다.
상기와 같은 과정을 통해, 하나의 레퍼런스 거리 세트에 대한 거리 유형의 추출이 완료되면, 모든 레퍼런스 거리 세트에 대한 거리 유형을 S33 단계 내지 S37 단게를 통해 추출하게 된다.
그리고, 모든 레퍼런스 거리 세트에 대한 거리 유형의 추출이 완료되면(S37), 추출된 모든 거리 유형이 동일한지 여부를 판단하고(S38), 동일한 경우 해당 거리 유형이 현재 측정 거리의 거리 유형으로 평가된다(S39). 반면, S38 단계에서 거리 유형이 모두 동일하지 않은 것으로 판단되면, 현재 측정 거리는 불확실한 유형으로 평가된다(S40).
여기서, 본 발명의 일 실시예에서 추출된 모든 거리 유형이 동일할 때 해당 측정 거리의 거리 유형을 평가함으로써, 측정 거리의 거리 유형의 평가의 정확성을 높일 수 있다. 상기의 과정이 레이저 거리 센서의 전체 스캔 과정에서 한 번의 스캔, 즉 하나의 각도에서 측정된 측정 거리에 대해 수행되는 것이므로, 불확실한 유형으로 평가되는 측정 거리를 후술할 위치 추정에서 배제하더라도 위치 추정의 정확성에 영향을 미치지 않게 된다.
일 예로, 1˚ 간격으로 360˚를 스캔하는 레이저 거리 센서의 경우, 한번의 스캔 과정에서 360개의 측정 거리가 측정되는데, 이 중 몇 개의 측정 거리가 불확실한 유형으로 평가되어 후술할 위치 추정에서 배제되더라도 위치 추정의 정확성이 낮아지지는 않게 된다.
전술한 실시예에서는, 도 4에 도시된 바와 같이, 복수의 예비 샘플이 추출되고, 각각의 예비 샘플들에 대한 레퍼런스 거리 세트가 산출되고, 각 레퍼런스 거리 세트에 대한 거리 유형이 평가되는 것을 예로 하여 설명하였다. 그러나, 본 발명의 기술적 사상이, 도 4에 도시된 과정의 순으로 진행되는 것이 한정되는 것은 아니다.
일 예로, 하나의 예비 샘플 추출 -> 레퍼런스 거리 세트 산출 -> 거리 오차 산출 -> 최소의 거리 오차 추출 -> 오차 한계값 비교 -> 거리 유형 추출의 과정을 각 예비 샘플의 추출을 통해 수행하도록 마련될 수 있음은 물론이다. 즉, 도 4에 도시된 과정이, 예를 들어 모든 예비 샘플들을 추출(S31)한 후 각각의 예비 샘플들에 대한 레퍼런스 거리 세트를 산출(S32)하는 것으로 한정되지 않음은 물론이다.
이하에서는, 도 6을 참조하여 본 발명에 따른 이동 로봇(100)의 위치 추정 방법에 대해 상세히 설명한다.
먼저, 이동 로봇(100)의 현재 스텝에서의 추정 포즈가 산출된다(S50). 여기서, 추정 포즈는, 상술한 바와 같이, 현재 스텝에서 이동 로봇(100)의 현재 위치에서의 대략적인 포즈로, 이전 스텝에서 추정된 이동 로봇(100)의 포즈와, 현재 스텝에서의 오도메트리 측정값에 기초하여 산출된다.
그런 다음, 이동 로봇(100)의 레이저 거리 센서의 스캔에 의해 각각의 방향에 대한 복수의 측정 거리가 측정된다(S51). 그리고, 하나의 측정 거리에 대한 거리 유형이 평가된다(S52). 여기서, 측정 거리에 대한 거리 유형의 평가는 상술한 바와 같은, 본 발명에 따른 거리 유형을 평가하는 방법이 적용된다.
하나의 측정 거리에 대한 거리 유형의 평가 결과, 거리 유형이 존재하는 경우, 즉, 도 4의 S38 단계에서 모든 레퍼런스 거리 세트에 대한 거리 유형이 동일한 경우, 해당 거리 유형이 이동 로봇(100)의 위치 추정에 반영된다(S54). 반면, 거리 유형이 존재하지 않는 경우, 즉, 도 4의 S38 단계를 만족하지 않는 경우 해당 측정 거리는 이동 로봇(100)의 위치 추정에 반영되지 않도록 배제된다(S55).
상기와 같은 과정을 통해 현재 스텝에서 하나의 측정 거리에 대한 거리 유형의 평가가 완료되면, 모든 측정 거리에 대한 거리 유형의 평가를 S52 단계 내지 S55 단계를 통해 수행하여 모든 측정 거리에 대한 평가를 완료한다(S56).
그런 다음, 복수의 측정 거리가 스캔매칭기법에 적용되는데, 스캔매칭기법 상의 레퍼런스 거리가 해당 측정 거리에 대한 거리 유형이 반영되어 적용된다(S57). 즉, 레이저 거리 센서에 의해 측정된 측정 거리 중 거리 유형이 불확실한 측정 거리는 스캔매칭기법의 적용에 배제되고, 스캔매칭기법에 적용되는 측정 거리에 대한 레퍼런스 거리는 해당 측정 거리의 거리 유형에 해당하는 레퍼런스 거리, 즉, 확산 반사 거리, 정반사 거리 및 투과 반사 거리 중 어느 하나에 대응하는 레퍼런스 거리가 스캔매칭기법에 적용된다.
그런 다음, 스캔매칭기법의 적용에 따른 매칭 오차에 기초하여, 이동 로봇(100)의 위치가 추정(S58)됨으로서, 측정 거리의 거리 유형이 반영된 보다 정확한 위치 추정이 완료된다.
이하에서는 본 발명에 따른 측정 거리의 거리 유형을 평가하는 방법에 위치 추정 기법 중 몬테카를로 위치 추정 기법(Monte Carlo Localization)에 적용되어 이동 로봇(100)의 위치가 추정되는 예를 설명한다.
몬테카를로 위치 추정 기법은 기본적으로 베이즈 필터링(Bayes Filtering)의 알고리즘에 따르며, 예측(Prediction), 측정값 업데이트(Measurement update) 및 리샘플링(Resampling)으로 구성된 3가지 단계로 분류된다.
먼저, 예측 단계에서는 이전 스텝에서 각 샘플 포즈와 현재 스텝에서 오도메트리 측정값을 이용하여 현재 스텝에서의 관측 결과를 포함하기 전 각 샘플 포즈의 belief인 가 따르는 [수학식 1]에 의해 계산된다.
[수학식 1]
측정값 업데이트 단계에서는 현재 스텝에서의 관측 결과, 즉 이동 로봇(100)의 포즈(위치 및 방향)와, 그리드 맵 정보를 이용하여 현재 스텝에서 각 샘플의 포즈에 대한 belief인 가 [수학식 2]에 의해 산출된다.
[수학식 2]
여기서, 는 정규화 상수(Normalizing constant)이고, 는 관측 모델(Observation motel)이다. 본 발명에서는 관측 모델로서 면적 차이를 이용한 매칭 오차에 따른 확률 분포가 사용되며, 면적 차이를 이용한 매칭 오차의 산출은 도 6의 스캔매칭기법이 적용되어, 측정 거리의 거리 평가가 반영된 레퍼런스 거리가 적용된다.
여기서, 본 발명에 따른 측정 거리의 거리 유형을 평가하는 방법은 측정값 업데이트 단계 전에 수행되어, 측정값 업데이트 단계에서 적용되는 매칭 오차의 산출에 적용된다.
보다 구체적으로 설명하면, 본 발명에 따른 측정 거리의 거리 유형을 평가하는 방법이 완료되면, 몬테카를로 위치 추정 기법에서 사용되는 모든 샘플의 우도(Likelihood)가 관측 모델에 의해 업데이트된다.
도 7은 면적 차이를 이용한 매칭 오차를 설명하기 위한 도면이다. 상술한 바와 같이, 본 발명에서는 관측 모델로 면적 차이를 이용한 매칭 오차에 따른 확률 분포가 사용되는 것을 예로 한다. 도 7을 참조하여 설명하면, 매칭 오차는 레이저 거리 센서의 스캔 이미지, 즉 측정 거리와, 그리드 맵으로부터 산출된 레퍼런스 거리에 의해 표현된 이미지의 면적 차이를 이용하여 산출된다. 매칭 오차는 [수학식 3]을 통해 산출된다.
[수학식 3]
[수학식 3]에서 Zi,t는 현재 스텝(t)에서의 i번째 측정된 측정 거리이고, Z* i,t는 i번째 레퍼런스 거리이고, 는 레이저 거리 센서의 각 해상도(Angular resolution)이다.
[수학식 3]에서 Z* i,t의 계산에, 측정 거리에 대해 평가된 거리 유형이 반영되어 해당 거리 유형에 따른 레퍼런스 거리, 즉 확산 반사 거리, 정반사 거리 및 투과 거리 중 어느 하나에 대응하는 레퍼런스 거리가 반영된다. 또한, 불확실한 유형으로 판단된 측정 거리는 [수학식 3]의 적용에서 배재시킴으로써, 오판단에 따른 위치 추정의 오차를 줄일 수 있게 된다.
상기와 같은 과정을 통해, 모든 샘플의 포즈에 대한 매칭 오차의 계산이 종료되면, 매칭 오차의 크기에 따른 가우시안 확률분포를 이용하여 모든 샘플의 우도가 업데이트 된다.
상기와 같은 측정값 업데이트 과정이 완료되면, 측정값 업데이트 과정에서 산출된 에 기초하여, 모든 샘플들이 다시 그려진다. 즉, 리샘플링 과정을 통해 낮은 가중치를 가진 샘플들이 높은 가중치를 가진 샘플들에 의해 대체됨으로써, 모든 샘플이 리샘플링 과정을 거친 후에 모든 샘플의 포즈의 는 같은 값으로 변화하게 된다.
상기와 같은 과정에서, 이동 로봇(100)의 현재 스텝에서의 위치 추정은 측정값 업데이트 과정에서 산출된 각 샘플에 대한 매칭 에러를 통해 추정된다. 여기서, 매칭 에러를 통한 이동 로봇(100)의 위치 추정은 기 공지된 다양한 방법의 적용이 가능하다. 일 예로, 매칭 에러가 가장 낮게 산출된 샘플의 위치를 이동 로봇(100)의 위치로 추정하거나, 모든 샘플의 위치의 가중치 평균을 통해 이동 로봇(100)의 위치를 추정할 수 있다.
전술한 실시예에서는 본 발명에 따른 위치 추정 방법에 적용되는 위치 추정 기법으로 몬테카를로 위치 추정 기법이 적용되는 것을 예로 하였다. 이외에도, 칼만필터, 확장칼만필터, 무향칼만필터를 이용한 위치 추정 방법 등과 같이 레이저 거리 센서의 스캔매칭기법을 이용한 센서모델이 적용될 수 있는 위치 추정 기법에 본 발명에 따른 위치 추정 방법이 적용 가능함은 물론이다.
또한, 전술한 실시예에서는 스캔매칭기법에서 면적 차이를 이용한 매칭 오차가 적용되는 것을 예로 하고 있으나, 레퍼런스 거리와 측정 거리 간의 거리 차이를 이용한 다른 방법이 적용 가능함은 물론이다.
그리고, 전술한 실시예에서는 유리벽(200)이 존재하는 환경에서 유리벽(200)에 따른 위치 추정의 오차를 줄이는 예에 대해 설명하였다. 그러나, 본 발명에 따른 측정 거리의 거리 유형을 평가하는 방법에서는 상술한 바와 같이, 알려지지 않은 장애물(300)에 의한 위치 추정의 오류도 해소됨을 확인할 수 있듯이, 등록된 맵 이외의 환경 변화, 예를 들어 문이 개방되거나 폐쇄되는 형태에 따라 측정 거리가 변하는 경우, 해당 변화를 위치 추정에 배제시킴으로써, 보다 정확한 위치 추정이 가능할 것이다.
또한, 전술한 실시예에서는 각각의 레퍼런스 거리 세트에 대해 판단된 거리 유형이 모두 동일한 경우에 해당 거리 유형이 측정 거리의 거리 유형으로 평가되는 것을 예로 하였다. 이외에도, 각각의 레퍼런스 거리 세트에 대해 판단된 거리 유형이 기 설정된 횟수 이상으로 동일한 경우에도 해당 거리 유형을 측정 거리의 거리 유형으로 평가하도록 마련될 수 있음은 물론이다.
이상에서 본 발명의 바람직한 실시예에 대하여 상세하게 설명하였지만 본 발명의 권리범위는 이에 한정되는 것은 아니고 다음의 청구범위에서 정의하고 있는 본 발명의 기본 개념을 이용한 당업자의 여러 변형 및 개량 형태 또한 본 발명의 권리범위에 속하는 것이다.
100 : 이동 로봇 200 : 유리벽
300 : 알려지지 않은 장애물
300 : 알려지지 않은 장애물
Claims (9)
- 레이저 거리 센서에 의해 측정된 측정 거리의 거리 유형을 판단하는 방법에 있어서,
현재 위치에 대한 추정 포즈를 중심으로 복수의 예비 샘플이 추출되는 샘플 추출 단계와;
각각의 상기 예비 샘플이 기 등록된 레퍼런스 거리 산출 알고리즘에 적용되어, 각각의 상기 예비 샘플에 대한 레퍼런스 거리 세트가 산출되는 레퍼런스 세트 산출 단계-상기 레퍼런스 거리 세트는 복수의 거리 유형 각각에 대한 레퍼런스 거리로 구성됨-와;
상기 레퍼런스 거리 세트를 구성하는 각각의 상기 레퍼런스 거리와 상기 측정 거리 간의 거리 오차 중 가장 작은 거리 오차에 기초하여, 상기 각각의 상기 레퍼런스 거리 세트에 대한 거리 유형을 추출하는 거리 유형 추출 단계와;
각각의 상기 레퍼런스 거리 세트에 대해 판단된 거리 유형에 기초하여, 상기 측정 거리의 거리 유형이 평가되는 거리 유형 평가 단계를 포함하는 것을 특징으로 하는 레이저 거리 센서에 의해 측정된 측정 거리의 거리 유형을 판단하는 방법.
- 제1항에 있어서,
상기 거리 유형 평가 단계에서는 각각의 상기 레퍼런스 거리 세트에 대해 판단된 거리 유형이 동일한 경우, 해당 거리 유형이 상기 측정 거리의 거리 유형으로 평가되는 것을 특징으로 하는 레이저 거리 센서에 의해 측정된 측정 거리의 거리 유형을 판단하는 방법.
- 제1항에 있어서,
상기 샘플 추출 단계에서 상기 추정 포즈는 이전 스텝에서 추정된 포즈와 오도메트리 측정값에 기초하여 산출되는 것을 특징으로 하는 레이저 거리 센서에 의해 측정된 측정 거리의 거리 유형을 판단하는 방법.
- 제1항에 있어서,
상기 샘플 추출 단계에서 상기 예비 샘플은 상기 추정 포즈를 중심으로 기 설정된 방향각 간격으로 계통 샘플링을 수행하여 추출되는 것을 특징으로 하는 레이저 거리 센서에 의해 측정된 측정 거리의 거리 유형을 판단하는 방법.
- 제1항에 있어서,
상기 레퍼런스 거리 산출 알고리즘은 레이캐스팅 알고리즘을 포함하며;
상기 레퍼런스 세트 산출 단계에서는 상기 예비 샘플의 포즈와 기 등록된 그리드 맵이 상기 레이캐스팅 알고리즘에 적용되되, 상기 그리드 맵에 기초하여 상기 예비 샘플의 포즈에서의 확산 반사 거리, 투과 반사 거리 및 정반사 거리 각각에 대응하는 레퍼런스 거리가 산출되는 것을 특징으로 하는 레이저 거리 센서에 의해 측정된 측정 거리의 거리 유형을 판단하는 방법.
- 제1항에 있어서,
상기 거리 유형 추출 단계에서 하나의 상기 레퍼런스 거리 세트에 대한 거리 유형은
상기 레퍼런스 거리 세트를 구성하는 각각의 상기 레퍼런스 거리와 상기 측정 거리 간의 거리 오차를 산출하는 단계와;
상기 산출된 거리 오차 중 가장 작은 거리 오차를 추출하는 단계와;
상기 추출된 거리 오차가 기 설정된 오차 한계값보다 작은 경우, 상기 추출된 거리 오차에 대한 거리 유형을 상기 레퍼런스 거리 세트에 대한 거리 유형으로 추출하는 단계를 통해 추출되는 것을 특징으로 하는 레이저 거리 센서에 의해 측정된 측정 거리의 거리 유형을 판단하는 방법.
- 제6항에 있어서,
상기 오차 한계값은 상기 측정 거리에 비례하여 산출되는 것을 특징으로 하는 레이저 거리 센서에 의해 측정된 측정 거리의 거리 유형을 판단하는 방법.
- 제1항에 있어서,
상기 레퍼런스 거리 세트는 적어도 4 이상의 거리 유형 각각에 대한 레퍼런스 거리로 구성되는 것을 특징으로 하는 레이저 거리 센서에 의해 측정된 측정 거리의 거리 유형을 판단하는 방법.
- 레이저 거리 센서를 이용한 이동 로봇의 위치 추정 방법에 있어서,
현재 스텝에서의 상기 이동 로봇의 추정 포즈가 산출되는 단계와;
현재 스텝에서 상기 레이저 거리 센서의 스캔을 통해 복수의 측정 거리가 측정되는 단계와;
각각의 상기 측정 거리에 대해 제1항 내지 제8항 중 어느 한 항에 따른 거리 유형을 판단하는 방법을 적용하여 각각의 상기 측정 거리에 대한 거리 유형을 평가하는 단계와;
상기 복수의 측정 거리가 스캔매칭기법에 적용되되, 상기 스캔매칭기법 상의 레퍼런스 거리가 상기 평가된 거리 유형이 반영되어 적용되는 단계와;
상기 스캔매칭기법에 따른 매칭 오차에 기초하여 상기 이동 로봇의 위치가 추정되는 단계를 포함하는 것을 특징으로 하는 레이저 거리 센서를 이용한 이동 로봇의 위치 추정 방법.
Priority Applications (3)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
KR20130167958A KR101508860B1 (ko) | 2013-12-31 | 2013-12-31 | 레이저 거리 센서에 의해 측정된 측정 거리의 거리 유형을 평가하는 방법 및 이를 이용한 이동 로봇의 위치 추정 방법 |
US15/105,337 US10107897B2 (en) | 2013-12-31 | 2014-10-15 | Method for evaluating type of distance measured by laser range finder and method for estimating position of mobile robot by using same |
PCT/KR2014/009669 WO2015102212A1 (ko) | 2013-12-31 | 2014-10-15 | 레이저 거리 센서에 의해 측정된 측정 거리의 거리 유형을 평가하는 방법 및 이를 이용한 이동 로봇의 위치 추정 방법 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
KR20130167958A KR101508860B1 (ko) | 2013-12-31 | 2013-12-31 | 레이저 거리 센서에 의해 측정된 측정 거리의 거리 유형을 평가하는 방법 및 이를 이용한 이동 로봇의 위치 추정 방법 |
Publications (1)
Publication Number | Publication Date |
---|---|
KR101508860B1 true KR101508860B1 (ko) | 2015-04-07 |
Family
ID=53032477
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
KR20130167958A KR101508860B1 (ko) | 2013-12-31 | 2013-12-31 | 레이저 거리 센서에 의해 측정된 측정 거리의 거리 유형을 평가하는 방법 및 이를 이용한 이동 로봇의 위치 추정 방법 |
Country Status (3)
Country | Link |
---|---|
US (1) | US10107897B2 (ko) |
KR (1) | KR101508860B1 (ko) |
WO (1) | WO2015102212A1 (ko) |
Cited By (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN105607071A (zh) * | 2015-12-24 | 2016-05-25 | 百度在线网络技术(北京)有限公司 | 一种室内定位方法及装置 |
KR20180087519A (ko) * | 2017-01-24 | 2018-08-02 | 고려대학교 산학협력단 | 레이저 거리 센서의 측정 거리에 대해 추정된 거리 유형의 신뢰성을 평가하는 방법 및 이를 이용한 이동 로봇의 위치 추정 방법 |
Families Citing this family (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN106200643A (zh) * | 2014-02-13 | 2016-12-07 | 苏州艾吉威机器人有限公司 | 无反射板激光自主导航agv小车 |
CN108089203A (zh) * | 2018-02-05 | 2018-05-29 | 弗徕威智能机器人科技(上海)有限公司 | 一种特殊障碍物检测方法 |
CN112799091A (zh) * | 2021-01-28 | 2021-05-14 | 知行汽车科技(苏州)有限公司 | 算法评估方法、装置及存储介质 |
CN113311408B (zh) * | 2021-07-07 | 2023-05-26 | 中国地质大学(武汉) | 一种高光谱激光雷达的辐射校正方法和装置 |
Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR20040050739A (ko) * | 2002-12-09 | 2004-06-17 | 한국전자통신연구원 | 모바일 레이저 스캐닝 데이터를 이용한 3차원 지형지물추출 및 분류 시스템 및 그 방법 |
KR20110132659A (ko) * | 2010-06-03 | 2011-12-09 | 고려대학교 산학협력단 | 이동 로봇의 위치 추정 방법 |
KR20120025839A (ko) * | 2010-09-08 | 2012-03-16 | 고려대학교 산학협력단 | 2-륜 이동 로봇의 오도메트리 오차 보정 방법 |
JP2012089174A (ja) | 2012-02-08 | 2012-05-10 | Fuji Soft Inc | ロボット及び情報処理装置のプログラム |
Family Cites Families (10)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR100825919B1 (ko) | 2006-12-18 | 2008-04-28 | 엘지전자 주식회사 | 거리 측정 센서, 거리 측정 센서를 가진 이동로봇 및 그를이용한 이동로봇 주행 방법 |
KR100864801B1 (ko) | 2007-08-14 | 2008-10-23 | 포항공과대학교 산학협력단 | 이동로봇에서 홈포지셔닝을 이용한 오도메트리 보정 방법 |
KR100998709B1 (ko) | 2008-04-28 | 2010-12-07 | 한양대학교 산학협력단 | 물체의 공간적 의미정보를 이용한 로봇의 자기위치 추정 방법 |
KR101675112B1 (ko) | 2010-01-21 | 2016-11-22 | 삼성전자주식회사 | 거리 정보 추출 방법 및 상기 방법을 채용한 광학 장치 |
KR101233938B1 (ko) * | 2010-08-26 | 2013-02-15 | 아주대학교산학협력단 | 객체 추적 로봇 및 그 방법 |
US9476980B2 (en) * | 2011-06-30 | 2016-10-25 | Jeffrey P. Thayer | Remote measurement of shallow depths in semi-transparent media |
KR101190616B1 (ko) | 2012-03-13 | 2012-10-12 | 고려대학교 산학협력단 | 이동 로봇의 위치 추정 방법 |
JP2013205331A (ja) * | 2012-03-29 | 2013-10-07 | Sanyo Electric Co Ltd | 情報取得装置および物体検出装置 |
US9020641B2 (en) * | 2012-06-07 | 2015-04-28 | Samsung Electronics Co., Ltd. | Obstacle sensing module and cleaning robot including the same |
US9470520B2 (en) * | 2013-03-14 | 2016-10-18 | Apparate International C.V. | LiDAR scanner |
-
2013
- 2013-12-31 KR KR20130167958A patent/KR101508860B1/ko active IP Right Grant
-
2014
- 2014-10-15 US US15/105,337 patent/US10107897B2/en active Active
- 2014-10-15 WO PCT/KR2014/009669 patent/WO2015102212A1/ko active Application Filing
Patent Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR20040050739A (ko) * | 2002-12-09 | 2004-06-17 | 한국전자통신연구원 | 모바일 레이저 스캐닝 데이터를 이용한 3차원 지형지물추출 및 분류 시스템 및 그 방법 |
KR20110132659A (ko) * | 2010-06-03 | 2011-12-09 | 고려대학교 산학협력단 | 이동 로봇의 위치 추정 방법 |
KR20120025839A (ko) * | 2010-09-08 | 2012-03-16 | 고려대학교 산학협력단 | 2-륜 이동 로봇의 오도메트리 오차 보정 방법 |
JP2012089174A (ja) | 2012-02-08 | 2012-05-10 | Fuji Soft Inc | ロボット及び情報処理装置のプログラム |
Cited By (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN105607071A (zh) * | 2015-12-24 | 2016-05-25 | 百度在线网络技术(北京)有限公司 | 一种室内定位方法及装置 |
CN105607071B (zh) * | 2015-12-24 | 2018-06-08 | 百度在线网络技术(北京)有限公司 | 一种室内定位方法及装置 |
KR20180087519A (ko) * | 2017-01-24 | 2018-08-02 | 고려대학교 산학협력단 | 레이저 거리 센서의 측정 거리에 대해 추정된 거리 유형의 신뢰성을 평가하는 방법 및 이를 이용한 이동 로봇의 위치 추정 방법 |
KR101888295B1 (ko) * | 2017-01-24 | 2018-08-14 | 고려대학교 산학협력단 | 레이저 거리 센서의 측정 거리에 대해 추정된 거리 유형의 신뢰성을 평가하는 방법 및 이를 이용한 이동 로봇의 위치 추정 방법 |
Also Published As
Publication number | Publication date |
---|---|
US10107897B2 (en) | 2018-10-23 |
US20170003380A1 (en) | 2017-01-05 |
WO2015102212A1 (ko) | 2015-07-09 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
KR101508860B1 (ko) | 레이저 거리 센서에 의해 측정된 측정 거리의 거리 유형을 평가하는 방법 및 이를 이용한 이동 로봇의 위치 추정 방법 | |
KR101888295B1 (ko) | 레이저 거리 센서의 측정 거리에 대해 추정된 거리 유형의 신뢰성을 평가하는 방법 및 이를 이용한 이동 로봇의 위치 추정 방법 | |
Foster et al. | Visagge: Visible angle grid for glass environments | |
US20200233061A1 (en) | Method and system for creating an inverse sensor model and method for detecting obstacles | |
Marchisotti et al. | Feasibility study of drone-based 3-D measurement of defects in concrete structures | |
Choi et al. | Robust sonar feature detection for the SLAM of mobile robot | |
Zhang et al. | Geometrical feature extraction using 2D range scanner | |
Kim et al. | Dynamic displacement measurement of a vibratory object using a terrestrial laser scanner | |
Bharti et al. | Robust subsea pipeline tracking with noisy multibeam echosounder | |
Wickramanayake et al. | Deep learning for estimating low-range concrete sub-surface boundary depths using ground penetrating radar signals | |
MacLeod et al. | Quantifying and improving laser range data when scanning industrial materials | |
Mo et al. | A survey on recent reflective detection methods in simultaneous localization and mapping for robot applications | |
US20220206103A1 (en) | Location estimation system, location estimation method, program, and recording medium | |
Adams et al. | Tracking naturally occurring indoor features in 2-d and 3-d with lidar range/amplitude data | |
Chen et al. | An optimal selection of sensors in multi-sensor fusion navigation with factor graph | |
Peter et al. | Line segmentation of 2d laser scanner point clouds for indoor slam based on a range of residuals | |
Tripathi et al. | Occupancy grid mapping for mobile robot using sensor fusion | |
Adams | On-line gradient based surface discontinuity detection for outdoor scanning range sensors | |
Mitchell et al. | Autonomous underwater pipeline monitoring navigation system | |
Klippenstein et al. | Performance evaluation of visual SLAM using several feature extractors | |
Moravec et al. | Robust maximum-likelihood on-line LiDAR-to-camera calibration monitoring and refinement | |
Nashed et al. | Curating long-term vector maps | |
Worley et al. | Robot Localization in a Pipe Network using a Particle Filter with Error Detection and Recovery in a Hybrid Metric-Topological Space | |
Yaghobi et al. | Adaptive line extraction algorithm for SLAM application | |
Zhao et al. | Glass Detection in Simultaneous Localization and Mapping of Mobile Robot Based on RGB-D Camera |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
E701 | Decision to grant or registration of patent right | ||
GRNT | Written decision to grant | ||
FPAY | Annual fee payment |
Payment date: 20180108 Year of fee payment: 4 |
|
FPAY | Annual fee payment |
Payment date: 20190211 Year of fee payment: 5 |