KR20240146350A - Method for drawing up a map and apparatus thereof - Google Patents
Method for drawing up a map and apparatus thereof Download PDFInfo
- Publication number
- KR20240146350A KR20240146350A KR1020230041203A KR20230041203A KR20240146350A KR 20240146350 A KR20240146350 A KR 20240146350A KR 1020230041203 A KR1020230041203 A KR 1020230041203A KR 20230041203 A KR20230041203 A KR 20230041203A KR 20240146350 A KR20240146350 A KR 20240146350A
- Authority
- KR
- South Korea
- Prior art keywords
- feature information
- data
- pose data
- map creation
- lidar
- Prior art date
Links
- 238000000034 method Methods 0.000 title claims abstract description 57
- 238000013480 data collection Methods 0.000 claims description 91
- 238000003384 imaging method Methods 0.000 claims description 35
- 238000000605 extraction Methods 0.000 claims description 29
- 239000000284 extract Substances 0.000 claims description 23
- 238000001514 detection method Methods 0.000 claims description 19
- 238000004590 computer program Methods 0.000 claims description 2
- 239000000306 component Substances 0.000 description 20
- 238000010586 diagram Methods 0.000 description 6
- 238000004891 communication Methods 0.000 description 5
- 238000000513 principal component analysis Methods 0.000 description 5
- 230000015654 memory Effects 0.000 description 4
- 238000013256 Gubra-Amylin NASH model Methods 0.000 description 3
- 230000008901 benefit Effects 0.000 description 3
- 230000008569 process Effects 0.000 description 3
- 230000000694 effects Effects 0.000 description 2
- 238000005516 engineering process Methods 0.000 description 2
- 238000005259 measurement Methods 0.000 description 2
- 230000003287 optical effect Effects 0.000 description 2
- 238000003491 array Methods 0.000 description 1
- 239000008358 core component Substances 0.000 description 1
- 230000006870 function Effects 0.000 description 1
- 230000004807 localization Effects 0.000 description 1
- 238000013507 mapping Methods 0.000 description 1
- 238000012986 modification Methods 0.000 description 1
- 230000004048 modification Effects 0.000 description 1
- 230000001151 other effect Effects 0.000 description 1
- 230000009467 reduction Effects 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G05—CONTROLLING; REGULATING
- G05D—SYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
- G05D1/00—Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots
- G05D1/02—Control of position or course in two dimensions
- G05D1/021—Control of position or course in two dimensions specially adapted to land vehicles
- G05D1/0268—Control of position or course in two dimensions specially adapted to land vehicles using internal positioning means
- G05D1/0274—Control of position or course in two dimensions specially adapted to land vehicles using internal positioning means using mapping information stored in a memory device
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01S—RADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
- G01S17/00—Systems using the reflection or reradiation of electromagnetic waves other than radio waves, e.g. lidar systems
- G01S17/02—Systems using the reflection of electromagnetic waves other than radio waves
- G01S17/06—Systems determining position data of a target
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01S—RADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
- G01S17/00—Systems using the reflection or reradiation of electromagnetic waves other than radio waves, e.g. lidar systems
- G01S17/88—Lidar systems specially adapted for specific applications
- G01S17/89—Lidar systems specially adapted for specific applications for mapping or imaging
-
- G—PHYSICS
- G05—CONTROLLING; REGULATING
- G05D—SYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
- G05D1/00—Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots
- G05D1/02—Control of position or course in two dimensions
- G05D1/021—Control of position or course in two dimensions specially adapted to land vehicles
- G05D1/0231—Control of position or course in two dimensions specially adapted to land vehicles using optical position detecting means
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/045—Combinations of networks
- G06N3/0455—Auto-encoder networks; Encoder-decoder networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T5/00—Image enhancement or restoration
- G06T5/20—Image enhancement or restoration using local operators
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/40—Extraction of image or video features
- G06V10/46—Descriptors for shape, contour or point-related descriptors, e.g. scale invariant feature transform [SIFT] or bags of words [BoW]; Salient regional features
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/70—Arrangements for image or video recognition or understanding using pattern recognition or machine learning
- G06V10/764—Arrangements for image or video recognition or understanding using pattern recognition or machine learning using classification, e.g. of video objects
-
- G—PHYSICS
- G09—EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
- G09B—EDUCATIONAL OR DEMONSTRATION APPLIANCES; APPLIANCES FOR TEACHING, OR COMMUNICATING WITH, THE BLIND, DEAF OR MUTE; MODELS; PLANETARIA; GLOBES; MAPS; DIAGRAMS
- G09B29/00—Maps; Plans; Charts; Diagrams, e.g. route diagram
- G09B29/003—Maps
Landscapes
- Engineering & Computer Science (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Theoretical Computer Science (AREA)
- Radar, Positioning & Navigation (AREA)
- Remote Sensing (AREA)
- Electromagnetism (AREA)
- Software Systems (AREA)
- Aviation & Aerospace Engineering (AREA)
- Artificial Intelligence (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Computing Systems (AREA)
- Computer Networks & Wireless Communication (AREA)
- Evolutionary Computation (AREA)
- General Health & Medical Sciences (AREA)
- Automation & Control Theory (AREA)
- Mathematical Physics (AREA)
- Multimedia (AREA)
- Health & Medical Sciences (AREA)
- Educational Administration (AREA)
- Biophysics (AREA)
- Computational Linguistics (AREA)
- Data Mining & Analysis (AREA)
- Molecular Biology (AREA)
- General Engineering & Computer Science (AREA)
- Biomedical Technology (AREA)
- Life Sciences & Earth Sciences (AREA)
- Business, Economics & Management (AREA)
- Educational Technology (AREA)
- Medical Informatics (AREA)
- Databases & Information Systems (AREA)
- Image Analysis (AREA)
Abstract
본 발명은 컴퓨팅 장치에 의해 수행되는 지도 작성 방법에 관한 것으로, 1차 포즈 데이터를 수집하는 단계; 상기 수집된 1차 포즈 데이터의 특징 정보를 추출하는 단계; 상기 추출된 특징 정보를 기반으로 하나 이상의 대표 포즈 데이터를 검출하는 단계; 및 상기 검출된 대표 포즈 데이터의 위치 정보를 기반으로 2차 포즈 데이터를 수집하는 단계를 포함한다.The present invention relates to a map-making method performed by a computing device, comprising: a step of collecting primary pose data; a step of extracting feature information of the collected primary pose data; a step of detecting one or more representative pose data based on the extracted feature information; and a step of collecting secondary pose data based on location information of the detected representative pose data.
Description
본 발명은 로봇을 이용한 지도 작성 방법에 관한 것으로서, 보다 구체적으로는 로봇의 지도 작성에 필요한 포즈 데이터의 최적 수집 위치를 탐색하는 방법에 관한 것이다.The present invention relates to a method for creating a map using a robot, and more specifically, to a method for searching for an optimal collection location of pose data required for creating a map of a robot.
최근 자율주행이 가능한 로봇에 대한 관심이 증가하면서 다양한 로봇 제품들이 개발되고 있으며, 자율주행은 4차 산업 혁명의 핵심 키워드로써 자율주행 자동차, 배달 로봇, 무인 경비 로봇 등 적용 분야가 광범위한 핵심 기술이다. 이러한 자율주행 로봇의 핵심 구성 요소는 내비게이션 시스템으로 로봇이 주변 환경을 감지하고 효율적으로 장애물을 회피하며 최단 경로로 이동할 수 있도록 해준다.Recently, as interest in robots capable of autonomous driving has increased, various robot products are being developed, and autonomous driving is a key keyword of the 4th industrial revolution, and it is a core technology with a wide range of applications, such as autonomous cars, delivery robots, and unmanned security robots. The core component of these autonomous robots is the navigation system, which allows the robot to detect the surrounding environment, efficiently avoid obstacles, and move along the shortest path.
로봇은 대표적인 자율주행 알고리즘인 SLAM(Simultaneous Localization and Mapping) 기법을 이용하여 대상 공간에 대한 지도를 작성한다. SLAM 기법은 로봇이 이동하면서 로봇에 설치된 각종 센서를 활용해서 주변의 공간 지형 또는 인공표식을 인식하고, 얻어진 공간 지형 또는 인공표식을 이용하여 주변 환경의 지도를 만들면서 동시에 로봇의 상대적인 위치를 알아내는 기법이다.The robot uses the SLAM (Simultaneous Localization and Mapping) technique, a representative autonomous driving algorithm, to create a map of the target space. The SLAM technique is a technique in which the robot recognizes the surrounding spatial terrain or artificial landmarks by utilizing various sensors installed on the robot as it moves, and uses the obtained spatial terrain or artificial landmarks to create a map of the surrounding environment while simultaneously determining the relative position of the robot.
로봇은 대상 공간을 이동하면서 IMU(Inertial Measurement Unit) 데이터, 라이다(LiDAR) 데이터 및 촬상 데이터 등을 포함하는 포즈(POSE) 데이터를 일정 시간 주기 또는 일정 거리 단위로 수집한다. 상기 포즈 데이터는 지도 작성의 정확도를 높이는데 중요한 역할을 수행한다. As the robot moves through the target space, it collects pose data, including IMU (Inertial Measurement Unit) data, LiDAR data, and imaging data, at regular intervals or at regular distances. The pose data plays an important role in increasing the accuracy of map creation.
그런데, 로봇이 작성한 지도는 대상 공간의 실제 지도와 오차가 발생할 수 있다. 이러한 오차는 로봇의 위치 인식 및 지도 작성에 중요한 문제를 야기할 수 있다. 특히, 포즈 데이터의 수집 간격을 어떻게 구성하는지에 따라 오탐(False Positive)과 미탐(False Negative)의 발생 가능성이 존재한다. 가령, 도 1의 (a)에 도시된 바와 같이, 포즈 데이터의 수집 간격을 빽빽하게 설정하면 근처의 지점을 현재 지점과 동일하게 판단하여 오탐의 가능성이 높아질 수 있다. 반대로, 도 1의 (b)에 도시된 바와 같이, 포즈 데이터의 수집 간격을 듬성듬성하게 설정하면 미탐의 가능성이 높아질 수 있다. 따라서, 종래에는 전문가의 파라미터 튜닝 과정을 통해 최적의 간격을 설정하여 포즈 데이터를 수집하였다. 하지만 실제 현장에서는 전문가의 수가 제한되어 있고, 파라미터 튜닝 과정에 상당히 많은 시간이 소요되는 문제가 있다.However, the map created by the robot may have errors with the actual map of the target space. Such errors may cause significant problems in the robot's position recognition and map creation. In particular, there is a possibility of false positives and false negatives depending on how the pose data collection interval is configured. For example, as shown in Fig. 1 (a), if the pose data collection interval is set densely, the possibility of false positives may increase because nearby points may be judged to be the same as the current point. On the contrary, as shown in Fig. 1 (b), if the pose data collection interval is set sparsely, the possibility of false negatives may increase. Therefore, pose data was collected by setting an optimal interval through a parameter tuning process by an expert in the past. However, in actual fields, the number of experts is limited, and there is a problem that the parameter tuning process takes a considerable amount of time.
본 발명은 전술한 문제 및 다른 문제를 해결하는 것을 목적으로 한다. 또 다른 목적은 로봇의 지도 작성에 필요한 포즈 데이터의 최적 수집 위치를 탐색하는 방법 및 그 장치를 제공함에 있다.The present invention aims to solve the above-mentioned problems and other problems. Another object is to provide a method and device for searching for an optimal collection location of pose data required for creating a map of a robot.
또 다른 목적은 대상 공간의 특징 정보를 추출하고, 상기 추출된 특징 정보를 기반으로 포즈 데이터의 최적 수집 위치를 탐색하는 방법 및 그 장치를 제공함에 있다.Another purpose is to provide a method and device for extracting feature information of a target space and searching for an optimal collection location of pose data based on the extracted feature information.
상기 또는 다른 목적을 달성하기 위해 본 발명의 일 측면에 따르면, 1차 포즈 데이터를 수집하는 단계; 상기 수집된 1차 포즈 데이터의 특징 정보를 추출하는 단계; 상기 추출된 특징 정보를 기반으로 하나 이상의 대표 포즈 데이터를 검출하는 단계; 및 상기 검출된 대표 포즈 데이터의 위치 정보를 기반으로 2차 포즈 데이터를 수집하는 단계를 포함하는 지도 작성 방법을 제공한다.According to one aspect of the present invention to achieve the above or other purposes, a map creation method is provided, including: a step of collecting primary pose data; a step of extracting feature information of the collected primary pose data; a step of detecting one or more representative pose data based on the extracted feature information; and a step of collecting secondary pose data based on location information of the detected representative pose data.
본 발명의 다른 측면에 따르면, 대상 공간의 지도 작성에 필요한 포즈 데이터를 수집하는 데이터 수집부; 상기 수집된 포즈 데이터의 특징 정보를 추출하는 특징정보 추출부; 상기 추출된 특징 정보의 확률밀도를 산출하는 밀도 추정부; 및 상기 산출된 확률밀도를 기반으로 하나 이상의 대표 포즈 데이터를 검출하는 데이터수집위치 검출부를 포함하는 지도 작성 장치를 제공한다.According to another aspect of the present invention, a map creation device is provided, including: a data collection unit that collects pose data required for creating a map of a target space; a feature information extraction unit that extracts feature information of the collected pose data; a density estimation unit that calculates a probability density of the extracted feature information; and a data collection location detection unit that detects one or more representative pose data based on the calculated probability density.
본 발명의 또 다른 측면에 따르면, 1차 포즈 데이터를 수집하는 과정; 상기 수집된 1차 포즈 데이터의 특징 정보를 추출하는 과정; 상기 추출된 특징 정보를 기반으로 하나 이상의 대표 포즈 데이터를 검출하는 과정; 및 상기 검출된 대표 포즈 데이터의 위치 정보를 기반으로 2차 포즈 데이터를 수집하는 과정이 컴퓨터 상에서 실행 가능하도록 컴퓨터 판독 가능한 기록매체에 저장된 컴퓨터 프로그램을 제공한다.According to another aspect of the present invention, a computer program is provided, which is stored in a computer-readable recording medium, so that the steps of: collecting primary pose data; extracting feature information of the collected primary pose data; detecting one or more representative pose data based on the extracted feature information; and collecting secondary pose data based on location information of the detected representative pose data can be executed on a computer.
본 발명의 실시 예들에 따른 지도 작성 방법 및 그 장치의 효과에 대해 설명하면 다음과 같다.The effects of a map creation method and its device according to embodiments of the present invention are described as follows.
본 발명의 실시 예들 중 적어도 하나에 의하면, 대상 공간의 라이다 데이터를 이용하여 해당 공간의 특징 정보를 추출하고, 상기 추출된 특징 정보를 기반으로 지도 작성에 필요한 포즈 데이터의 최적 수집 위치를 탐지할 수 있다는 장점이 있다. According to at least one of the embodiments of the present invention, there is an advantage in that feature information of a target space can be extracted using lidar data of the target space, and an optimal collection location of pose data required for map creation can be detected based on the extracted feature information.
또한, 본 발명의 실시 예들 중 적어도 하나에 의하면, 대상 공간의 라이다 데이터 및 촬상 데이터를 이용하여 해당 공간의 특징 정보를 추출하고, 상기 추출된 특징 정보를 기반으로 지도 작성에 필요한 포즈 데이터의 최적 수집 위치를 탐지할 수 있다는 장점이 있다.In addition, according to at least one of the embodiments of the present invention, there is an advantage in that feature information of a target space can be extracted using lidar data and imaging data of the target space, and an optimal collection location of pose data required for map creation can be detected based on the extracted feature information.
또한, 본 발명의 실시 예들 중 적어도 하나에 의하면, 대상 공간의 특징 정보가 많이 존재하는 지점들을 기준으로 포즈 데이터를 수집함으로써, 종래 기술에 비해 지도 작성의 정확도를 향상시킬 수 있다는 장점이 있다.In addition, according to at least one of the embodiments of the present invention, there is an advantage in that the accuracy of map creation can be improved compared to the prior art by collecting pose data based on points where a lot of feature information of the target space exists.
다만, 본 발명의 실시 예들에 따른 지도 작성 방법 및 그 장치가 달성할 수 있는 효과는 이상에서 언급한 것들로 제한되지 않으며, 언급하지 않은 또 다른 효과들은 아래의 기재로부터 본 발명이 속하는 기술분야에서 통상의 지식을 가진 자에게 명확하게 이해될 수 있을 것이다.However, the effects that can be achieved by the map-making method and the device according to the embodiments of the present invention are not limited to those mentioned above, and other effects that are not mentioned will be clearly understood by those skilled in the art to which the present invention belongs from the description below.
도 1은 포즈 데이터의 수집 간격에 따른 영향을 설명하기 위해 참조되는 도면;
도 2는 본 발명의 일 실시 예에 따른 지도 작성 방법을 설명하는 순서도;
도 3은 도 2의 지도 작성 방법을 설명하기 위해 참조되는 도면;
도 4는 본 발명의 일 실시 예에 따른 포즈 데이터 수집위치 탐색장치의 구성 블록도;
도 5 및 도 6은 라이다 데이터의 특징 정보를 추출하는 방법을 설명하기 위해 참조되는 도면;
도 7은 특징 정보의 확률밀도를 추정하는 방법을 설명하기 위해 참조되는 도면;
도 8은 특징 정보의 확률밀도를 기반으로 포즈 데이터의 수집 위치를 검출하는 방법을 설명하기 위해 참조되는 도면
도 9는 본 발명의 일 실시 예에 따라 포즈 데이터 수집위치 탐색방법을 설명하는 순서도;
도 10은 본 발명의 다른 실시 예에 따른 포즈 데이터 수집위치 탐색장치의 구성 블록도;
도 11은 라이다 및 촬상 데이터의 특징 정보를 추출하는 방법을 설명하기 위해 참조되는 도면;
도 12는 특징 정보의 확률밀도를 추정하는 방법을 설명하기 위해 참조되는 도면;
도 13은 특징 정보의 확률밀도를 기반으로 포즈 데이터의 수집 위치를 검출하는 방법을 설명하기 위해 참조되는 도면;
도 14는 본 발명의 다른 실시 예에 따라 포즈 데이터 수집위치 탐색방법을 설명하는 순서도;
도 15는 본 발명의 일 실시 예에 따른 컴퓨팅 장치의 구성 블록도.Figure 1 is a drawing referenced to explain the influence according to the collection interval of pose data;
FIG. 2 is a flowchart illustrating a map creation method according to one embodiment of the present invention;
Figure 3 is a drawing referenced to explain the map creation method of Figure 2;
FIG. 4 is a block diagram of a pose data collection position search device according to an embodiment of the present invention;
FIGS. 5 and 6 are drawings referenced to explain a method for extracting feature information of lidar data;
Figure 7 is a drawing referenced to explain a method for estimating the probability density of feature information;
Figure 8 is a drawing referenced to explain a method for detecting a collection location of pose data based on the probability density of feature information.
FIG. 9 is a flowchart explaining a method for searching a pose data collection location according to one embodiment of the present invention;
FIG. 10 is a block diagram of a pose data collection position search device according to another embodiment of the present invention;
FIG. 11 is a drawing referenced to explain a method for extracting feature information of lidar and imaging data;
Figure 12 is a drawing referenced to explain a method for estimating the probability density of feature information;
FIG. 13 is a drawing referenced to explain a method for detecting a collection location of pose data based on the probability density of feature information;
FIG. 14 is a flowchart explaining a method for searching a pose data collection location according to another embodiment of the present invention;
Figure 15 is a block diagram of a computing device according to an embodiment of the present invention.
이하, 첨부된 도면을 참조하여 본 명세서에 개시된 실시 예를 상세히 설명하되, 도면 부호에 관계없이 동일하거나 유사한 구성요소는 동일한 참조 번호를 부여하고 이에 대한 중복되는 설명은 생략하기로 한다. 이하의 설명에서 사용되는 구성요소에 대한 접미사 "모듈" 및 "부"는 명세서 작성의 용이함만이 고려되어 부여되거나 혼용되는 것으로서, 그 자체로 서로 구별되는 의미 또는 역할을 갖는 것은 아니다. 즉, 본 발명에서 사용되는 '부'라는 용어는 소프트웨어, FPGA 또는 ASIC과 같은 하드웨어 구성요소를 의미하며, '부'는 어떤 역할들을 수행한다. 그렇지만 '부'는 소프트웨어 또는 하드웨어에 한정되는 의미는 아니다. '부'는 어드레싱할 수 있는 저장 매체에 있도록 구성될 수도 있고 하나 또는 그 이상의 프로세서들을 재생시키도록 구성될 수도 있다. 따라서, 일 예로서 '부'는 소프트웨어 구성요소들, 객체지향 소프트웨어 구성요소들, 클래스 구성요소들 및 태스크 구성요소들과 같은 구성요소들과, 프로세스들, 함수들, 속성들, 프로시저들, 서브루틴들, 프로그램 코드의 세그먼트들, 드라이버들, 펌웨어, 마이크로 코드, 회로, 데이터, 데이터베이스, 데이터 구조들, 테이블들, 어레이들 및 변수들을 포함한다. 구성요소들과 '부'들 안에서 제공되는 기능은 더 작은 수의 구성요소들 및 '부'들로 결합되거나 추가적인 구성요소들과 '부'들로 더 분리될 수 있다.Hereinafter, embodiments disclosed in the present specification will be described in detail with reference to the attached drawings. Regardless of the drawing symbols, identical or similar components will be given the same reference numerals and redundant descriptions thereof will be omitted. The suffixes "module" and "part" used for components in the following description are given or used interchangeably only for the convenience of writing the specification, and do not have distinct meanings or roles in themselves. That is, the term "part" used in the present invention means a hardware component such as software, FPGA, or ASIC, and the "part" performs certain roles. However, the "part" is not limited to software or hardware. The "part" may be configured to be in an addressable storage medium or may be configured to reproduce one or more processors. Thus, as an example, a 'part' may include components such as software components, object-oriented software components, class components and task components, processes, functions, attributes, procedures, subroutines, segments of program code, drivers, firmware, microcode, circuitry, data, databases, data structures, tables, arrays and variables. The functionality provided within the components and 'parts' may be combined into a smaller number of components and 'parts' or further separated into additional components and 'parts'.
또한, 본 명세서에 개시된 실시 예를 설명함에 있어서 관련된 공지 기술에 대한 구체적인 설명이 본 명세서에 개시된 실시 예의 요지를 흐릴 수 있다고 판단되는 경우 그 상세한 설명을 생략한다. 또한, 첨부된 도면은 본 명세서에 개시된 실시 예를 쉽게 이해할 수 있도록 하기 위한 것일 뿐, 첨부된 도면에 의해 본 명세서에 개시된 기술적 사상이 제한되지 않으며, 본 발명의 사상 및 기술 범위에 포함되는 모든 변경, 균등물 내지 대체물을 포함하는 것으로 이해되어야 한다.In addition, when describing the embodiments disclosed in this specification, if it is determined that a detailed description of a related known technology may obscure the gist of the embodiments disclosed in this specification, the detailed description thereof will be omitted. In addition, the attached drawings are only intended to facilitate easy understanding of the embodiments disclosed in this specification, and the technical ideas disclosed in this specification are not limited by the attached drawings, and should be understood to include all modifications, equivalents, and substitutes included in the spirit and technical scope of the present invention.
본 발명은 로봇의 지도 작성에 필요한 포즈 데이터의 최적 수집 위치를 탐색하는 방법 및 그 장치를 제안한다. 또한, 본 발명은 대상 공간의 특징 정보를 추출하고, 상기 추출된 특징 정보를 기반으로 포즈 데이터의 최적 수집 위치를 탐색하는 방법 및 그 장치를 제안한다. The present invention proposes a method and a device for searching for an optimal collection location of pose data required for creating a map of a robot. In addition, the present invention proposes a method and a device for extracting feature information of a target space and searching for an optimal collection location of pose data based on the extracted feature information.
이하에서는, 본 발명의 다양한 실시 예들에 대하여, 도면을 참조하여 상세히 설명한다.Hereinafter, various embodiments of the present invention will be described in detail with reference to the drawings.
도 2는 본 발명의 일 실시 예에 따른 지도 작성 방법을 설명하는 순서도이고, 도 3은 도 2의 지도 작성 방법을 설명하기 위해 참조되는 도면이다. 본 실시 예에 따른 지도 작성 방법은 지도 작성 장치(미도시)에 의해 수행될 수 있다. 지도 작성 장치는 로봇 내에 설치되거나 혹은 외부 서버에 설치될 수 있다. 도시된 순서도에서는 지도 작성 방법을 복수 개의 단계로 나누어 기재하였으나, 적어도 일부의 단계들은 순서를 바꾸어 수행되거나, 다른 단계와 결합되어 함께 수행되거나, 생략되거나, 세부 단계들로 나뉘어 수행되거나, 또는 도시되지 않은 하나 이상의 단계가 부가되어 수행될 수 있다.FIG. 2 is a flowchart explaining a map creation method according to an embodiment of the present invention, and FIG. 3 is a drawing referred to for explaining the map creation method of FIG. 2. The map creation method according to the present embodiment can be performed by a map creation device (not shown). The map creation device can be installed in a robot or installed in an external server. In the illustrated flowchart, the map creation method is described by dividing it into a plurality of steps, but at least some of the steps may be performed in a changed order, combined with other steps and performed together, omitted, divided into detailed steps and performed, or one or more steps not shown may be added and performed.
도 2를 참조하면, 본 발명의 일 실시 예에 따른 지도 작성 장치는 지도 작성에 필요한 포즈 데이터(pose data)의 수집 간격을 설정할 수 있다(S210). 상기 포즈 데이터의 수집 간격은 일정 시간 주기로 설정되거나 혹은 일정 거리 단위로 설정될 수 있다. Referring to FIG. 2, a map creation device according to an embodiment of the present invention can set a collection interval of pose data required for map creation (S210). The collection interval of the pose data can be set to a certain time cycle or a certain distance unit.
지도 작성 장치는 대상 공간(10)을 이동하면서 미리 설정된 수집 간격에 따라 포즈 데이터를 일차적으로 수집할 수 있다(S220). 수집 대상 포즈 데이터는 대상 공간의 특정 지점에서 측정한 라이다 데이터, 촬상 데이터 및 IMU(Inertial Measurement Unit) 데이터 등을 포함할 수 있다.The map-making device can primarily collect pose data according to a preset collection interval while moving through the target space (10) (S220). The pose data to be collected may include lidar data, imaging data, and IMU (Inertial Measurement Unit) data measured at a specific point in the target space.
로봇이 대상 공간(10)의 전체를 이동 완료한 경우, 지도 작성 장치는 일차적으로 수집된 포즈 데이터를 기반으로 포즈 데이터의 최적 수집 위치를 탐지할 수 있다(S230). 상기 포즈 데이터의 최적 수집 위치를 탐색하는 방법에 대한 자세한 설명은 후술하도록 한다.When the robot has completed moving the entire target space (10), the map creation device can detect the optimal collection location of pose data based on the primarily collected pose data (S230). A detailed description of the method for searching the optimal collection location of the pose data will be described later.
이후, 지도 작성 장치는 대상 공간(10)을 다시 이동하면서 상기 탐지된 최적 수집 위치에서 포즈 데이터를 이차적으로 수집할 수 있다(S240).Thereafter, the map creation device can secondarily collect pose data at the detected optimal collection location while moving again through the target space (10) (S240).
지도 작성 장치는 이차적으로 수집된 포즈 데이터를 기반으로 지도를 작성할 수 있다(S250).The map creation device can create a map based on secondarily collected pose data (S250).
본 발명은 대상 공간에 대한 포즈 데이터를 일정 시간 주기 또는 일정 거리 단위로 수집하는 것이 아니라 대상 공간의 특징 정보(또는 특징 데이터)가 많이 존재하는 지점들을 기준으로 수집함으로써, 종래에 비해 지도 작성 및 정합(LoopClosure)의 정확도를 향상시킬 수 있다.The present invention collects pose data for a target space not at a set time interval or a set distance unit, but based on points where there is a lot of feature information (or feature data) of the target space, thereby improving the accuracy of map creation and alignment (LoopClosure) compared to the prior art.
도 4는 본 발명의 일 실시 예에 따른 포즈 데이터 수집위치 탐색장치의 구성 블록도이다. 상기 포즈 데이터 수집위치 탐색장치는 지도 작성 장치 내에 구현될 수 있다.Figure 4 is a block diagram of a pose data collection location search device according to an embodiment of the present invention. The pose data collection location search device can be implemented within a map creation device.
도 4를 참조하면, 본 발명의 일 실시 예에 따른 포즈 데이터 수집위치 탐색장치(100)는 데이터 수집부(110), 특징정보 추출부(120), 밀도 추정부(130) 및 데이터수집위치 검출부(140)를 포함할 수 있다. 도 4에 도시된 구성요소들은 포즈 데이터 수집위치 탐색장치를 구현하는데 있어서 필수적인 것은 아니어서, 본 명세서 상에서 설명되는 포즈 데이터 수집위치 탐색장치는 위에서 열거된 구성요소들 보다 많거나 또는 적은 구성요소들을 가질 수 있다.Referring to FIG. 4, a pose data collection location search device (100) according to an embodiment of the present invention may include a data collection unit (110), a feature information extraction unit (120), a density estimation unit (130), and a data collection location detection unit (140). The components illustrated in FIG. 4 are not essential for implementing the pose data collection location search device, and thus, the pose data collection location search device described in this specification may have more or fewer components than the components listed above.
데이터 수집부(110)는 로봇에 장착된 라이다(LiDAR) 센서를 통해 대상 공간에 대한 라이다 데이터를 수집할 수 있다. 상기 라이다 데이터는 일정 시간 주기 또는 일정 거리 간격으로 수집될 수 있다.The data collection unit (110) can collect LiDAR data for the target space through a LiDAR sensor mounted on the robot. The LiDAR data can be collected at a certain time period or at a certain distance interval.
특징정보 추출부(120)는 라이다 데이터를 이차원의 이미지 데이터로 변환하고, 상기 변환된 이미지 데이터의 특징 정보를 추출할 수 있다. 이때, 특징정보 추출부(120)는 미리 학습된 특징추론모델(또는 차원축소모델)을 이용하여 상기 변환된 이미지 데이터의 특징 정보를 추출할 수 있다. 상기 특징추론모델로는 PCA(principal component analysis) 모델, 오토인코더(Autoencoder) 모델, GAN(Generative Adversarial Network) 모델 등이 사용될 수 있으며, 좀 더 바람직하게는 오토인코더 모델이 사용될 수 있다.The feature information extraction unit (120) can convert the lidar data into two-dimensional image data and extract feature information of the converted image data. At this time, the feature information extraction unit (120) can extract feature information of the converted image data using a pre-learned feature inference model (or dimension reduction model). As the feature inference model, a PCA (principal component analysis) model, an autoencoder model, a GAN (Generative Adversarial Network) model, etc. can be used, and more preferably, an autoencoder model can be used.
일 예로, 도 5에 도시된 바와 같이, 특징정보 추출부(120)는 라이다 데이터(510)를 격자형 이미지 데이터(520)로 변환할 수 있다. 특징정보 추출부(120)는 격자형 이미지 데이터(520)를 4개의 이미지 영역(531~534)으로 분할할 수 있다. For example, as illustrated in FIG. 5, the feature information extraction unit (120) can convert the lidar data (510) into grid-shaped image data (520). The feature information extraction unit (120) can divide the grid-shaped image data (520) into four image areas (531 to 534).
특징정보 추출부(120)는 제1 내지 제4 분할 이미지 영역(531~534)을 제1 내지 제4 특징추론모델(541~544)에 각각 입력하여 제1 내지 제4 분할 특징 정보(551~554)를 추출할 수 있다. 특징정보 추출부(120)는 추출된 제1 내지 제4 분할 특징 정보(551~554)를 연결(연접)하여 하나의 특징 정보(560), 즉 라이다 데이터의 특징 정보를 생성할 수 있다.The feature information extraction unit (120) can input the first to fourth segmented image areas (531 to 534) into the first to fourth feature inference models (541 to 544), respectively, to extract the first to fourth segmented feature information (551 to 554). The feature information extraction unit (120) can connect (concatenate) the extracted first to fourth segmented feature information (551 to 554) to generate one feature information (560), i.e., feature information of lidar data.
제1 내지 제4 특징추론모델(541~544)은 오토인코더 알고리즘을 통해 구현될 수 있다. 오토인코더 알고리즘은 인코더(encoder)를 통해 입력을 신호로 변환한 다음 다시 디코더(decoder)를 통해 레이블 따위를 만들어내는 비지도 학습 기법이다. 가령, 도 6의 (a)에 도시된 바와 같이, 라이다 데이터를 이차원 이미지로 변환한 라이다 이미지 데이터(610)와 복원 이미지 데이터(620)를 수집하고, 상기 수집된 데이터를 학습하여 오토인코더 모델(630)을 생성할 수 있다. The first to fourth feature inference models (541 to 544) can be implemented through an autoencoder algorithm. The autoencoder algorithm is an unsupervised learning technique that converts inputs into signals through an encoder and then creates labels and the like through a decoder. For example, as shown in (a) of Fig. 6, lidar image data (610) converted from lidar data into two-dimensional images and restored image data (620) can be collected, and the collected data can be learned to generate an autoencoder model (630).
본 발명에서는 오토인코더 모델(630)의 인코더 부분(635)을 특징추론모델로 사용할 수 있다. 즉, 도 6의 (b)에 도시된 바와 같이, 라이다 이미지 데이터(640)를 미리 학습된 특징추론모델(635)에 입력하여 해당 이미지 데이터의 특징 정보(650)를 추출할 수 있다.In the present invention, the encoder part (635) of the autoencoder model (630) can be used as a feature inference model. That is, as shown in (b) of Fig. 6, the lidar image data (640) can be input into the pre-learned feature inference model (635) to extract feature information (650) of the corresponding image data.
밀도 추정부(130)는 미리 결정된 밀도 추정 알고리즘을 이용하여 라이다 데이터들에 대응하는 특징 정보들의 확률밀도를 추정하고, 상기 추정된 확률밀도 정보를 기반으로 라이다 데이터의 특징 정보들을 서로 비교할 수 있다. 여기서, 상기 밀도 추정 알고리즘으로는 가우시안 커널 밀도 추정 알고리즘(Gaussian Kennel Density Estimation Algorism)이 사용될 수 있으며 반드시 이에 제한되지는 않는다. The density estimation unit (130) estimates the probability density of feature information corresponding to the lidar data using a predetermined density estimation algorithm, and can compare the feature information of the lidar data with each other based on the estimated probability density information. Here, a Gaussian kernel density estimation algorithm can be used as the density estimation algorithm, but is not necessarily limited thereto.
일 예로, 도 7에 도시된 바와 같이, 밀도 추정부(130)는 가우시안 커널 밀도 추정 알고리즘을 이용하여 라이다 데이터에 대한 특징 정보들(711~715)의 확률밀도를 산출할 수 있다. 상기 산출된 확률밀도는 소정의 그래프 형태로 표시될 수 있다. 즉, 제1 내지 제5 특징 정보(711~715)의 확률밀도는 제1 내지 제5 그래프(721~725)로 표시될 수 있다.For example, as illustrated in FIG. 7, the density estimation unit (130) can calculate the probability density of feature information (711 to 715) for the lidar data using a Gaussian kernel density estimation algorithm. The calculated probability density can be displayed in a predetermined graph form. That is, the probability density of the first to fifth feature information (711 to 715) can be displayed as the first to fifth graphs (721 to 725).
밀도 추정부(130)는 확률밀도 정보를 기반으로 복수의 특징 정보들 중에서 하나 이상의 기준 특징 정보를 설정할 수 있다. 가령, 가장 먼저 입력된 특징 정보(711)를 기준 특징 정보로 설정하고, 그 이후부터는 앞선 기준 특징 정보에 비해 임계치 이상의 확률밀도 차이가 발생하는 특징 정보가 존재하는 경우, 해당 특징 정보(713)를 새로운 기준 특징 정보로 설정할 수 있다.The density estimation unit (130) can set one or more reference feature information from among multiple feature information based on probability density information. For example, the feature information (711) input first is set as the reference feature information, and if there is feature information that has a difference in probability density greater than a threshold value compared to the previous reference feature information, the corresponding feature information (713) can be set as new reference feature information.
밀도 추정부(130)는 확률밀도 정보를 기반으로 각각의 기준 특징 정보와 그 인접 특징 정보들을 서로 비교할 수 있다. 이때, 밀도 추정부(130)는 기준 특징 정보의 확률밀도와 그 인접 특징 정보들의 확률밀도 간의 유사도를 측정하고, 상기 측정된 유사도를 기반으로 기준 특징 정보와 그 인접 특징 정보들을 서로 비교할 수 있다.The density estimation unit (130) can compare each reference feature information with its adjacent feature information based on the probability density information. At this time, the density estimation unit (130) can measure the similarity between the probability density of the reference feature information and the probability density of its adjacent feature information, and compare the reference feature information with its adjacent feature information based on the measured similarity.
밀도 추정부(130)는 확률밀도 정보를 기반으로 라이다 데이터들에 대응하는 특징 정보들을 서로 비교하여 해당 특징 정보들을 다수의 그룹(group)으로 분류할 수 있다. 이때, 밀도 추정부(130)는 특징 정보들 간의 유사도 정보를 기반으로 특징 정보들을 분류할 수 있다. 이에 따라, 서로 동일 또는 유사한 확률밀도 패턴을 갖는 특징 정보들끼리 그룹핑할 수 있다.The density estimation unit (130) can compare feature information corresponding to lidar data based on probability density information and classify the feature information into multiple groups. At this time, the density estimation unit (130) can classify the feature information based on similarity information between the feature information. Accordingly, feature information having the same or similar probability density pattern can be grouped together.
각각의 그룹은 기준 특징 정보와, 상기 기준 특징 정보와 동일 또는 유사한 인접 특징 정보들을 포함할 수 있다. 그룹의 개수는 기준 특징 정보의 개수에 대응하고, 지도의 복잡도를 대표하게 된다. Each group may include reference feature information and adjacent feature information that is identical or similar to the reference feature information. The number of groups corresponds to the number of reference feature information and represents the complexity of the map.
가령, 도 7에 도시된 바와 같이, 밀도 추정부(130)는 제1 기준 특징 정보(711)의 확률밀도(721)와 그 인접 특징 정보들의 확률밀도를 비교하여 제1 그룹(731)을 생성할 수 있다. 또한, 밀도 추정부(130)는 제2 기준 특징 정보(713)의 확률밀도(723)와 그 인접 특징 정보들의 확률밀도를 비교하여 제2 그룹(732)을 생성할 수 있다. For example, as illustrated in FIG. 7, the density estimation unit (130) can generate a first group (731) by comparing the probability density (721) of the first reference feature information (711) with the probability densities of its adjacent feature information. In addition, the density estimation unit (130) can generate a second group (732) by comparing the probability density (723) of the second reference feature information (713) with the probability densities of its adjacent feature information.
데이터수집위치 검출부(140)는 복수의 그룹 정보를 기반으로 대표 라이다 데이터(즉, 대표 포즈 데이터)를 검출할 수 있다. 이때, 데이터수집위치 검출부(140)는, 그룹 별로, 대표 포즈 데이터를 검출할 수 있다.The data collection location detection unit (140) can detect representative lidar data (i.e., representative pose data) based on multiple group information. At this time, the data collection location detection unit (140) can detect representative pose data for each group.
가령, 도 8에 도시된 바와 같이, 데이터수집위치 검출부(140)는 각 그룹(731, 732)의 대표 특징 정보를 검출하고, 상기 검출된 대표 특징 정보에 대응하는 대표 포즈 데이터(741, 742)를 검출할 수 있다.For example, as illustrated in FIG. 8, the data collection location detection unit (140) can detect representative feature information of each group (731, 732) and detect representative pose data (741, 742) corresponding to the detected representative feature information.
데이터수집위치 검출부(140)는 대표 포즈 데이터가 수집된 위치 정보를 검출할 수 있다. 마찬가지로, 데이터수집위치 검출부(140)는, 그룹 별로, 대표 포즈 데이터의 위치 정보를 검출할 수 있다.The data collection location detection unit (140) can detect location information where representative pose data is collected. Similarly, the data collection location detection unit (140) can detect location information of representative pose data for each group.
이상 상술한 바와 같이, 본 발명의 일 실시 예에 따른 포즈 데이터 수집위치 탐색장치는 대상 공간의 라이다 데이터를 이용하여 해당 공간의 특징 정보를 추출하고, 상기 추출된 특징 정보를 기반으로 지도 작성에 필요한 포즈 데이터의 최적 수집 위치를 탐지할 수 있다.As described above, the pose data collection location search device according to one embodiment of the present invention can extract feature information of a target space using lidar data of the target space, and detect an optimal collection location of pose data required for map creation based on the extracted feature information.
도 9는 본 발명의 일 실시 예에 따라 포즈 데이터 수집위치 탐색방법을 설명하는 순서도이다. 본 실시 예에 따른 포즈 데이터 수집위치 탐색방법은 포즈 데이터 수집위치 탐색장치(100)에 의해 수행될 수 있다. 도시된 순서도에서는 포즈 데이터 수집위치 탐색방법을 복수 개의 단계로 나누어 기재하였으나, 적어도 일부의 단계들은 순서를 바꾸어 수행되거나, 다른 단계와 결합되어 함께 수행되거나, 생략되거나, 세부 단계들로 나뉘어 수행되거나, 또는 도시되지 않은 하나 이상의 단계가 부가되어 수행될 수 있다.FIG. 9 is a flowchart explaining a pose data collection location search method according to an embodiment of the present invention. The pose data collection location search method according to the present embodiment can be performed by a pose data collection location search device (100). In the illustrated flowchart, the pose data collection location search method is described by dividing it into a plurality of steps, but at least some of the steps may be performed in a changed order, combined with other steps and performed together, omitted, divided into detailed steps and performed, or one or more steps not illustrated may be added and performed.
도 9를 참조하면, 본 발명의 일 실시 예에 따른 포즈 데이터 수집위치 탐색장치(100)는 로봇에 장착된 라이다(LiDAR) 센서를 통해 대상 공간에 대한 라이다 데이터를 수집할 수 있다(S910), 상기 라이다 데이터는 일정 시간 주기 또는 일정 거리 간격으로 수집될 수 있다.Referring to FIG. 9, a pose data collection location search device (100) according to an embodiment of the present invention can collect LiDAR data for a target space through a LiDAR sensor mounted on a robot (S910). The LiDAR data can be collected at a certain time cycle or a certain distance interval.
포즈 데이터 수집위치 탐색장치(100)는 라이다 데이터를 이차원의 이미지 데이터로 변환할 수 있다(S920). 일 예로, 포즈 데이터 수집위치 탐색장치(100)는 라이다 데이터를 격자형 이미지 데이터로 변환할 수 있다.The pose data collection position search device (100) can convert the lidar data into two-dimensional image data (S920). For example, the pose data collection position search device (100) can convert the lidar data into grid-shaped image data.
포즈 데이터 수집위치 탐색장치(100)는 미리 학습된 특징추론모델을 이용하여 상기 변환된 이미지 데이터의 특징 정보를 추출할 수 있다(S930). 상기 특징추론모델로는 PCA 모델, 오토인코더 모델, GAN 모델 등이 사용될 수 있으며, 좀 더 바람직하게는 오토인코더 모델이 사용될 수 있다.The pose data collection location search device (100) can extract feature information of the converted image data using a pre-learned feature inference model (S930). The feature inference model may include a PCA model, an autoencoder model, a GAN model, etc., and more preferably, an autoencoder model may be used.
포즈 데이터 수집위치 탐색장치(100)는 미리 결정된 밀도 추정 알고리즘을 이용하여 라이다 데이터들에 대응하는 특징 정보들의 확률밀도를 산출할 수 있다(S940). 상기 밀도 추정 알고리즘으로는 가우시안 커널 밀도 추정 알고리즘이 사용될 수 있으며 반드시 이에 제한되지는 않는다.The pose data collection location search device (100) can calculate the probability density of feature information corresponding to lidar data using a predetermined density estimation algorithm (S940). A Gaussian kernel density estimation algorithm can be used as the density estimation algorithm, but is not necessarily limited thereto.
포즈 데이터 수집위치 탐색장치(100)는 확률밀도 정보를 기반으로 라이다 데이터들에 대응하는 특징 정보들을 서로 비교하여 해당 특징 정보들을 다수의 그룹으로 분류할 수 있다(S950). 이때, 포즈 데이터 수집위치 탐색장치(100)는 확률밀도 정보를 기반으로 각각의 기준 특징 정보와 그 인접 특징 정보들을 서로 비교할 수 있다. The pose data collection location search device (100) can compare feature information corresponding to lidar data with each other based on probability density information and classify the feature information into multiple groups (S950). At this time, the pose data collection location search device (100) can compare each reference feature information with its adjacent feature information based on probability density information.
포즈 데이터 수집위치 탐색장치(100)는 복수의 그룹 정보를 기반으로 대표 라이다 데이터(즉, 대표 포즈 데이터)를 검출할 수 있다(S960). 이때, 포즈 데이터 수집위치 탐색장치(100)는, 그룹 별로, 대표 포즈 데이터를 검출할 수 있다. The pose data collection location search device (100) can detect representative lidar data (i.e., representative pose data) based on multiple group information (S960). At this time, the pose data collection location search device (100) can detect representative pose data for each group.
포즈 데이터 수집위치 탐색장치(100)는 대표 포즈 데이터가 수집된 위치 정보를 검출할 수 있다(S970). 마찬가지로, 포즈 데이터 수집위치 탐색장치(100)는, 그룹 별로, 대표 포즈 데이터의 위치 정보를 검출할 수 있다.The pose data collection location search device (100) can detect location information where representative pose data is collected (S970). Similarly, the pose data collection location search device (100) can detect location information of representative pose data for each group.
이상 상술한 바와 같이, 본 발명의 일 실시 예에 따른 포즈 데이터 수집위치 탐색방법은 대상 공간의 라이다 데이터를 이용하여 해당 공간의 특징 정보를 추출하고, 상기 추출된 특징 정보를 기반으로 지도 작성에 필요한 포즈 데이터의 최적 수집 위치를 탐지할 수 있다.As described above, the pose data collection location search method according to one embodiment of the present invention can extract feature information of a target space using lidar data of the target space, and detect the optimal collection location of pose data required for map creation based on the extracted feature information.
도 10은 본 발명의 다른 실시 예에 따른 포즈 데이터 수집위치 탐색장치의 구성 블록도이다. 상기 포즈 데이터 수집위치 탐색장치는 지도 작성 장치 내에 구현될 수 있다.Fig. 10 is a block diagram of a pose data collection location search device according to another embodiment of the present invention. The pose data collection location search device can be implemented within a map creation device.
도 10을 참조하면, 본 발명의 다른 실시 예에 따른 포즈 데이터 수집위치 탐색장치(200)는 데이터 수집부(210), 특징정보 추출부(220), 밀도 추정부(230) 및 데이터수집위치 검출부(240)를 포함할 수 있다. 도 10에 도시된 구성요소들은 포즈 데이터 수집위치 탐색장치를 구현하는데 있어서 필수적인 것은 아니어서, 본 명세서 상에서 설명되는 포즈 데이터 수집위치 탐색장치는 위에서 열거된 구성요소들 보다 많거나 또는 적은 구성요소들을 가질 수 있다.Referring to FIG. 10, a pose data collection location search device (200) according to another embodiment of the present invention may include a data collection unit (210), a feature information extraction unit (220), a density estimation unit (230), and a data collection location detection unit (240). The components illustrated in FIG. 10 are not essential for implementing the pose data collection location search device, and thus, the pose data collection location search device described in this specification may have more or fewer components than the components listed above.
데이터 수집부(210), 특징정보 추출부(220), 밀도 추정부(230) 및 데이터수집위치 검출부(240)는 상술한 도 4의 데이터 수집부(110), 특징정보 추출부(120), 밀도 추정부(130) 및 데이터수집위치 검출부(140)와 유사하므로, 상기 데이터 수집부(210), 특징정보 추출부(220), 밀도 추정부(230) 및 데이터수집위치 검출부(240)에 대한 자세한 설명은 생략하고 그 차이점을 중심으로 설명하도록 한다.The data collection unit (210), feature information extraction unit (220), density estimation unit (230), and data collection location detection unit (240) are similar to the data collection unit (110), feature information extraction unit (120), density estimation unit (130), and data collection location detection unit (140) of FIG. 4 described above, so detailed descriptions of the data collection unit (210), feature information extraction unit (220), density estimation unit (230), and data collection location detection unit (240) will be omitted and explanations will be focused on the differences between them.
데이터 수집부(210)는 라이다 데이터를 수집하는 라이다 데이터 수집부(211)와, 촬상 데이터를 수집하는 촬상 데이터 수집부(212)를 포함할 수 있다. The data collection unit (210) may include a lidar data collection unit (211) that collects lidar data and an imaging data collection unit (212) that collects imaging data.
라이다 데이터 수집부(211)는 로봇에 장착된 하나 이상의 라이다(LiDAR) 센서를 통해 대상 공간에 대한 라이다 데이터를 수집할 수 있다. 상기 라이다 데이터는 일정 시간 주기 또는 일정 거리 간격으로 수집될 수 있다.The LiDAR data collection unit (211) can collect LiDAR data for a target space through one or more LiDAR sensors mounted on the robot. The LiDAR data can be collected at a certain time period or a certain distance interval.
촬상 데이터 수집부(212)는 로봇에 장착된 하나 이상의 카메라를 통해 대상 공간에 대한 촬상 데이터를 수집할 수 있다. 상기 촬상 데이터 역시 일정 시간 주기 또는 일정 거리 간격으로 수집될 수 있다.The imaging data collection unit (212) can collect imaging data for a target space through one or more cameras mounted on the robot. The imaging data can also be collected at a certain time period or at a certain distance interval.
특징정보 추출부(220)는 라이다 데이터의 특징 정보를 추출하는 라이다 데이터 특징 추출부(221)와, 촬상 데이터의 특징 정보를 추출하는 촬상 데이터 특징 추출부(222)를 포함할 수 있다.The feature information extraction unit (220) may include a lidar data feature extraction unit (221) that extracts feature information of lidar data, and an imaging data feature extraction unit (222) that extracts feature information of imaging data.
라이다 데이터 특징 추출부(221)는 라이다 데이터를 이차원의 이미지 데이터로 변환하고, 상기 변환된 이미지 데이터의 특징 정보를 추출할 수 있다. 이때, 라이다 데이터 특징 추출부(221)는 미리 학습된 특징추론모델을 이용하여 상기 변환된 이미지 데이터의 특징 정보를 추출할 수 있다. 상기 특징추론모델로는 PCA 모델, 오토인코더 모델, GAN 모델 등이 사용될 수 있으며, 좀 더 바람직하게는 오토인코더 모델이 사용될 수 있다.The lidar data feature extraction unit (221) can convert lidar data into two-dimensional image data and extract feature information of the converted image data. At this time, the lidar data feature extraction unit (221) can extract feature information of the converted image data using a pre-learned feature inference model. As the feature inference model, a PCA model, an autoencoder model, a GAN model, etc. can be used, and more preferably, an autoencoder model can be used.
일 예로, 도 11에 도시된 바와 같이, 라이다 데이터 특징 추출부(221)는 라이다 데이터(1111, 1112)들을 격자형 이미지 데이터들(1121, 1122)로 변환할 수 있다. 라이다 데이터 특징 추출부(221)는 미리 학습된 오토인코더 모델을 이용하여 격자형 이미지 데이터들(1121, 1122)의 특징 정보(1131, 1132)를 추출할 수 있다. 여기서, 상기 특징 정보는 25차원의 특징 벡터일 수 있으며 반드시 이에 제한되지는 않는다. 즉, 통상의 오토인코더 모델은 입력된 격자형 이미지 데이터(1121, 1122)의 특징을 추출하여 25차원의 특징 벡터를 출력할 수 있다. For example, as illustrated in FIG. 11, the lidar data feature extraction unit (221) can convert the lidar data (1111, 1112) into grid-shaped image data (1121, 1122). The lidar data feature extraction unit (221) can extract feature information (1131, 1132) of the grid-shaped image data (1121, 1122) using a pre-learned autoencoder model. Here, the feature information can be a 25-dimensional feature vector, but is not necessarily limited thereto. That is, a typical autoencoder model can extract features of the input grid-shaped image data (1121, 1122) and output a 25-dimensional feature vector.
한편, 도면에 도시되고 있지 않지만, 라이다 데이터 특징 추출부(221)는 각각의 격자형 이미지 데이터(1121, 1122)를 복수의 이미지 영역으로 분할하고, 상기 분할된 이미지 영역의 특징 정보들을 추출한 후 해당 특징 정보들을 결합할 수 있다. Meanwhile, although not shown in the drawing, the lidar data feature extraction unit (221) can divide each grid-shaped image data (1121, 1122) into multiple image areas, extract feature information of the divided image areas, and then combine the feature information.
촬상 데이터 특징 추출부(222)는 미리 학습된 특징추론모델을 이용하여 촬상 데이터의 특징 정보를 추출할 수 있다. 상기 특징추론모델로는 SIFT(Scale-Invariant Feature Transform) 모델, SURF(Speeded Up Robust Features) 모델 등이 사용될 수 있으며, 좀 더 바람직하게는 SIFT 모델이 사용될 수 있다.The imaging data feature extraction unit (222) can extract feature information of imaging data using a pre-learned feature inference model. As the feature inference model, a SIFT (Scale-Invariant Feature Transform) model, a SURF (Speeded Up Robust Features) model, etc. can be used, and more preferably, a SIFT model can be used.
일 예로, 도 11에 도시된 바와 같이, 촬상 데이터 특징 추출부(222)는 미리 학습된 SIFT 모델을 이용하여 촬상 데이터들(1141, 1142)의 특징 정보(1151, 1152)를 추출할 수 있다. 여기서, 상기 특징 정보는 128차원의 특징 벡터일 수 있으며 반드시 이에 제한되지는 않는다. 즉, 통상의 SIFT 모델은 입력된 촬상 데이터(1141, 1142)의 특징을 추출하여 128차원의 특징 벡터를 출력할 수 있다.For example, as illustrated in FIG. 11, the imaging data feature extraction unit (222) can extract feature information (1151, 1152) of imaging data (1141, 1142) using a pre-learned SIFT model. Here, the feature information may be a 128-dimensional feature vector, but is not necessarily limited thereto. That is, a typical SIFT model can extract features of input imaging data (1141, 1142) and output a 128-dimensional feature vector.
밀도 추정부(230)는 라이다 데이터의 특징 정보와 촬상 데이터의 특징 정보를 결합하여 하나의 통합 특징 정보를 생성할 수 있다. 일 실시 예로, 밀도 추정부(230)는 25차원의 특징 벡터와 128차원의 특징 벡터를 연접하여 153차원의 통합 특징 벡터를 생성할 수 있다. 한편, 다른 실시 예로, 격자형 이미지 데이터를 4개의 영역으로 분할한 후 각각의 분할 영역에 대해 오토인코더 모델을 적용하는 경우, 밀도 추정부(230)는 100(25*4)차원의 특징 벡터와 128차원의 특징 벡터를 연접하여 228차원의 통합 특징 벡터를 생성할 수도 있다.The density estimation unit (230) can generate a single integrated feature information by combining the feature information of the lidar data and the feature information of the imaging data. In one embodiment, the density estimation unit (230) can generate a 153-dimensional integrated feature vector by concatenating a 25-dimensional feature vector and a 128-dimensional feature vector. Meanwhile, in another embodiment, when the grid-shaped image data is divided into four regions and an autoencoder model is applied to each divided region, the density estimation unit (230) can also generate a 228-dimensional integrated feature vector by concatenating a 100-dimensional (25*4)-dimensional feature vector and a 128-dimensional feature vector.
밀도 추정부(230)는 미리 결정된 밀도 추정 알고리즘을 이용하여 라이다 및 촬상 데이터들에 대응하는 통합 특징 정보들의 확률밀도를 산출하고, 상기 산출된 확률밀도 정보를 기반으로 라이다 및 촬상 데이터의 통합 특징 정보들을 서로 비교할 수 있다. 여기서, 상기 밀도 추정 알고리즘으로는 가우시안 커널 밀도 추정 알고리즘이 사용될 수 있으며 반드시 이에 제한되지는 않는다.The density estimation unit (230) calculates the probability density of integrated feature information corresponding to the lidar and imaging data using a predetermined density estimation algorithm, and compares the integrated feature information of the lidar and imaging data based on the calculated probability density information. Here, a Gaussian kernel density estimation algorithm may be used as the density estimation algorithm, but is not necessarily limited thereto.
일 예로, 도 12에 도시된 바와 같이, 밀도 추정부(230)는 가우시안 커널 밀도 추정 알고리즘을 이용하여 라이다 및 촬상 데이터에 대한 통합 특징 정보들(1211~1214)의 확률밀도를 산출할 수 있다. 상기 산출된 확률밀도는 소정의 그래프 형태로 표시될 수 있다. 즉, 제1 내지 제4 통합 특징 정보(1211~1214)의 확률밀도는 제1 내지 제4 그래프(1221~1224)로 표시될 수 있다.For example, as illustrated in FIG. 12, the density estimation unit (230) can calculate the probability density of the integrated feature information (1211 to 1214) for the lidar and imaging data using a Gaussian kernel density estimation algorithm. The calculated probability density can be displayed in a predetermined graph form. That is, the probability density of the first to fourth integrated feature information (1211 to 1214) can be displayed as the first to fourth graphs (1221 to 1224).
밀도 추정부(230)는 확률밀도 정보를 기반으로 복수의 통합 특징 정보들 중에서 하나 이상의 기준 통합 특징 정보를 설정할 수 있다. 가령, 가장 먼저 입력된 통합 특징 정보(1211)를 기준 특징 정보로 설정하고, 그 이후부터는 앞선 기준 통합 특징 정보에 비해 임계치 이상의 확률밀도 차이가 발생하는 통합 특징 정보가 존재하는 경우, 해당 통합 특징 정보(1213)를 새로운 기준 통합 특징 정보로 설정할 수 있다.The density estimation unit (230) can set one or more reference integrated feature information from among multiple pieces of integrated feature information based on probability density information. For example, the first input integrated feature information (1211) can be set as reference feature information, and if there is integrated feature information that has a probability density difference greater than a threshold value compared to the previous reference integrated feature information, the corresponding integrated feature information (1213) can be set as new reference integrated feature information.
밀도 추정부(230)는 확률밀도 정보를 기반으로 라이다 및 촬상 데이터들에 대응하는 통합 특징 정보들을 서로 비교하여 해당 통합 특징 정보들을 다수의 그룹으로 분류할 수 있다. 이때, 밀도 추정부(230)는 통합 특징 정보들 간의 유사도 정보를 기반으로 통합 특징 정보들을 다수의 그룹으로 분류할 수 있다. 이에 따라, 서로 동일 또는 유사한 확률밀도 패턴을 갖는 특징 정보들끼리 그룹핑할 수 있다.The density estimation unit (230) can compare the integrated feature information corresponding to the lidar and imaging data based on the probability density information and classify the integrated feature information into multiple groups. At this time, the density estimation unit (230) can classify the integrated feature information into multiple groups based on the similarity information between the integrated feature information. Accordingly, feature information having the same or similar probability density pattern can be grouped together.
가령, 도 12에 도시된 바와 같이, 밀도 추정부(230)는 제1 기준 통합 특징 정보(1211)의 확률밀도(1221)와 그 인접 통합 특징 정보들의 확률밀도를 비교하여 제1 그룹(1231)을 생성할 수 있다. 또한, 밀도 추정부(230)는 제2 기준 통합 특징 정보(1213)의 확률밀도(1223)와 그 인접 특징 정보들의 확률밀도를 비교하여 제2 그룹(1232)을 생성할 수 있다. For example, as illustrated in FIG. 12, the density estimation unit (230) can generate a first group (1231) by comparing the probability density (1221) of the first reference integrated feature information (1211) with the probability densities of its adjacent integrated feature information. In addition, the density estimation unit (230) can generate a second group (1232) by comparing the probability density (1223) of the second reference integrated feature information (1213) with the probability densities of its adjacent feature information.
데이터수집위치 검출부(240)는 복수의 그룹 정보를 기반으로 대표 포즈 데이터를 검출할 수 있다. 가령, 도 13에 도시된 바와 같이, 데이터수집위치 검출부(240)는 각 그룹(1231, 1232)의 대표 통합 특징 정보를 검출하고, 상기 검출된 대표 통합 특징 정보에 대응하는 대표 포즈 데이터(1241, 1242)를 검출할 수 있다. 이때, 상기 대표 포즈 데이터는 대표 라이다 데이터 및 대표 촬상 데이터를 포함할 수 있다.The data collection location detection unit (240) can detect representative pose data based on multiple group information. For example, as illustrated in FIG. 13, the data collection location detection unit (240) can detect representative integrated feature information of each group (1231, 1232) and detect representative pose data (1241, 1242) corresponding to the detected representative integrated feature information. At this time, the representative pose data can include representative lidar data and representative imaging data.
데이터수집위치 검출부(240)는 대표 포즈 데이터가 수집된 위치 정보를 검출할 수 있다. 이때, 데이터수집위치 검출부(240)는, 그룹 별로, 대표 포즈 데이터의 위치 정보를 검출할 수 있다.The data collection location detection unit (240) can detect location information where representative pose data is collected. At this time, the data collection location detection unit (240) can detect location information of representative pose data for each group.
이상 상술한 바와 같이, 본 발명의 다른 실시 예에 따른 포즈 데이터 수집위치 탐색장치는 대상 공간의 라이다 데이터 및 촬상 데이터를 이용하여 해당 공간의 특징 정보를 추출하고, 상기 추출된 특징 정보를 기반으로 지도 작성에 필요한 포즈 데이터의 최적 수집 위치를 탐지할 수 있다.As described above, a pose data collection location search device according to another embodiment of the present invention can extract feature information of a target space using lidar data and imaging data of the target space, and detect an optimal collection location of pose data required for map creation based on the extracted feature information.
도 14는 본 발명의 다른 실시 예에 따라 포즈 데이터 수집위치 탐색방법을 설명하는 순서도이다. 본 실시 예에 따른 포즈 데이터 수집위치 탐색방법은 포즈 데이터 수집위치 탐색장치(200)에 의해 수행될 수 있다. 도시된 순서도에서는 포즈 데이터 수집위치 탐색방법을 복수 개의 단계로 나누어 기재하였으나, 적어도 일부의 단계들은 순서를 바꾸어 수행되거나, 다른 단계와 결합되어 함께 수행되거나, 생략되거나, 세부 단계들로 나뉘어 수행되거나, 또는 도시되지 않은 하나 이상의 단계가 부가되어 수행될 수 있다.FIG. 14 is a flowchart illustrating a pose data collection location search method according to another embodiment of the present invention. The pose data collection location search method according to the present embodiment can be performed by a pose data collection location search device (200). In the illustrated flowchart, the pose data collection location search method is described by dividing it into a plurality of steps, but at least some of the steps may be performed in a changed order, combined with other steps and performed together, omitted, divided into detailed steps and performed, or one or more steps not illustrated may be added and performed.
도 14를 참조하면, 본 발명의 다른 실시 예에 따른 포즈 데이터 수집위치 탐색장치(200)는 로봇에 장착된 하나 이상의 라이다(LiDAR) 센서를 통해 대상 공간에 대한 라이다 데이터를 수집할 수 있다(S1410), 상기 라이다 데이터는 일정 시간 주기 또는 일정 거리 간격으로 수집될 수 있다.Referring to FIG. 14, a pose data collection position search device (200) according to another embodiment of the present invention can collect LiDAR data for a target space through one or more LiDAR sensors mounted on a robot (S1410). The LiDAR data can be collected at a certain time period or a certain distance interval.
포즈 데이터 수집위치 탐색장치(200)는 로봇에 장착된 하나 이상의 카메라를 통해 대상 공간에 대한 촬상 데이터를 수집할 수 있다(S1420). 상기 촬상 데이터 역시 일정 시간 주기 또는 일정 거리 간격으로 수집될 수 있다.The pose data collection location search device (200) can collect image data for a target space through one or more cameras mounted on the robot (S1420). The image data can also be collected at a certain time period or at a certain distance interval.
포즈 데이터 수집위치 탐색장치(200)는 라이다 데이터를 이차원의 이미지 데이터로 변환하고, 상기 변환된 이미지 데이터의 특징 정보를 추출할 수 있다(S1430). 이때, 상기 포즈 데이터 수집위치 탐색장치(200)는 미리 학습된 특징추론모델을 이용하여 상기 변환된 이미지 데이터의 특징 정보를 추출할 수 있다. 상기 특징추론모델로는 PCA 모델, 오토인코더 모델, GAN 모델 등이 사용될 수 있으며, 좀 더 바람직하게는 오토인코더 모델이 사용될 수 있다.The pose data collection location search device (200) can convert lidar data into two-dimensional image data and extract feature information of the converted image data (S1430). At this time, the pose data collection location search device (200) can extract feature information of the converted image data using a pre-learned feature inference model. As the feature inference model, a PCA model, an autoencoder model, a GAN model, etc. can be used, and more preferably, an autoencoder model can be used.
포즈 데이터 수집위치 탐색장치(200)는 미리 학습된 특징추론모델을 이용하여 촬상 데이터의 특징 정보를 추출할 수 있다(S1440). 상기 특징추론모델로는 SIFT 모델, SURF 모델 등이 사용될 수 있으며, 좀 더 바람직하게는 SIFT 모델이 사용될 수 있다.The pose data collection location search device (200) can extract feature information of the captured data using a pre-learned feature inference model (S1440). The feature inference model may include a SIFT model, a SURF model, etc., and more preferably, a SIFT model may be used.
포즈 데이터 수집위치 탐색장치(200)는 라이다 데이터의 특징 정보와 촬상 데이터의 특징 정보를 결합하여 하나의 통합 특징 정보를 생성할 수 있다(S1450).The pose data collection location search device (200) can generate a single integrated feature information by combining the feature information of lidar data and the feature information of imaging data (S1450).
포즈 데이터 수집위치 탐색장치(200)는 미리 결정된 밀도 추정 알고리즘을 이용하여 라이다 및 촬상 데이터들에 대응하는 통합 특징 정보들의 확률밀도를 산출할 수 있다(S1460). 상기 밀도 추정 알고리즘으로는 가우시안 커널 밀도 추정 알고리즘이 사용될 수 있으며 반드시 이에 제한되지는 않는다.The pose data collection location search device (200) can calculate the probability density of integrated feature information corresponding to lidar and imaging data using a predetermined density estimation algorithm (S1460). A Gaussian kernel density estimation algorithm can be used as the density estimation algorithm, but is not necessarily limited thereto.
포즈 데이터 수집위치 탐색장치(200)는 확률밀도 정보를 기반으로 라이다 및 촬상 데이터들에 대응하는 통합 특징 정보들을 서로 비교하여 해당 특징 정보들을 다수의 그룹으로 분류할 수 있다(S1470). 이때, 포즈 데이터 수집위치 탐색장치(200)는 확률밀도 정보를 기반으로 각각의 기준 통합 특징 정보와 그 인접 통합 특징 정보들을 서로 비교할 수 있다. The pose data collection location search device (200) can compare integrated feature information corresponding to lidar and imaging data based on probability density information and classify the feature information into multiple groups (S1470). At this time, the pose data collection location search device (200) can compare each reference integrated feature information with its adjacent integrated feature information based on probability density information.
포즈 데이터 수집위치 탐색장치(200)는 복수의 그룹 정보를 기반으로 대표 포즈 데이터를 검출할 수 있다(S1480). 이때, 상기 대표 포즈 데이터는 대표 라이다 데이터 및 대표 촬상 데이터를 포함할 수 있다.The pose data collection location search device (200) can detect representative pose data based on multiple group information (S1480). At this time, the representative pose data can include representative lidar data and representative imaging data.
포즈 데이터 수집위치 탐색장치(200)는 대표 포즈 데이터가 수집된 위치 정보를 검출할 수 있다(S1490). 이때, 포즈 데이터 수집위치 탐색장치(200)는, 그룹 별로, 대표 포즈 데이터의 위치 정보를 검출할 수 있다.The pose data collection location search device (200) can detect location information where representative pose data is collected (S1490). At this time, the pose data collection location search device (200) can detect location information of representative pose data for each group.
이상 상술한 바와 같이, 본 발명의 다른 실시 예에 따른 포즈 데이터 수집위치 탐색방법은 대상 공간의 라이다 데이터 및 촬상 데이터를 이용하여 해당 공간의 특징 정보를 추출하고, 상기 추출된 특징 정보를 기반으로 지도 작성에 필요한 포즈 데이터의 최적 수집 위치를 탐지할 수 있다.As described above, a method for searching for a pose data collection location according to another embodiment of the present invention can extract feature information of a target space using lidar data and imaging data of the target space, and detect an optimal collection location of pose data required for map creation based on the extracted feature information.
도 15는 본 발명의 일 실시 예에 따른 컴퓨팅 장치의 구성 블록도이다.FIG. 15 is a block diagram of a computing device according to an embodiment of the present invention.
도 15를 참조하면, 본 발명의 일 실시 예에 따른 컴퓨팅 장치(1500)는 적어도 하나의 프로세서(1510), 컴퓨터 판독 가능 저장 매체(1520) 및 통신 버스(1530)를 포함한다. 상기 컴퓨팅 장치(1500)는 상술한 지도 작성 장치 또는 상기 지도 작성 장치를 구성하는 요소들에 포함되는 하나 이상의 컴포넌트일 수 있다. 또한, 상기 컴퓨팅 장치(1500)는 포즈 데이터 수집위치 탐색장치(100, 200), 또는 상기 포즈 데이터 수집위치 탐색장치(100, 200)를 구성하는 요소들에 포함되는 하나 이상의 컴포넌트일 수 있다.Referring to FIG. 15, a computing device (1500) according to an embodiment of the present invention includes at least one processor (1510), a computer-readable storage medium (1520), and a communication bus (1530). The computing device (1500) may be one or more components included in the map creation device described above or the elements constituting the map creation device. In addition, the computing device (1500) may be one or more components included in the pose data collection location search device (100, 200) or the elements constituting the pose data collection location search device (100, 200).
프로세서(1510)는 컴퓨팅 장치(1500)로 하여금 앞서 언급된 예시적인 실시 예에 따라 동작하도록 할 수 있다. 예컨대, 프로세서(1510)는 컴퓨터 판독 가능 저장 매체(1520)에 저장된 하나 이상의 프로그램들(1525)을 실행할 수 있다. 상기 하나 이상의 프로그램들은 하나 이상의 컴퓨터 실행 가능 명령어를 포함할 수 있으며, 상기 컴퓨터 실행 가능 명령어는 프로세서(1510)에 의해 실행되는 경우 컴퓨팅 장치(1500)로 하여금 예시적인 실시 예에 따른 동작들을 수행하도록 구성될 수 있다.The processor (1510) may cause the computing device (1500) to operate according to the exemplary embodiments described above. For example, the processor (1510) may execute one or more programs (1525) stored in a computer-readable storage medium (1520). The one or more programs may include one or more computer-executable instructions, which, when executed by the processor (1510), may be configured to cause the computing device (1500) to perform operations according to the exemplary embodiments.
컴퓨터 판독 가능 저장 매체(1520)는 컴퓨터 실행 가능 명령어 내지 프로그램 코드, 프로그램 데이터 및/또는 다른 적합한 형태의 정보를 저장하도록 구성된다. 컴퓨터 판독 가능 저장 매체(1520)에 저장된 프로그램(1525)은 프로세서(1510)에 의해 실행 가능한 명령어의 집합을 포함한다. 일 실시 예에서, 컴퓨터 판독 가능 저장 매체(1520)는 메모리(랜덤 액세스 메모리와 같은 휘발성 메모리, 비휘발성 메모리, 또는 이들의 적절한 조합), 하나 이상의 자기 디스크 저장 디바이스들, 광학 디스크 저장 디바이스들, 플래시 메모리 디바이스들, 그 밖에 컴퓨팅 장치(1500)에 의해 액세스되고 원하는 정보를 저장할 수 있는 다른 형태의 저장 매체, 또는 이들의 적합한 조합일 수 있다.A computer-readable storage medium (1520) is configured to store computer-executable instructions or program code, program data, and/or other suitable forms of information. A program (1525) stored in the computer-readable storage medium (1520) includes a set of instructions executable by the processor (1510). In one embodiment, the computer-readable storage medium (1520) may be a memory (e.g., volatile memory such as random access memory, non-volatile memory, or a suitable combination thereof), one or more magnetic disk storage devices, optical disk storage devices, flash memory devices, any other form of storage medium that can be accessed by the computing device (1500) and capable of storing desired information, or a suitable combination thereof.
통신 버스(1530)는 프로세서(1510), 컴퓨터 판독 가능 저장 매체(1520)를 포함하여 컴퓨팅 장치(1500)의 다른 다양한 컴포넌트들을 상호 연결한다.A communication bus (1530) interconnects various other components of the computing device (1500), including the processor (1510) and computer-readable storage medium (1520).
컴퓨팅 장치(1500)는 또한 하나 이상의 입출력 장치(1550)를 위한 인터페이스를 제공하는 하나 이상의 입출력 인터페이스(1540) 및 하나 이상의 네트워크 통신 인터페이스(1560)를 포함할 수 있다. 입출력 인터페이스(1540) 및 네트워크 통신 인터페이스(1560)는 통신 버스(1530)에 연결된다.The computing device (1500) may also include one or more input/output interfaces (1540) that provide interfaces for one or more input/output devices (1550) and one or more network communication interfaces (1560). The input/output interfaces (1540) and the network communication interfaces (1560) are connected to a communication bus (1530).
입출력 장치(1550)는 입출력 인터페이스(1540)를 통해 컴퓨팅 장치(1500)의 다른 컴포넌트들에 연결될 수 있다. 예시적인 입출력 장치(1550)는 포인팅 장치(마우스 또는 트랙패드 등), 키보드, 터치 입력 장치(터치패드 또는 터치스크린 등), 음성 또는 소리 입력 장치, 다양한 종류의 센서 장치 및/또는 촬영 장치와 같은 입력 장치, 및/또는 디스플레이 장치, 프린터, 스피커 및/또는 네트워크 카드와 같은 출력 장치를 포함할 수 있다. 예시적인 입출력 장치(1550)는 컴퓨팅 장치(1500)를 구성하는 일 컴포넌트로서 컴퓨팅 장치(1500)의 내부에 포함될 수도 있고, 컴퓨팅 장치(1500)와는 구별되는 별개의 장치로 컴퓨팅 장치(1500)와 연결될 수도 있다.The input/output device (1550) can be connected to other components of the computing device (1500) via the input/output interface (1540). Exemplary input/output devices (1550) can include input devices such as a pointing device (such as a mouse or a trackpad), a keyboard, a touch input device (such as a touchpad or a touchscreen), a voice or sound input device, various types of sensor devices and/or photographing devices, and/or output devices such as a display device, a printer, a speaker, and/or a network card. The exemplary input/output device (1550) can be included within the computing device (1500) as a component that constitutes the computing device (1500), or can be connected to the computing device (1500) as a separate device distinct from the computing device (1500).
전술한 본 발명은, 프로그램이 기록된 매체에 컴퓨터가 읽을 수 있는 코드로서 구현하는 것이 가능하다. 컴퓨터가 읽을 수 있는 매체는, 컴퓨터로 실행 가능한 프로그램을 계속 저장하거나, 실행 또는 다운로드를 위해 임시 저장하는 것일 수도 있다. 또한, 매체는 단일 또는 수개 하드웨어가 결합된 형태의 다양한 기록수단 또는 저장수단일 수 있는데, 어떤 컴퓨터 시스템에 직접 접속되는 매체에 한정되지 않고, 네트워크 상에 분산 존재하는 것일 수도 있다. 매체의 예시로는, 하드 디스크, 플로피 디스크 및 자기 테이프와 같은 자기 매체, CD-ROM 및 DVD와 같은 광기록 매체, 플롭티컬 디스크(floptical disk)와 같은 자기-광 매체(magneto-optical medium), 및 ROM, RAM, 플래시 메모리 등을 포함하여 프로그램 명령어가 저장되도록 구성된 것이 있을 수 있다. 또한, 다른 매체의 예시로, 애플리케이션을 유통하는 앱 스토어나 기타 다양한 소프트웨어를 공급 내지 유통하는 사이트, 서버 등에서 관리하는 기록매체 내지 저장매체도 들 수 있다. 따라서, 상기의 상세한 설명은 모든 면에서 제한적으로 해석되어서는 아니되고 예시적인 것으로 고려되어야 한다. 본 발명의 범위는 첨부된 청구항의 합리적 해석에 의해 결정되어야 하고, 본 발명의 등가적 범위 내에서의 모든 변경은 본 발명의 범위에 포함된다.The above-described present invention can be implemented as a computer-readable code on a medium in which a program is recorded. The computer-readable medium may be one that continuously stores a computer-executable program or one that temporarily stores it for execution or downloading. In addition, the medium may be various recording means or storage means in the form of a single or multiple hardware combinations, and is not limited to a medium directly connected to a computer system, and may be distributed on a network. Examples of the medium may include magnetic media such as hard disks, floppy disks, and magnetic tapes, optical recording media such as CD-ROMs and DVDs, magneto-optical media such as floptical disks, and ROMs, RAMs, flash memories, etc., configured to store program instructions. In addition, examples of other media may include recording media or storage media managed by app stores that distribute applications or other sites, servers, etc. that supply or distribute various software. Therefore, the above detailed description should not be construed as limiting in all respects and should be considered exemplary. The scope of the present invention should be determined by a reasonable interpretation of the appended claims, and all changes coming within the equivalent scope of the present invention are intended to be included within the scope of the present invention.
100/200: 포즈 데이터 수집위치 탐색장치 110/210: 데이터 수집부
120/220: 특징정보 추출부 130/230: 밀도 추정부
140/240: 데이터수집위치 검출부 1500: 컴퓨팅 장치100/200: Pose data collection
120/220: Feature
140/240: Data collection location detection unit 1500: Computing device
Claims (18)
1차 포즈 데이터(pose data)를 수집하는 단계;
상기 수집된 1차 포즈 데이터의 특징 정보를 추출하는 단계;
상기 추출된 특징 정보를 기반으로 하나 이상의 대표 포즈 데이터를 검출하는 단계; 및
상기 검출된 대표 포즈 데이터의 위치 정보를 기반으로 2차 포즈 데이터를 수집하는 단계를 포함하는 지도 작성 방법.In a method of creating a map performed by a computing device,
Step 1: Collecting pose data;
A step of extracting feature information of the collected primary pose data;
A step of detecting one or more representative pose data based on the extracted feature information; and
A map creation method comprising a step of collecting secondary pose data based on location information of the above-detected representative pose data.
상기 1차 포즈 데이터를 일정 시간 주기 또는 일정 간격 단위로 수집하는 것을 특징으로 하는 지도 작성 방법.In the first paragraph, the first pose data collection step is,
A map creation method characterized by collecting the above first pose data at regular time intervals or at regular intervals.
상기 1차 및 2차 포즈 데이터는 라이다(LiDAR) 데이터를 포함하는 것을 특징으로 하는 지도 작성 방법.In the first paragraph,
A map creation method, characterized in that the first and second pose data include LiDAR data.
상기 라이다 데이터를 이차원의 이미지 데이터로 변환하는 단계; 및
미리 학습된 특징추론모델을 이용하여 상기 변환된 이미지 데이터의 특징 정보를 추출하는 단계를 포함하는 것을 특징으로 하는 지도 작성 방법.In the third paragraph, the feature information extraction step,
A step of converting the above lidar data into two-dimensional image data; and
A map creation method characterized by including a step of extracting feature information of the converted image data using a pre-learned feature inference model.
상기 특징추론모델은, 오토인코더(Autoencoder) 알고리즘을 통해 구현되는 것을 특징으로 하는 지도 작성 방법.In paragraph 4,
A map creation method characterized in that the above feature inference model is implemented through an autoencoder algorithm.
미리 결정된 밀도 추정 알고리즘을 이용하여 상기 라이다 데이터의 특징 정보에 대한 확률밀도를 산출하는 단계를 더 포함하는 것을 특징으로 하는 지도 작성 방법.In the third paragraph, the representative pose data detection step,
A map creation method further comprising a step of calculating a probability density for feature information of the lidar data using a predetermined density estimation algorithm.
상기 밀도 추정 알고리즘은, 가우시안 커널 밀도 추정 알고리즘(Gaussian Kennel Density Estimation Algorism)임을 특징으로 하는 지도 작성 방법.In Article 6,
A map creation method characterized in that the above density estimation algorithm is a Gaussian kernel density estimation algorithm.
상기 산출된 확률밀도를 기반으로 복수의 라이다 데이터들에 대응하는 복수의 특징 정보들을 하나 이상의 그룹으로 분류하는 단계; 및
상기 분류된 그룹 정보를 기반으로 대표 라이다 데이터를 검출하는 단계를 포함하는 것을 특징으로 하는 지도 작성 방법.In the sixth paragraph, the representative pose data detection step,
A step of classifying a plurality of feature information corresponding to a plurality of lidar data into one or more groups based on the above-described probability density; and
A map creation method characterized by comprising a step of detecting representative lidar data based on the classified group information.
상기 복수의 특징 정보들 중에서 하나 이상의 기준 특징 정보를 설정하는 단계; 및
상기 기준 특징 정보의 확률밀도와 그 인접 특징 정보들의 확률밀도를 비교하여 상기 복수의 특징 정보들을 하나 이상의 그룹으로 분류하는 단계를 포함하는 것을 특징으로 하는 지도 작성 방법.In the 8th paragraph, the step of classifying into one or more groups comprises:
A step of setting one or more reference feature information among the above multiple feature information; and
A map creation method characterized by including a step of classifying the plurality of feature information into one or more groups by comparing the probability density of the above-mentioned reference feature information with the probability density of its adjacent feature information.
상기 1차 및 2차 포즈 데이터는 라이다 데이터 및 촬상 데이터를 포함하는 것을 특징으로 하는 지도 작성 방법.In the third paragraph,
A map creation method, characterized in that the first and second pose data include lidar data and imaging data.
미리 학습된 제1 특징추론모델을 이용하여 상기 라이다 데이터의 특징 정보를 추출하는 단계; 및
미리 학습된 제2 특징추론모델을 이용하여 상기 촬상 데이터의 특징 정보를 추출하는 단계를 포함하는 것을 특징으로 하는 지도 작성 방법.In the 10th paragraph, the feature information extraction step,
A step of extracting feature information of the lidar data using a pre-learned first feature inference model; and
A map creation method characterized by including a step of extracting feature information of the imaging data using a pre-learned second feature inference model.
상기 제1 특징추론모델은 오토인코더(Autoencoder) 알고리즘을 통해 구현되고,
상기 제2 특징추론모델은 SIFT(Scale-Invariant Feature Transform) 알고리즘을 통해 구현되는 것을 지도 작성 방법.In Article 11,
The above first feature inference model is implemented through an autoencoder algorithm,
The above second feature inference model is a map creation method implemented through the SIFT (Scale-Invariant Feature Transform) algorithm.
상기 추출된 라이다 데이터의 특징 정보와 상기 추출된 촬상 데이터의 특징 정보를 결합하여 통합 특징 정보를 생성하는 단계를 더 포함하는 지도 작성 방법.In Article 11,
A map creation method further comprising a step of generating integrated feature information by combining feature information of the extracted lidar data and feature information of the extracted imaging data.
상기 수집된 포즈 데이터의 특징 정보를 추출하는 특징정보 추출부;
상기 추출된 특징 정보의 확률밀도를 산출하는 밀도 추정부; 및
상기 산출된 확률밀도를 기반으로 하나 이상의 대표 포즈 데이터를 검출하는 데이터수집위치 검출부를 포함하는 지도 작성 장치.A data collection unit that collects pose data required for creating a map of the target space;
A feature information extraction unit that extracts feature information of the above collected pose data;
A density estimation unit that calculates the probability density of the extracted feature information; and
A map creation device including a data collection location detection unit that detects one or more representative pose data based on the probability density calculated above.
하나 이상의 라이다(LiDAR) 센서를 통해 라이다 데이터를 수집하는 라이다 데이터 수집부; 및
하나 이상의 카메라를 통해 촬상 데이터를 수집하는 촬상 데이터 수집부를 포함하는 것을 특징으로 하는 지도 작성 장치.In Article 15, the data collection unit,
A LiDAR data collection unit that collects LiDAR data through one or more LiDAR sensors; and
A map-making device characterized by including an imaging data collection unit that collects imaging data through one or more cameras.
상기 수집된 라이다 데이터의 특징 정보를 추출하는 라이다 데이터 특징 추출부; 및
상기 수집된 촬상 데이터의 특징 정보를 추출하는 촬상 데이터 특징 추출부를 포함하는 것을 특징으로 하는 지도 작성 장치.In Article 16, the specific information extraction unit,
A lidar data feature extraction unit for extracting feature information of the collected lidar data; and
A map creation device characterized by including an imaging data feature extraction unit that extracts feature information of the collected imaging data.
상기 데이터 수집부는, 상기 검출된 대표 포즈 데이터의 위치 정보를 기반으로 포즈 데이터를 재 수집하는 것을 특징으로 하는 지도 작성 장치. In Article 15,
A map creation device characterized in that the data collection unit re-collects pose data based on location information of the detected representative pose data.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
KR1020230041203A KR20240146350A (en) | 2023-03-29 | 2023-03-29 | Method for drawing up a map and apparatus thereof |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
KR1020230041203A KR20240146350A (en) | 2023-03-29 | 2023-03-29 | Method for drawing up a map and apparatus thereof |
Publications (1)
Publication Number | Publication Date |
---|---|
KR20240146350A true KR20240146350A (en) | 2024-10-08 |
Family
ID=93113903
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
KR1020230041203A KR20240146350A (en) | 2023-03-29 | 2023-03-29 | Method for drawing up a map and apparatus thereof |
Country Status (1)
Country | Link |
---|---|
KR (1) | KR20240146350A (en) |
Citations (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR20210003065A (en) | 2020-04-14 | 2021-01-11 | 네이버랩스 주식회사 | Method and system for collecting data |
-
2023
- 2023-03-29 KR KR1020230041203A patent/KR20240146350A/en unknown
Patent Citations (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR20210003065A (en) | 2020-04-14 | 2021-01-11 | 네이버랩스 주식회사 | Method and system for collecting data |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
Kraus et al. | Uncertainty estimation in one-stage object detection | |
Zhou et al. | Weakly supervised target detection in remote sensing images based on transferred deep features and negative bootstrapping | |
Kim et al. | Extracting vehicle trajectories using unmanned aerial vehicles in congested traffic conditions | |
Dreher et al. | Radar-based 2D car detection using deep neural networks | |
Ranganathan et al. | Bayesian surprise and landmark detection | |
Tsintotas et al. | Appearance-based loop closure detection with scale-restrictive visual features | |
US20210357763A1 (en) | Method and device for performing behavior prediction by using explainable self-focused attention | |
Gong et al. | A two-level framework for place recognition with 3D LiDAR based on spatial relation graph | |
Garcia-Fidalgo et al. | Vision-based topological mapping and localization by means of local invariant features and map refinement | |
KR102138681B1 (en) | Apparatus and method for detecting object based on heterogeneous sensor | |
Goel et al. | Detection of emergency vehicles using modified YOLO algorithm | |
CN117671508B (en) | SAR image-based high-steep side slope landslide detection method and system | |
Alsultani et al. | The use of spatial relationships and object identification in image understanding | |
US20240200973A1 (en) | Method, data processing apparatus and computer program product for generating map data | |
KR20240146350A (en) | Method for drawing up a map and apparatus thereof | |
CN112923938A (en) | Map optimization method, device, storage medium and system | |
Malinas et al. | Vehicle track detection in CCD imagery via conditional random field | |
Yang et al. | On-road vehicle tracking using keypoint-based representation and online co-training | |
Zhang et al. | Object tracking method based on data computing | |
Lee et al. | Localized Object Information from Detected Objects Based on Deep Learning in Video Scene | |
Erkent et al. | GridTrack: Detection and Tracking of Multiple Objects in Dynamic Occupancy Grids | |
CN116229159B (en) | Open set target detection method and device based on front Jing Zi space | |
KR102589987B1 (en) | Method and Apparatus for Tracking of Online Multi-Object with Visual and Radar Features | |
Donadi et al. | Improving Generalization of Synthetically Trained Sonar Image Descriptors for Underwater Place Recognition | |
US20240289651A1 (en) | Information processing apparatus, image capturing apparatus, method, and non-transitory computer-readable storage medium |