Nothing Special   »   [go: up one dir, main page]

KR101618030B1 - Method for Recognizing Position and Controlling Movement of a Mobile Robot, and the Mobile Robot Using the same - Google Patents

Method for Recognizing Position and Controlling Movement of a Mobile Robot, and the Mobile Robot Using the same Download PDF

Info

Publication number
KR101618030B1
KR101618030B1 KR1020090069066A KR20090069066A KR101618030B1 KR 101618030 B1 KR101618030 B1 KR 101618030B1 KR 1020090069066 A KR1020090069066 A KR 1020090069066A KR 20090069066 A KR20090069066 A KR 20090069066A KR 101618030 B1 KR101618030 B1 KR 101618030B1
Authority
KR
South Korea
Prior art keywords
image
mobile robot
traveling
unit
feature point
Prior art date
Application number
KR1020090069066A
Other languages
Korean (ko)
Other versions
KR20110011424A (en
Inventor
신경철
박성주
이희공
이재영
김형오
Original Assignee
주식회사 유진로봇
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 주식회사 유진로봇 filed Critical 주식회사 유진로봇
Priority to KR1020090069066A priority Critical patent/KR101618030B1/en
Publication of KR20110011424A publication Critical patent/KR20110011424A/en
Application granted granted Critical
Publication of KR101618030B1 publication Critical patent/KR101618030B1/en

Links

Images

Classifications

    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J9/00Programme-controlled manipulators
    • B25J9/16Programme controls
    • B25J9/1656Programme controls characterised by programming, planning systems for manipulators
    • B25J9/1664Programme controls characterised by programming, planning systems for manipulators characterised by motion, path, trajectory planning
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J19/00Accessories fitted to manipulators, e.g. for monitoring, for viewing; Safety devices combined with or specially adapted for use in connection with manipulators
    • B25J19/02Sensing devices
    • B25J19/021Optical sensing devices
    • B25J19/023Optical sensing devices including video camera means
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J9/00Programme-controlled manipulators
    • B25J9/16Programme controls
    • B25J9/1628Programme controls characterised by the control loop
    • B25J9/1651Programme controls characterised by the control loop acceleration, rate control
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J9/00Programme-controlled manipulators
    • B25J9/16Programme controls
    • B25J9/1679Programme controls characterised by the tasks executed
    • B25J9/1692Calibration of manipulator
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/80Analysis of captured images to determine intrinsic or extrinsic camera parameters, i.e. camera calibration

Landscapes

  • Engineering & Computer Science (AREA)
  • Robotics (AREA)
  • Mechanical Engineering (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Multimedia (AREA)
  • Control Of Position, Course, Altitude, Or Attitude Of Moving Bodies (AREA)
  • Image Analysis (AREA)
  • Manipulator (AREA)

Abstract

본 발명은 이동 로봇의 위치 인식 및 주행 제어 방법과 이를 이용한 이동 로봇에 관한 것이다. 더욱 상세하게는, 본 발명은 관성 센서와 영상을 이용하여 이동 로봇의 위치를 인식하고 주행을 제어함에 있어서 지역적 방향 기술자를 활용하고 이동 로봇의 상태에 따라 주행 모드를 변경하며 위치 인식의 오차를 최소화할 수 있는 이동 로봇의 위치 인식 및 주행 제어 방법과 이를 이용한 이동 로봇에 관한 것이다. The present invention relates to a position recognition and travel control method of a mobile robot and a mobile robot using the same. More particularly, the present invention utilizes a local direction descriptor in recognizing the position of a mobile robot using an inertial sensor and an image and controlling the traveling, changing a traveling mode according to the state of the mobile robot, The present invention relates to a position recognition and traveling control method of a mobile robot and a mobile robot using the same.

이동 로봇, 지도 생성, SLAM, 특징점, odometry, 주행 제어 Mobile robot, map generation, SLAM, feature point, odometry, driving control

Description

이동 로봇의 위치 인식 및 주행 제어 방법과 이를 이용한 이동 로봇{Method for Recognizing Position and Controlling Movement of a Mobile Robot, and the Mobile Robot Using the same}Field of the Invention [0001] The present invention relates to a mobile robot, and more particularly,

본 발명은 이동 로봇의 위치 인식 및 주행 제어 방법과 이를 이용한 이동 로봇에 관한 것이다. 더욱 상세하게는, 본 발명은 관성 센서와 영상을 이용하여 이동 로봇의 위치를 인식하고 주행을 제어함에 있어서 지역적 방향 기술자를 활용하고 이동 로봇의 상태에 따라 주행 모드를 변경하며 위치 인식의 오차를 최소화할 수 있는 이동 로봇의 위치 인식 및 주행 제어 방법과 이를 이용한 이동 로봇에 관한 것이다. The present invention relates to a position recognition and travel control method of a mobile robot and a mobile robot using the same. More particularly, the present invention utilizes a local direction descriptor in recognizing the position of a mobile robot using an inertial sensor and an image and controlling the traveling, changing a traveling mode according to the state of the mobile robot, The present invention relates to a position recognition and traveling control method of a mobile robot and a mobile robot using the same.

최근 로봇 기술의 발전에 따라 스스로 경로를 설정하고 이동하는 이동 로봇이 활용되고 있다. 이동 로봇의 대표적인 예로는 주택이나 건물 내부를 청소하는 청소용 로봇, 위치를 안내하는 안내 로봇 등을 들 수 있다. 특히 청소 로봇의 경우에는 각종 센서와 주행 수단을 구비하여 주행하면서 내부에 구비된 진공 청소 유닛을 이용하여 실내 바닥을 청소하며 현재 다수의 실제 제품이 사용되고 있다. Recently, mobile robots have been used to set up and move their own paths according to the development of robot technology. Representative examples of the mobile robot include a cleaning robot for cleaning a house or a building, and a guide robot for guiding a location. In particular, in the case of a cleaning robot, a floor is cleaned using a vacuum cleaning unit provided inside while traveling with various sensors and traveling means, and many actual products are currently used.

이들 이동 로봇이 공간에서 효과적으로 위치를 판단하며 이동하기 위해서 이 동하고 있는 공간에 대한 지도를 생성하고 공간상의 자신의 위치를 인식하는 것이 요구된다. 이동 로봇이 주변 공간에 대하여 스스로 위치를 인식하고 지도를 형성하는 것을 동시 위치인식 및 지도형성(SLAM : Simultaneous Localization And Mapping)이라고 한다. It is required that these mobile robots generate a map of the moving space in order to effectively determine the position in the space and to recognize their position in the space. Simultaneous Localization and Mapping (SLAM) is a method in which the mobile robot recognizes its own position in the surrounding space and forms a map.

SLAM 기법 중에서 영상 기반의 SLAM은 영상에서 추출한 시각 특징점을 이용하여 주변 환경에 대한 지도를 생성하고, 로봇의 자세를 추정한다. 통상적으로 이동 로봇은 자이로스코프와 구동 모터에 구비된 엔코더를 이용하여 추측 항법(dead reckoning)으로 주행하며, 상부에 설치된 카메라를 이용하여 영상을 분석하고 지도를 생성한다. 이 때 자이로스코프와 엔코더로부터의 주행 정보에 의한 오차가 발생하는 경우 카메라로부터 획득된 영상 정보를 활용하여 누적되는 오차가 보정된다. Among the SLAM methods, SLAM based on image generates a map of the surrounding environment using visual feature points extracted from the image and estimates the attitude of the robot. Generally, the mobile robot travels by dead reckoning using an encoder provided in the gyroscope and the driving motor, analyzes the image using a camera installed at the upper part, and generates a map. In this case, when an error is caused by the driving information from the gyroscope and the encoder, accumulated error is corrected using the image information obtained from the camera.

그 동안 이동 로봇의 주행 제어 방법 및 그에 따른 이동 로봇에 대하여 여러 가지 선행기술이 제시된 바 있으나 다음과 같은 문제점이 해결되지 못하였다. In the meantime, various prior arts have been proposed for a traveling control method of a mobile robot and a mobile robot therefor, but the following problems have not been solved.

영상으로부터 추출된 특징점에 대한 기술자(descriptor)로서 여러 가지 방식이 사용된 바 있으나, 조명 변화가 크거나 영상 변화가 큰 경우에 강인한 성능을 나타내지 못하는 문제점이 존재하였다. 또한, 이동 로봇의 주행 제어에 있어서 입력 영상의 사용이 불가능한 환경 또는 이동 로봇의 주행 제어 오류가 발생한 경우 적응적인 주행 제어 기법이 제시되지 못하였다. 또한, 특징점 매칭에 있어서 서로 다른 특징점임에도 불구하고 동일한 특징점으로 오인식되는 문제가 종종 발생하였다. Although various schemes are used as descriptors for feature points extracted from images, there is a problem in that it is not robust when the illumination change is large or the image change is large. In addition, an adaptive driving control technique has not been proposed in the case where the input image can not be used in the traveling control of the mobile robot or the traveling control error of the mobile robot occurs. In addition, although there are different minutiae in the minutiae matching, the same minutiae are often misrecognized.

상기한 문제점을 해결하기 위하여, 본 발명은 관성 센서와 영상을 이용하여 이동 로봇의 위치를 인식하고 주행을 제어함에 있어서 지역적 방향 기술자를 활용하고 이동 로봇의 상태에 따라 주행 모드를 변경하며 위치 인식의 오차를 최소화할 수 있는 이동 로봇의 위치 인식 및 주행 제어 방법과 이를 이용한 이동 로봇을 제공함을 목적으로 한다. In order to solve the above-mentioned problems, the present invention uses a local direction descriptor in recognizing the position of a mobile robot using an inertial sensor and an image and controlling the traveling, changes a traveling mode according to the state of the mobile robot, And to provide a mobile robot using the method and a position recognition and traveling control method of the mobile robot that minimizes errors.

상기 목적을 달성하기 위한 본 발명에 따른 이동 로봇은 영상을 획득하는 영상 획득부; 적어도 이동 로봇의 주행 방향 및 주행 거리를 포함하는 주행 정보를 획득하는 센서부; 상기 영상 획득부에서 획득된 영상을 처리하여 특징점을 추출하고 특징점에 대한 기술자를 생성하는 영상 처리부; 및 상기 특징점과 상기 주행 정보에 기초하여 주행 영역의 공간 지도를 생성하고 상기 이동 로봇의 위치 인식 및 주행을 제어하는 주제어부를 포함하며, 상기 주제어부는 상기 획득한 영상과 기준 영상의 매칭 정도에 따라 상기 이동 로봇의 위치 인식에 있어서 상기 영상과 상기 센싱 정보를 동시에 이용하는 제 1 주행 모드와 상기 영상 정보만을 활용하는 제 2 주행 모드를 선택적으로 적용하는 것을 특징으로 한다. According to an aspect of the present invention, there is provided a mobile robot including an image acquiring unit acquiring an image; A sensor unit for acquiring travel information including at least a travel direction and a travel distance of the mobile robot; An image processing unit for processing the image obtained by the image obtaining unit to extract a feature point and generating a descriptor for the feature point; And a main controller for generating a spatial map of the traveling region based on the minutiae and the driving information and controlling the position recognition and running of the mobile robot, A first traveling mode in which the image and the sensing information are used simultaneously and a second traveling mode in which only the image information is utilized are selectively applied in the position recognition of the mobile robot.

상기 이동 로봇은 상기 센서부에서 취득한 이동 로봇의 주행 방향 및 주행 거리를 포함하는 주행 정보와, 상기 영상 처리부에서 영상 처리를 통하여 취득한 특징점 및 기술자 정보를 포함하는 영상 정보를 저장하는 저장부를 더 포함하는 것 이 바람직하다. The mobile robot further includes a storage unit for storing the traveling information including the traveling direction and the traveling distance of the mobile robot acquired by the sensor unit and the image information including the minutiae and descriptor information acquired through image processing in the image processing unit .

상기 영상 획득부에서 획득된 영상의 왜곡을 보정하는 영상 왜곡 보정부와, 상기 영상의 가용성 여부를 판단하는 영상 품질 점검부와, 상기 영상으로부터 상기 특징점을 추출하는 특징점 추출부, 및 상기 특징점에 대한 기술자를 생성하는 기술자 생성부를 포함하는 것을 특징으로 한다. An image distortion correction unit for correcting distortion of the image obtained by the image obtaining unit, an image quality checking unit for determining whether the image is usable, a feature point extracting unit for extracting the feature points from the image, And a descriptor generating unit for generating a descriptor.

상기 영상 품질 점검부는 상기 획득한 영상의 명도와 기준 영상의 명도를 비교하여 상기 취득된 영상의 가용성을 판단하는 것을 특징으로 한다. And the image quality checker compares the brightness of the acquired image with the brightness of the reference image to determine availability of the acquired image.

상기 영상 품질 점검부는 상기 제 1 주행 모드시 상기 영상 획득부가 비정상 영상을 획득하고, 상기 비정상 영상 획득 시간이 소정 시간을 경과하는 경우에 상기 이동로봇이 차폐영역에 차폐되어 있는 것으로 판단하는 것을 특징으로 한다. Wherein the image quality checking unit determines that the mobile robot is shielded in the shielded area when the image acquiring unit acquires the abnormal image in the first travel mode and the abnormal image acquisition time passes the predetermined time do.

상기 영상 품질 점검부는 상기 획득한 영상의 명도 평균 및 분산에 기초하여 상기 영상 획득부의 차폐 여부를 판단하는 것을 특징으로 한다. And the image quality checking unit determines whether the image acquiring unit is shielded based on the brightness average and variance of the acquired image.

상기 주제어부는 상기 이동 로봇이 상기 차폐영역에 차폐된 것으로 판단하면 상기 이동 로봇을 상기 차폐영역의 진입지점으로 회귀시키는 것을 특징으로 한다. And the main controller returns the mobile robot to the entry point of the shielded area when it is determined that the mobile robot is shielded by the shielded area.

상기 영상 품질 점검부는 상기 획득한 영상을 상기 이동 로봇의 진행방향을 기준으로 4등분하여 분할된 각 영역으로 명도 평균값에 기초한 상기 획득한 영상의 평균 및 분산을 기반으로 차폐여부를 판단하는 것을 특징으로 한다. Wherein the image quality checking unit determines whether or not the acquired image is shielded based on the average and variance of the acquired image based on the brightness average value in each divided region by dividing the acquired image into four regions based on the traveling direction of the mobile robot do.

상기 기술자 생성부는 상기 획득한 영상으로부터 분할된 n×n 서브 영역의 각각에 대한 밝기 변화와 방향 정보를 생성하는 것을 특징으로 한다. And the descriptor generating unit generates a brightness change and direction information for each of the n x n sub-regions divided from the acquired image.

상기 기술자 생성부는 상기 n×n 서브 영역 가운데 서로 다른 두 서브 영역 의 방향 정보를 선택하여 페어 와이즈(pair-wise) 조합을 생성하여 국지적 방향 정보의 가도 차이를 기술하는 특징으로 한다. The descriptor generating unit selects a direction information of two different sub-regions among the nxn sub-regions and generates a pair-wise combination to describe the difference in the direction of the local direction information.

상기 주제어부는, 상기 제 1 주행 모드와 제 2 주행 모드를 선택하는 주행 모드 선택부와, 상기 영상에서 추출된 특징점을 관리하고 기등록된 특징점과 매칭시키는 특징점 관리부와, 상기 지도를 생성하고 갱신하는 지도 관리부, 및 상기 이동 로봇의 위치 인식 및 주행을 제어하는 주행 제어부를 포함하는 것을 특징으로 한다. The main control unit may include a driving mode selection unit for selecting the first driving mode and the second driving mode, a minutia point management unit for managing the minutiae extracted from the image and matching the minutiae with previously registered minutiae points, A map management unit, and a travel controller for controlling the position recognition and traveling of the mobile robot.

상기 주행 모드 선택부는 상기 이동 로봇이 상기 제 1 주행 모드로 주행시 키드냅되거나 소정 영상 프레임 동안 메트릭 지도(metric map) 구축 및 위치 인식에 실패하는 경우에 토폴로지 맵(topological map)에 따라 위치를 복구하도록 상기 제 2 주행 모드로 전환하는 것을 특징으로 한다. The traveling mode selection unit may restore the position according to a topological map when the mobile robot kicks in the first traveling mode or fails to construct a metric map and recognize the position during a predetermined image frame And switches to the second traveling mode.

본 발명에 따른 이동 로봇의 위치 인식 및 주행 제어 방법은 (a) 이동 로봇이 대상 영역의 영상 정보 및 주행 정보를 획득하는 단계; (b) 상기 획득된 영상 정보의 품질을 기준 값과 비교하여 획득한 영상의 가용성의 유무를 판단하는 단계; 및 (c) 상기 가용성이 인정되면 상기 획득된 영상 정보로부터 특징점을 추출하고 그 추출된 특징점의 기술자를 생성하여 주행 지도의 작성 및 대상 영역을 주행하는 단계;를 포함하며, 상기 대상 영역을 주행하는 단계는, 상기 획득한 영상과 기준 영상의 매칭 정도에 따라 상기 이동 로봇의 주행 및 위치 인식 시에 상기 영상과 상기 센싱 정보를 동시에 이용하는 제 1 주행 모드와 상기 영상 정보만을 활용하는 제 2 주행 모드 가운데 어느 하나의 주행 모드를 선택하는 단계를 포함하는 것을 특징으로 한다. The method includes: (a) acquiring image information and driving information of a target area of a mobile robot; (b) comparing the quality of the obtained image information with a reference value to determine whether the acquired image is available or not; And (c) if the availability is recognized, extracting a feature point from the obtained image information and generating a descriptor of the extracted feature point to create a travel map and to travel on an object area, Wherein the first traveling mode uses the image and the sensing information at the time of traveling and recognizing the position of the mobile robot according to the degree of matching between the acquired image and the reference image, And selecting any one of the running modes.

상기 (b) 단계 이전에 상기 획득한 영상 정보의 왜곡을 보정하는 단계;를 더 포함하는 것이 바람직하다. And correcting the distortion of the acquired image information before the step (b).

상기 기술자를 생성하는 단계는, 상기 특징점에 대하여 적어도 방향 정보와 밝기 정보를 포함하는 기술자를 생성하는 단계; 상기 특징점의 신규 여부를 판단하여 신규인 경우에는 상기 특징점을 등록하는 단계; 상기 특징점이 일정 영역의 특징을 대표하는 핵심 영역 특징점에 해당하는 경우에는 상기 핵심 영역 특징점에 대한 기술자를 생성하는 단계; 및 상기 핵심 영역 특징점의 신규 여부를 판단하여 신규인 경우에는 상기 핵심 영역 특징점을 등록하는 단계;를 포함하는 것을 특징으로 한다. The generating of the descriptor may include generating a descriptor including at least direction information and brightness information for the feature point; Determining whether the feature point is new and registering the feature point if the feature point is new; Generating a descriptor for the core region feature point if the feature point corresponds to a core region feature point representing a feature of a certain region; And registering the core region feature point if the new core region feature point is new.

상기 핵심 영역 특징점에 대한 기술자를 생성하는 단계에서는 상기 핵심 영역 특징점은 획득된 영상에서 공간적으로 균일하게 생성되고, 하나의 프레임의 영상에서 산출된 코너 반응함수 값의 합이 기준값 이상인 영역에서 설정되는 것을 특징으로 한다.In the step of generating descriptors for the core region feature points, the core region feature points are uniformly generated spatially in the obtained image, and the sum of the corner response function values calculated in the image of one frame is set in a region that is equal to or larger than a reference value .

상기 핵심 영역 특징점에 대한 기술자를 생성하는 단계에서는 상기 이동 로봇은 상기 핵심 영역에서 취득한 영상의 특징점과 상기 핵심 영역 특징점의 영상 정합을 통하여 누적된 위치 오차와 방향각 오차를 보정하는 것을 특징으로 한다.In the step of generating descriptors for the core region feature points, the mobile robot corrects accumulated position errors and directional angle errors through image matching between the feature points of the image obtained from the core region and the core region feature points.

상기 주행 모드를 선택하는 단계에서는 상기 제 1 주행 모드시 상기 이동 로봇이 획득한 영상의 명도가 기준 이하이고, 상기 기준 이하의 영상 획득 시간이 소정 시간을 경과하는 경우에 상기 이동로봇이 차폐영역에 차폐되어 있는 것으로 판 단하는 것을 특징으로 한다. In the step of selecting the driving mode, when the brightness of the image acquired by the mobile robot in the first driving mode is below the reference level and the image acquisition time of the reference or below exceeds the predetermined time, It is judged that it is shielded.

상기 주행 모드를 선택하는 단계에서는 상기 이동 로봇이 상기 차폐영역에 차폐된 것으로 판단하면 상기 이동 로봇을 상기 차폐영역의 진입지점으로 회귀하는 것을 특징으로 한다. In the step of selecting the traveling mode, when the mobile robot determines that the mobile robot is shielded by the shielded area, the mobile robot returns to the entry point of the shielded area.

상기 주행 모드를 선택하는 단계에서는 상기 이동 로봇의 차폐 여부는 상기 획득한 영상을 상기 이동 로봇의 진행방향을 기준으로 4등분하여 분할된 각 영역으로 명도 평균값에 기초한 상기 획득한 영상의 평균 및 분산을 기반으로 판단하는 것을 특징으로 한다. In the step of selecting the traveling mode, whether the shielded state of the mobile robot is divided into four regions by dividing the obtained image by the traveling direction of the mobile robot, Based on the determination result.

상기 대상 영역을 주행하는 단계는 상기 제 1 주행 모드시 상기 획득한 영상의 전체 밝기의 평균을 측정하여 기준 영상의 밝기 평균과 비교하여 조명환경을 추정하는 단계; 상기 4등분된 영상의 밝기 평균 및 분산을 측정하여 기준 밝기 평균 및 분산과 비교하여 조명변화를 감지하는 단계; 및 상기 추정된 조명환경 및 상기 감지된 조명변화에 기초하여 이동 로봇의 속도를 조절하는 단계를 포함하는 것을 특징으로 한다. Wherein the step of driving the target area comprises: estimating an illumination environment by measuring an average of all brightness of the acquired image in the first driving mode and comparing the average brightness with a brightness average of the reference image; Measuring a brightness average and variance of the quadrisected image and comparing the brightness average and variance with a reference brightness average and variance to detect an illumination change; And controlling the speed of the mobile robot on the basis of the estimated illumination environment and the sensed illumination change.

상기 제 1 주행 모드에서는 상기 획득한 영상으로부터 분할된 n×n 서브 영역의 각각에 대한 밝기 변화와 방향 정보를 생성하는 것을 특징으로 한다. And in the first driving mode, the brightness change and direction information for each of the n x n sub-regions divided from the acquired image are generated.

상기 제 1 주행 모드에서는 상기 n×n 서브 영역 가운데 서로 다른 두 서브 영역의 방향 정보를 선택하여 페어 와이즈(pair-wise) 조합을 생성하여 국지적 방향 정보의 각도 차이를 기술하는 것을 특징으로 한다. In the first driving mode, direction information of two different sub-regions among the nxn sub-regions is selected to generate a pair-wise combination to describe the angle difference of the local direction information.

상기 주행 모드를 선택하는 단계는 상기 이동 로봇이 상기 제 1 주행 모드로 주행시 키드냅되거나 소정 영상 프레임 동안 메트릭 지도(metric map) 구축 및 위치 인식에 실패하는 경우에 토폴로지 맵(topological map)에 따라 위치를 복구하도록 상기 제 2 주행 모드로 전환하는 것을 특징으로 한다. The step of selecting the traveling mode may include selecting a traveling mode based on a topological map when the mobile robot kicks in the first traveling mode or fails to construct a metric map and recognize a position during a predetermined image frame, The second mode is switched to the second mode.

본 발명은 이동 로봇의 상태에 관성 센서 등으로부터 획득한 주행 정보를 활용하기 부적절한 경우에 영상 정합만으로 이동 로봇의 위치 인식 및 주행 제어가 가능하도록 함으로써 상황에 적응적인 이동 로봇 제어가 가능하다. According to the present invention, when the travel information obtained from an inertial sensor or the like is inappropriate for the state of the mobile robot, positional recognition and travel control of the mobile robot can be performed only by image registration, thereby enabling adaptive mobile robot control.

더불어 본 발명에서 제안하는 영상 특징점에 대한 기술자 생성 방식은 계산량을 감소시키며 오인식률이 줄어들고, 회전 변화에 강인하다는 장점이 있다. In addition, the method of generating a descriptor for an image feature point proposed in the present invention has an advantage of reducing a calculation amount, reducing a recognition rate, and robust to a rotation change.

또한 본 발명에 의하면, 이동 로봇의 주행 정보와 영상 특징점에서 추출한 방향 정보의 비교를 통해 특징점 인식률을 향상시킬 수 있는 장점이 있다. According to the present invention, the feature point recognition rate can be improved by comparing the travel information of the mobile robot with the direction information extracted from the image feature points.

이하, 본 발명의 바람직한 실시예를 첨부된 도면들을 참조하여 상세히 설명한다. 우선 각 도면의 구성 요소들에 참조 부호를 부가함에 있어서, 동일한 구성 요소들에 대해서는 비록 다른 도면상에 표시되더라도 가능한 한 동일한 부호를 가지도록 하고 있음에 유의해야 한다. 또한, 본 발명을 설명함에 있어, 관련된 공지 구성 또는 기능에 대한 구체적인 설명이 본 발명의 요지를 흐릴 수 있다고 판단되는 경우에는 그 상세한 설명은 생략한다. 또한, 이하에서 본 발명의 바람직한 실시예를 설명할 것이나, 본 발명의 기술적 사상은 이에 한정하거나 제한되지 않고 당업자에 의해 변형되어 다양하게 실시될 수 있음은 물론이다.Hereinafter, preferred embodiments of the present invention will be described in detail with reference to the accompanying drawings. In the drawings, the same reference numerals are used to designate the same or similar components throughout the drawings. In the following description of the present invention, a detailed description of known functions and configurations incorporated herein will be omitted when it may make the subject matter of the present invention rather unclear. In addition, the preferred embodiments of the present invention will be described below, but it is needless to say that the technical idea of the present invention is not limited thereto and can be variously modified by those skilled in the art.

도 1은 본 발명의 바람직한 실시예에 따른 이동 로봇의 구성을 도시한 블록도이다.1 is a block diagram showing the configuration of a mobile robot according to a preferred embodiment of the present invention.

본 발명의 바람직한 실시예에 따른 이동 로봇(10)은, 영상을 취득하는 영상 획득부(12), 영상 획득부(12)에서 획득된 영상을 처리하고 영상 내의 특징점을 추출하며 특징점에 대한 기술자(descriptor)를 생성하는 영상 처리부(20), 이동 로봇(10)의 이동 방향 정보와 이동 거리 등을 센싱하는 센서부(42), 획득된 영상을 바탕으로 이동 로봇이 이동하는 공간에 대한 지도를 생성하고 획득된 영상에서 추출한 특징점에 관한 정보와 센서부(42)로부터 획득된 주행 정보를 바탕으로 이동 로봇의 작동을 제어하는 주제어부(30), 및 주제어부(30)의 제어에 따라 로봇을 구동하는 로봇 구동부(40)를 포함한다. The mobile robot 10 according to the preferred embodiment of the present invention includes an image acquiring unit 12 for acquiring images, an image acquiring unit 12 for acquiring feature points, extracting feature points in the images, a sensor unit 42 for sensing movement direction information and a moving distance of the mobile robot 10, and a map of a space in which the mobile robot moves based on the acquired image A main controller 30 for controlling the operation of the mobile robot on the basis of the information about the minutiae extracted from the obtained image and the travel information obtained from the sensor unit 42, And a robot driving unit 40 for driving the robot.

영상 획득부(12)는 이동 로봇이 위치한 주변 환경에 대한 영상을 취득하는 장치로서, CCD(Charge Coupled Device), CMOS(Complementary Metal Oxide Semiconductor) 등과 같은 이미지 센서를 포함하여 구성될 수 있다. 본 발명에 있어서 영상 획득부(12)는 상향을 향하도록 배치되어 천장 영상을 획득하도록 배치됨이 바람직하다. 더욱 바람직하게는 영상 획득부(12)는 어안 렌즈(fisheye lens)와 같은 광각(wide angle) 렌즈를 구비하여 넓은 범위의 천장 영상을 획득할 수 있도록 한다. The image acquiring unit 12 is an apparatus for acquiring an image of the surrounding environment in which the mobile robot is located and may include an image sensor such as a CCD (Charge Coupled Device) or a CMOS (Complementary Metal Oxide Semiconductor). In the present invention, it is preferable that the image acquiring unit 12 is arranged to face upward to acquire a ceiling image. More preferably, the image acquiring unit 12 includes a wide angle lens such as a fisheye lens to acquire a wide range of ceiling images.

영상 처리부(20)는 영상 왜곡 보정부(22), 영상 품질 점검부(24), 특징점 추출부(26), 및 기술자 생성부(28)를 포함한다. The image processing unit 20 includes an image distortion correction unit 22, an image quality checking unit 24, a feature point extracting unit 26, and a descriptor generating unit 28.

영상 왜곡 보정부(22)는 영상 획득부(12)에서 획득된 영상의 왜곡을 보정하는 기능을 수행한다. 영상 획득부(12)가 어안 렌즈 또는 광각 렌즈를 포함하는 경우, 영상 획득부(12)를 통해 획득된 영상은 왜곡(radial distortion)을 포함한다. 이에 따라 영상 획득부(12)는 사전에 획득된 카메라 파라미터를 이용하여 영상의 왜곡을 제거한다. The image distortion correction unit 22 performs a function of correcting the distortion of the image acquired by the image acquisition unit 12. [ When the image acquiring unit 12 includes a fish-eye lens or a wide-angle lens, the image acquired through the image acquiring unit 12 includes a radial distortion. Accordingly, the image obtaining unit 12 removes the image distortion using the camera parameters obtained in advance.

영상 품질 점검부(24)는 획득된 영상의 가용성을 판단하는 기능을 수행한다. 영상 획득부(12)로 직사 광선이 조사되거나 영상 획득부(12)가 테이블과 같은 장애물에 의해 가려지는 경우 영상 획득부(12)에서 획득된 영상은 이동 로봇의 위치 인식에 사용되기 부적합할 수 있다. 이에 따라 영상 품질 점검부(24)는 획득된 영상을 점검하여 획득된 영상이 부적합한 경우 이를 배제하는 기능을 수행한다. 일례로서, 영상 품질 점검부(24)는 획득된 영상의 명도를 기준으로 명도가 너무 높거나 낮은 경우 부적합한 영상으로 처리할 수 있다. 획득된 영상이 배제되는 경우 주제어부(30)는 자이로스코프(44)나 엔코더(46)로부터 획득된 주행 기록정보를 바탕으로 이동 로봇(10)의 이동을 제어할 수 있다. The image quality checking unit 24 performs a function of determining the availability of the acquired image. The image obtained by the image obtaining unit 12 may be inadequate to be used for the position recognition of the mobile robot when direct rays are irradiated to the image obtaining unit 12 or the image obtaining unit 12 is obstructed by an obstacle such as a table have. Accordingly, the image quality checking unit 24 checks the obtained image and performs a function of excluding the acquired image if it is not proper. As an example, the image quality checking unit 24 may process an image that is inappropriate if the brightness is too high or low based on the brightness of the acquired image. When the acquired image is excluded, the main control unit 30 can control the movement of the mobile robot 10 based on the travel record information obtained from the gyroscope 44 or the encoder 46.

두 영상을 상호 비교하는 스테레오 매칭(stereo matching)에서 영상 간의 변이(disparity)를 d, 초점 거리(focal length)를 F, 눈으로부터의 거리(distance from eyes)를 z라 하고, 베이스라인(baseline)을 B라 할 때 이들간의 관계는 다음의 수학식 1과 같이 주어진다. The disparity between images is denoted by d, the focal length by F, the distance from eyes by z, and the baseline by stereo matching in which two images are compared with each other. B is given by the following equation (1).

Figure 112009046357918-pat00001
Figure 112009046357918-pat00001

이를 일반화하여 연속된 영상 시퀀스(sequence)에서 단기저(short baseline)는 영상 간의 차이가 크지 않고 정해진 범위 내에서 영상 간의 특징점 매칭이 이루어지는 경우로 정의될 수 있다. 이에 대해 장기저(wide baseline)은 영상 간의 시점(viewpoint) 차이가 크거나 기하학적 변형이나 조명 변화 등을 내포하여 영상 간 특징점 매칭이 이루어지지 않는 경우를 의미한다. In general, a short baseline in a sequence of consecutive images can be defined as a case in which the difference between images is not large and the feature point matching between images is performed within a predetermined range. In contrast, the wide baseline means that the feature point matching between the images is not performed due to a large difference in viewpoints between images, geometric deformation or illumination change.

영상 품질 점검부(24)는 추가적인 기능으로서 영상 획득부(12)에 의해 획득된 영상의 명도 변화를 감지하여 이동 로봇(10)이 테이블과 같은 장애물의 하부로 이동하는 것을 감지할 수 있다. 예컨대, 획득된 영상의 명도 평균 및 분산을 이용하여 이동 로봇(10)의 영상 획득부(12)가 장애물에 의해 차폐되는 것을 감지한다. The image quality checking unit 24 may sense a change in brightness of the image acquired by the image acquiring unit 12 as an additional function and sense that the mobile robot 10 moves to the lower part of the obstacle such as a table. For example, the image obtaining unit 12 of the mobile robot 10 is detected to be blocked by an obstacle using the brightness average and variance of the obtained image.

만약 이동 로봇(10)이 테이블의 하부로 들어가게 되는 경우라면, 영상 프레임의 명도 평균이 점차 감소하면서 명도의 분산값이 커졌다가 작아지게 될 것이다. 계산량을 감소시키는 방법으로서는 영상 획득부(12)에서 획득된 영상을 이동 로봇(10)의 진행방향을 기준으로 4등분하여 분할된 각 영역의 명도 평균값을 이용하여 전체 영상에 대한 평균과 분산을 구하여 이동 로봇(10)의 차폐 여부를 판단할 수 있다. If the mobile robot 10 enters the lower part of the table, the brightness average of the image frame gradually decreases and the variance of the brightness becomes larger and smaller. As a method of reducing the amount of calculation, an average and variance of the entire image are obtained by dividing the image obtained by the image acquiring unit 12 into four equal parts based on the traveling direction of the mobile robot 10, It is possible to determine whether or not the mobile robot 10 is shielded.

영상 획득부(12)가 장애물에 의해 차폐되는 경우에는 영상을 기반으로 한 이동 로봇(10)의 위치 제어가 불가능하게 되므로, 주제어부(30)는 자이로스코프와 같은 관성 센서(44) 및 엔코더(46) 정보를 바탕으로 하여 이동 로봇(10)의 이동을 제 어하도록 한다. When the image acquisition unit 12 is shielded by the obstacle, the position control of the mobile robot 10 based on the image becomes impossible. Therefore, the main control unit 30 can control the inertia sensor 44 and the encoder 46) of the mobile robot 10 based on the information.

특징점 추출부(26)는 영상 획득부(12)로부터 획득된 공간에 대한 영상으로부터 특징점(feature)을 추출한다. 특징점으로서는, 천장의 코너(corner), 천장에 설치된 램프, 또는 공간의 출입문 등을 들 수 있다. 그런데, 램프 또는 출입문을 이용하여 특징점을 추출하기 위해서는 계산량이 많아지는 단점이 있어 주로 천장의 코너 부분을 특징점으로 사용하는 것이 바람직하다. 다만, 본 발명에 있어서 특징점 추출부(26)에서 추출되는 특징점은 코너에 한정되는 것은 아니며 상술한 여러 특징점뿐만 아니라 공간에 존재하는 다양한 객체를 특징점으로 활용할 수 있음은 물론이다. The feature point extraction unit 26 extracts feature points from the image of the space obtained from the image acquisition unit 12. The characteristic points include a corner of a ceiling, a lamp installed on a ceiling, or a door of a space. However, in order to extract feature points using a lamp or a door, it is preferable to use the corner portions of the ceiling as feature points because the calculation amount increases. However, the minutiae extracted by the minutiae extraction unit 26 in the present invention are not limited to the corners, and it is needless to say that various minutiae existing in the minutiae may be utilized as minutiae points.

특징점으로서 코너를 추출하는 기법을 설명하면 다음과 같다. A technique of extracting corners as feature points will be described below.

코너 추출 기법의 일례로는 해리스 코너 검출법을 예로 들 수 있는데, Chris Harris and Mike Stephens는 “A Combined Corner and Edge Detector(Proceedings of The Fourth Alvey Vision Conference, Manchester, pp 147-151. 1988)"에서 영상에서 코너를 추출하는 방법을 제시한 바 있다. Harris 등의 방법은 영상에서 에지(edge)를 따른 이동(shift)은 별 차이가 없지만 에지에 수직인 방향으로의 이동은 큰 차이를 발생시킨다는 것과 코너에서는 모든 방향으로의 이동이 큰 차이를 발생시킨다는 점에 착안한 것이다. An example of a corner extraction technique is Harris Corner Detection, which is described in Chris Harris and Mike Stephens in "A Combined Corner and Edge Detector (Proceedings of the Fourth Alvey Vision Conference, Manchester, pp. 147-151, 1988) The method of Harris et al. Has shown that there is no significant difference in the shift along the edge in the image but that the shift in the direction perpendicular to the edge produces a large difference, The movement in all directions produces a large difference.

영상의 인텐시티(intensity)를 I, 영상에서의 이동 (x, y)에 따른 변화를 E라고 할 때, E는 다음의 수학식 2와 같이 주어진다. Assuming that the intensity of an image is denoted by I and the change with respect to a shift (x, y) in an image is denoted by E, E is given by Equation 2 below.

Figure 112009046357918-pat00002
Figure 112009046357918-pat00002

위 수학식 1에서, w는 이미지 윈도우(image window)를 나타낸다. In Equation (1), w represents an image window.

상기 수학식 2는 수학식 3과 같이 표현할 수 있으며, 수학식 3에서 행렬 M은 영상 인텐시티의 그래디언트(gradient)를 나타내며 수학식 4에 의해 구해진다. Equation (2) can be expressed by Equation (3). In Equation (3), a matrix M represents a gradient of an image intensity and is obtained by Equation (4).

Figure 112009046357918-pat00003
Figure 112009046357918-pat00003

Figure 112009046357918-pat00004
Figure 112009046357918-pat00004

행렬 M의 고유치(eigenvalue)를 구하여 그 크기가 각각 일정 크기 이상이며 그 상대적인 비가 일정 크기 이하이면 모든 방향으로 영상의 인텐시티 변화가 심한 것으로 판정할 수 있다. 이를 코너의 반응 함수(response function)로 정의하며, 수학식 4와 같이 표현한다. The eigenvalue of the matrix M can be determined and it can be determined that the intensity variation of the image is severe in all directions if the magnitudes are larger than a certain size and their relative ratios are less than a certain size. This is defined as a response function of the corner, and is expressed by Equation (4).

Figure 112009046357918-pat00005
Figure 112009046357918-pat00005

수학식 5에서 R값이 0보다 크고 R값이 국소 최대점(local Maxima)가 되는 점을 코너로 결정할 수 있다. In the equation (5), a point where the R value is greater than 0 and the R value is the local maximum point can be determined as a corner.

기술자 생성부(28)는 특징점 추출부(26)에서 추출된 특징점에 대한 기술자를 생성하는 기능을 수행한다. 특징점에 대한 기술자로서는 SIFT(Scale Invariant Feature Transform) 또는 SURF(Speeded Up Robust Features) 등이 활용될 수 있다. SIFT 기술자는 특징점 주변의 영상의 밝기 변화 분포 등을 이용하여 특징점을 표현하는 방식이고, SURF 기술자는 Herbert Bay 등이 2006년에 제안한 것으로서 SIFT에 대비해서 기술자의 차원을 줄여서 속도를 향상시키고 Haar Wavelet 적용으로 단순 그래디언트에 비해 강인하다는 특징이 있다.The descriptor generating unit 28 performs a function of generating a descriptor for the minutiae extracted by the minutiae point extracting unit 26. [ As descriptors for minutiae points, Scale Invariant Feature Transform (SIFT) or Speed Up Robust Features (SURF) can be utilized. The SIFT descriptor is a method of expressing feature points using the distribution of brightness changes around the feature points. The SURF descriptor proposed by Herbert Bay et al. In 2006 is to improve the speed by reducing the dimension of the descriptor in preparation for SIFT and to apply the Haar wavelet It has a characteristic that it is stronger than a simple gradient.

본 발명에서는 SIFT나 SURF에 비해 오인식률이 낮고 수행 시간이 짧으며 회전 변화에 강인한 지역적 방향 기술자를 활용하는 것을 새롭게 제안하며, 상기 지역적 방향 기술자에 대해서는 후술하도록 한다.In the present invention, it is newly proposed to utilize a regional direction descriptor which is low in false recognition rate, short in execution time and robust against rotation change as compared with SIFT or SURF, and the regional direction descriptor will be described later.

주제어부(30)는, 주행 모드 선택부(32), 특징점 관리부(34), 지도 관리부(36), 및 주행 제어부(38)를 포함한다. The main control unit 30 includes a traveling mode selection unit 32, a minutia point management unit 34, a map management unit 36, and a travel control unit 38.

주행 모드 선택부(32)는 특징점 추출부(26)에서 추출된 특징점과 관성 센서(44) 또는 엔코더(46)로부터 획득된 주행기록 정보를 이용하여 이동 로봇의 자세 및 위치를 제어하는 제 1 주행 모드와, 영상 정합에 의한 주행 제어를 수행하는 제 2 주행 모드 중 어느 하나의 주행 모드를 선택하여 이동 로봇의 주행이 제어되도록 하는 기능을 수행한다. 제 1 주행 모드와 제 2 주행 모드에 대한 자세한 설명은 후술하도록 한다. The traveling mode selecting unit 32 selects the traveling direction of the first traveling (traveling) route, which controls the posture and the position of the mobile robot, using the minutiae extracted by the minutiae point extracting unit 26 and the traveling record information obtained from the inertia sensor 44 or the encoder 46 Mode and a second driving mode in which the traveling control by image matching is performed to select the traveling mode so that the traveling of the mobile robot is controlled. Details of the first traveling mode and the second traveling mode will be described later.

특징점 관리부(34)는, 신규로 획득된 특징점에 대한 정보를 특징점 데이터베이스(미도시)에 등록하는 기능을 수행하는 한편, 획득된 영상에서 추출된 특징점을 특징점 데이터베이스에 기 등록된 특징점과 매칭하여 일치하는 특징점을 검출하는 기능을 수행한다. 특징점 관리부(34)에서 수행하는 특징점 매칭은 특징점을 표상하는 기술자 간의 유클리드 거리(Euclidian Distance)를 계산하여 판별할 수 있다. The minutia management unit 34 performs a function of registering information about newly obtained minutia points in a minutia point database (not shown), and matches minutiae points extracted from the obtained minutia with previously registered minutiae points in the minutia point database To detect a feature point. The feature point matching performed by the feature point management unit 34 can be determined by calculating the Euclidean distance between the descriptors representing the feature points.

지도 관리부(36)는 이동 로봇(10)의 영상 획득부(12)에서 획득된 영상, 이동 로봇(10)의 이동 방향과 거리 등의 주행 정보, 특징점의 위치 등을 바탕으로 이동 로봇(10)이 위치한 공간에 대한 지도를 생성하고 갱신하는 기능을 수행한다. 경우에 따라서는 상기 공간에 대한 지도가 이동 로봇(10)에 미리 제공될 수 있으며, 이 경우에는 공간에 위치한 장애물 등의 정보와 특징점 정보를 바탕으로 지도 관리부(36)는 지도를 계속적으로 갱신하도록 할 수 있다. The map management unit 36 manages the position of the mobile robot 10 based on the images obtained by the image acquisition unit 12 of the mobile robot 10, the travel information such as the moving direction and distance of the mobile robot 10, And creates and updates a map of the space in which the location is located. In some cases, the map of the space may be provided to the mobile robot 10 in advance. In this case, the map management unit 36 continuously updates the map based on the information of the obstacle located in the space and the minutia information can do.

주행 제어부(38)는 이동 로봇(10)의 현재 위치 및 주행 정보를 바탕으로 이동 로봇(10)의 주행을 제어하는 기능을 수행한다. 이동 로봇(10)의 주행을 위한 일 실시 형태로서, 이동 로봇(10)은 좌륜(미도시)과 우륜(미도시)를 구비하고, 좌륜과 우륜의 구동을 위한 로봇 구동부(40)로서 좌륜 구동 모터(미도시)와 우륜 구동 모터(미도시)를 구비할 수 있다. 주행 제어부(38)는 좌륜 구동 모터와 우륜 구동 모터 각각의 회전을 제어함으로써 이동 로봇(10)의 전진, 후진, 좌회전, 및 우회전 등의 주행이 가능하도록 할 수 있다. 이 경우 좌륜 구동모터와 우륜 구동모터에는 각각 엔코더(46)가 구비되어 좌륜 구동모터와 우륜 구동모터의 구동 정보를 획득한 다. The travel controller 38 controls the travel of the mobile robot 10 based on the current position and travel information of the mobile robot 10. As one embodiment for running the mobile robot 10, the mobile robot 10 includes a left wheel (not shown) and a right wheel (not shown), and as the robot driving unit 40 for driving the left wheel and the right wheel, A motor (not shown) and a right wheel drive motor (not shown). The travel control unit 38 can control the rotation of the left wheel drive motor and the right wheel drive motor so that the mobile robot 10 can travel forward, backward, leftward, and rightward. In this case, the left and right wheel drive motors and the right wheel drive motor are respectively provided with encoders 46 to acquire drive information of the left and right wheel drive motors.

한편, 상기 주행 제어부(38)는 확장된 칼만 필터(EKF : Extended Kalman Filter)를 활용하여 현재 특징점의 위치와 이동 로봇의 위치에 기반하여 이후의 특징점의 위치와 이동 로봇의 위치를 예측함으로써 이동 로봇(10)의 주행을 제어하도록 설계될 수 있다. On the other hand, the travel control unit 38 estimates the position of the following minutia point and the position of the mobile robot based on the position of the current minutia point and the position of the mobile robot using the extended Kalman filter (EKF) (10). ≪ / RTI >

상술한 구성에서 관성 센서(44)는 관성을 감지하여 이동 로봇(10)의 헤딩(heading) 방향을 확인할 수 있도록 하는데, 관성 센서(44)의 센싱 정보와 엔코더(46)의 센싱 정보는 이동 로봇(10)의 주행 정보(odometry)를 구성한다. 만약, 관성 센서(44)의 센싱 정보와 엔코더(46)의 센싱 정보가 정확하다면 이동 로봇(10)은 이들로부터 획득된 주행 정보만으로 완벽하게 제어될 수 있을 것이다. 그러나, 실제 환경에서는 구동 바퀴의 슬립(slip)이나 센서 정보의 오류로 인해 이동 로봇(10)의 실제 위치와 상기 주행 정보에 근거하여 계산된 위치가 다를 수 있다. 이러한 오차는 영상 획득부(12)에 의해 획득된 영상을 함께 이용하면 보정될 수 있다. The sensing information of the inertial sensor 44 and the sensing information of the encoder 46 are transmitted to the mobile robot 10 via the mobile robot 10, (Odometry) of the vehicle 10. If the sensing information of the inertial sensor 44 and the sensing information of the encoder 46 are correct, the mobile robot 10 can be perfectly controlled only by the travel information obtained from the sensing information. However, in the actual environment, the actual position of the mobile robot 10 may be different from the calculated position based on the driving information due to a slip of the driving wheel or an error of the sensor information. This error can be corrected by using the images acquired by the image acquiring unit 12 together.

상술한 바와 같이, 본 발명에 따른 이동 로봇(10)의 기술자 생성부(28)는 영상의 특징점에 대한 기술자를 생성하는데, 본 발명에서는 특징점에 대한 기술자로서 지역적 방향 기술자를 제안한다.As described above, the descriptor generator 28 of the mobile robot 10 according to the present invention generates a descriptor for the feature points of the image. In the present invention, a local direction descriptor is proposed as a descriptor for the feature points.

지역적 방향 기술자는 특징점 주변의 그래디언트(gradient)를 통해 지역적 방향(local orientation)을 도출하고 지역적 방향간의 관계를 바탕으로 생성됨을 특징으로 한다. The local direction descriptor is characterized by a local orientation derived through a gradient around the minutiae and based on the relationship between the local directions.

도 2는 본 발명의 바람직한 실시예에 따른 이동 로봇에 있어서 지역적 방향 기술자의 생성 과정을 도시한 도면이다. 2 is a diagram illustrating a process of generating a local direction descriptor in a mobile robot according to a preferred embodiment of the present invention.

영상 획득부(12)로부터 획득된 영상을 입력받고(S50), 영상의 각 픽셀에 대한 그래디언트를 계산한다(S52). 그래디언트 계산은 영상 내의 각 픽셀에 대하여 도 3과 같은 윈도우를 적용하여 수평 그래디언트(dx) 및 수직 그래디언트(dy)를 계산함으로써 이루어질 수 있다. 수평 그래디언트(dx)는 수평 윈도우의 각 값을 픽셀의 인텐시티 값에 곱한 합으로 구할 수 있으며, 수직 그래디언트(dy)는 수직 윈도우의 각 값을 픽셀의 인텐시티 값에 곱한 합으로 구할 수 있다. The image obtained from the image acquiring unit 12 is input (S50), and a gradient for each pixel of the image is calculated (S52). The gradient calculation can be performed by calculating the horizontal gradient dx and the vertical gradient dy by applying the window shown in Fig. 3 for each pixel in the image. The horizontal gradient dx can be obtained by multiplying each value of the horizontal window by the intensity value of the pixel, and the vertical gradient dy can be obtained by multiplying each value of the vertical window by the intensity value of the pixel.

특징점 추출부(26)에서 추출된 특징점(바람직하게는 코너)의 좌표를 입력받아(S54), 특징점을 중심으로 한 영상 패치를 설정한다(S56). 영상 패치를 설정함에 있어서 일 실시예로 9×9 픽셀을 특정할 수 있다. 다만, 실제 실시에 있어서 영상 패치의 크기는 상기한 바에 한정되는 것은 아니며 입력 영상과 적용 환경에 따라 가변적일 수 있음은 물론이다. The coordinates of the minutiae (preferably a corner) extracted by the minutiae extraction unit 26 are received (S54), and an image patch centered on the minutiae is set (S56). In setting the image patch, 9x9 pixels may be specified as an example. However, in actual practice, the size of the image patch is not limited to the above, and may be variable depending on the input image and the application environment.

영상 패치 내 각 픽셀에 대한 그래디언트를 이용하여 각 픽셀에서 그래디언트의 위상(phase)과 크기(magnitude)를 계산한다(S58). 위상은 수학식 5에 의해, 크기는 수학식 6에 의해 계산될 수 있다. 수학식 6과 7에서 dx는 특정 픽셀에 대한 수평 그래디언트이고, dy는 특정 픽셀에 대한 수직 그래디언트이다. The phase and the magnitude of the gradient are calculated at each pixel using the gradient for each pixel in the image patch (S58). The phase can be calculated by Equation (5) and the magnitude can be calculated by Equation (6). In Equations 6 and 7, dx is a horizontal gradient for a particular pixel, and dy is a vertical gradient for a particular pixel.

Figure 112009046357918-pat00006
Figure 112009046357918-pat00006

Figure 112009046357918-pat00007
Figure 112009046357918-pat00007

다음으로, 영상 패치를 더 작은 영역으로 재분할하여 다수 개의 서브 영역(Sub Region)을 생성한다(S60). 발명의 실시에 있어서 9×9 영상 패치의 경우 3×3 서브 영역으로 분할하여 9개의 서브 영역으로 구분할 수 있다. Next, the image patch is re-divided into a smaller area to generate a plurality of sub regions (S60). In the practice of the invention, the 9 × 9 image patch can be divided into 3 × 3 sub-regions and divided into 9 sub-regions.

각각의 서브 영역에 대하여, 서브 영역을 구성하는 각 픽셀별 위상에 대한 히스토그램(histogram)을 작성하여 이에 대한 피크 값에 따른 위상을 해당 서브 영역의 지역적 방향으로 지정한다(S62). 도 4의 (a)는 영상 패치의 일례를 나타내며, (b)는 영상 패치의 서브 영역에 대한 지역적 방향 정보를 나타낸다. 도 4의 (b)의 경우 총 9개의 지역적 방향 정보가 추출되었음을 확인할 수 있다. For each sub-region, a histogram is generated for each pixel constituting the sub-region, and a phase corresponding to the peak value is designated as the regional direction of the sub-region (S62). FIG. 4A shows an example of an image patch, and FIG. 4B shows regional direction information for a sub-area of an image patch. In the case of FIG. 4 (b), it can be confirmed that a total of nine pieces of regional direction information have been extracted.

이렇게 추출된 서브 영역의 지역적 방향 정보를 두 개씩 쌍을 지어 pair-wise 조합을 생성하고, 각 조합의 국지적 방위 정보의 각도 차이를 기술자로서 기록한다(S64). 9개의 국지적 방위가 추출된 경우 pair-wise 조합은 총 36개가 생성될 것이며(1-2, 1-3, 1-4,..., 8-9), 특정 특징점에 대한 기술자는 36개의 값으로서 나타낼 수 있게 된다. 다만, 본 발명에 따른 기술자에 있어서 9개의 지역적 방향 정보를 pair-wise 조합으로 생성하는 것은 지역적 방향 정보의 관계를 생성하는 일례를 설명한 것으로 이해되어야 할 것이며, 지역적 방향 정보는 그 자체 또는 다른 조합에 따른 기술자로서 이용될 수 있음은 물론이다. A pair-wise combination is created by pairing the two pieces of the geographical direction information of the sub region thus extracted, and the angle difference of the local orientation information of each combination is recorded as a descriptor (S64). If nine local orientations are extracted, a total of 36 pair-wise combinations will be generated (1-2, 1-3, 1-4, ..., 8-9) As shown in FIG. However, it should be understood that generating the nine regional direction information in pair-wise combination in the descriptor according to the present invention is described as an example of generating the relation of the regional direction information, and the regional direction information itself or another combination It will be understood that the invention may be practiced otherwise than as described.

이상에서 설명한 지역적 방향 기술자는 기존의 다른 기술자에 비해 오인식률 이 줄어들고, 특징점 매칭을 위한 시간이 단축되며 회전 변화에 강인하다는 장점이 있다. The local direction descriptor described above has a merit that the recognition rate is reduced, the time for the feature point matching is shortened, and the rotation direction is robust against the change of the rotation direction.

다음으로 주행 모드 선택부(32)의 기능 및 주행 모드 선택부(32)의 주행 모드 선택에 따른 이동 로봇(10)에 대한 주행 제어를 설명한다. Next, the function of the travel mode selecting unit 32 and the travel control for the mobile robot 10 according to the travel mode selection of the travel mode selecting unit 32 will be described.

이러한 관계를 이동 로봇(10)의 주행 제어에 적용하면 다음과 같다. This relationship is applied to the traveling control of the mobile robot 10 as follows.

이동 로봇(10)은 관성 센서(44)와 엔코더(46)의 주행 정보를 바탕으로 위치를 추정하고 실시간으로 지도를 생성한다. 주행 제어부(38)는 EKF를 활용하여 이동 로봇(10)의 이동 방향과 이동 거리로부터 추정된 매칭 범위를 이용하여, 영상 획득부(12)에서 순차적으로 획득되는 영상 간의 특징점 매칭을 수행한다. 이를 본 발명에서는 '단기저 주행 모드'라고 정의한다. The mobile robot 10 estimates the position based on the travel information of the inertial sensor 44 and the encoder 46 and generates a map in real time. The travel control unit 38 performs feature point matching between the images sequentially acquired in the image obtaining unit 12 using the estimated range based on the moving direction and the moving distance of the mobile robot 10 using the EKF. In the present invention, this is defined as a 'short-term low driving mode'.

단기저 주행 모드에서는, 주행 제어부(38)의 EKF에 의해 예측되는 범위 내에서 이동 로봇(10)의 위치 및 주행을 제어하는데, 영상 획득부(12)에서 획득된 영상을 처리하여 특징점을 추출하고 특징점에 대한 기술자를 생성하며, 생성된 기술자를 이용하여 특징점 매칭을 수행함으로써 이동 로봇(10)의 정확한 위치를 추정하여 주행 정보(odometry)에 따른 이동 로봇(10)의 위치를 보정한다. In the short-term low-running mode, the position and travel of the mobile robot 10 are controlled within the range predicted by the EKF of the travel control unit 38. The image obtained by the image obtaining unit 12 is processed to extract feature points And the position of the mobile robot 10 according to the odometry is corrected by estimating the exact position of the mobile robot 10 by performing the feature point matching using the generated descriptor.

그런데 이동 로봇(10)이 관성 센서(44)와 엔코더(46)로부터 획득한 주행 정보에 심각한 오류가 발생하는 경우에는 주행 제어부(38)에서 EKF를 이용하여 이동 로봇(10)의 위치를 추정하고 영상의 특징점 추출을 통해 위치를 보정하는 것이 불가능해진다. 예컨대 이동 로봇(10)이 이동 중에 장애물에 끼인 경우 로봇 구동부(40)의 구동 모터가 회전하더라도 이동 로봇(10)은 위치가 변화하지 않는다. 그 러나 엔코더(46)는 구동 모터의 회전을 감지하므로 주행 제어부(38)는 이동 로봇(10)이 이동하고 있는 것으로 판단하게 된다. 이 경우 이동 로봇(10)의 위치 추정은 어렵게 된다. 또는, 이동 로봇(10)의 주행 바퀴가 슬립되어 주행이 이루어지지 않거나 원하지 않는 방향으로 회전하는 경우에도 이동 로봇(10)의 위치 추정에 따른 오차는 극복될 수 없게 된다. 이러한 경우에는 이동 로봇(10)은 상술한 단기저 주행 모드를 포기하고 장기저 주행 모드로 주행하도록 제어된다. However, when the mobile robot 10 generates a serious error in the travel information acquired from the inertial sensor 44 and the encoder 46, the travel controller 38 estimates the position of the mobile robot 10 using the EKF It becomes impossible to correct the position by extracting the feature point of the image. The position of the mobile robot 10 does not change even if the driving motor of the robot driving unit 40 rotates when the mobile robot 10 is caught by an obstacle while moving. However, since the encoder 46 senses the rotation of the driving motor, the travel control unit 38 determines that the mobile robot 10 is moving. In this case, the position estimation of the mobile robot 10 becomes difficult. Also, even if the traveling wheel of the mobile robot 10 slips and is not traveling or rotating in an undesired direction, the error due to the position estimation of the mobile robot 10 can not be overcome. In this case, the mobile robot 10 is controlled to abandon the short-term low-driving mode and to run in the long-term low-driving mode.

장기저 주행 모드에서는 관성 센서(44) 및 엔코더(46)의 주행 정보를 이용하지 않고 영상 획득부(12)에서 획득한 영상의 매칭을 통해 이동 로봇(10)의 위치를 판단하고 주행을 제어한다. In the long term low running mode, the position of the mobile robot 10 is determined through matching of the images acquired by the image acquisition unit 12 without using the travel information of the inertial sensor 44 and the encoder 46, and the travel is controlled .

그런데, 단기저 주행 모드에서는 이동 로봇(10)의 주행 정보와 추정된 위치를 바탕으로 영상에서 추출한 특징점을 활용하게 되는바, 특징점의 정확도가 높지 않은 것이 일반적이다. 이에 따라 서로 다른 위치의 특징점이 같은 것으로 오인식될 수 있는 우려가 있다. 그러나 장기저 주행 모드에 있어서는 영상 정합만을 활용하여 이동 로봇(10)의 위치를 추정하게 되므로 특징점의 정확도다 높을 필요가 있다. However, in the short-term low driving mode, the feature points extracted from the image are utilized based on the traveling information of the mobile robot 10 and the estimated position, so that the accuracy of the feature points is generally not high. Accordingly, there is a concern that the feature points of different positions may be mistaken as being the same. However, in the long run mode, since the position of the mobile robot 10 is estimated using only the image matching, the accuracy of the feature points needs to be high.

특징점 추출부(26)에서는 특징점의 강도가 소정값(제 1 기준값) 이상의 것을 특징점으로 추출하고 기술자 생성부(28)에서 특징점에 대한 기술자를 생성한다. 이들은 단기저 주행 모드에서 사용된다. 장기저 주행 모드에서는 보다 정확도가 높은 특징점이 요구되므로, 특징점 추출부(26)에서 추출된 특징점 중 특징점의 강도가 제 2 기준값(〉제 1 기준값) 이상인 특징점은 특징점 관리부(34)에서 '핵심 영역 특징점(keyarea feature)'으로 관리한다. 특징점으로 영상의 코너를 사용하는 경우라면, 수학식 4에 따른 코너 반응 함수값을 기준으로 특징점을 추출하게 될 것이며, 코너 반응 함수값이 제 2 기준값 이상이라면 핵심 영역 특징점으로 설정하게 될 것이다. The feature point extracting unit 26 extracts feature points that are greater than or equal to a predetermined value (first reference value) of the feature points, and the descriptor generating unit 28 generates descriptors for the feature points. These are used in the short-term low-run mode. In the long term low running mode, feature points having higher accuracy are required. Therefore, the feature points having the intensity of the feature points of the feature points extracted by the feature point extraction unit 26 equal to or greater than the second reference value (the first reference value) Keyarea feature '. If the corner of the image is used as the minutiae point, the minutiae point will be extracted based on the corner reaction function value according to Equation 4. If the corner reaction function value is greater than or equal to the second reference value,

바람직하게는 상기 핵심 영역 특징점은 이동 로봇(10)이 활동하는 공간에서 일정 거리를 두고 설정되도록 한다. 이는 핵심 영역 특징점이 특정 영역에 중첩되는 것을 방지하기 위함이다. 이를 위해 핵심 영역 특징점의 대상이 특정 영역에 중첩되어 추출된 경우에는 어느 하나를 선택하는 것이 바람직하다. Preferably, the core region feature points are set at a certain distance in a space where the mobile robot 10 is active. This is to prevent the core region feature points from overlapping in a specific region. For this purpose, it is preferable to select one of the key region feature points in a case where an object of the key region feature point is superimposed on a specific region and extracted.

한편, 핵심 영역 특징점에 대해서는 추출된 코너 주변의 영상을 이용하여 지역적 방향 기술자를 생성하고 kd-tree 형태로 전체 영상으로 표상하도록 하는 것이 바람직하다. 장기저 주행 모드에 있어서는 영상 획득부(12)에서 획득된 영상에서 특징점을 kd-tree 형태로 추출하고 기 등록된 핵심 영역 특징점과의 유사도를 판단한다. 이 때 계산 속도를 높이기 위하여 BBF(Best Bin First) 알고리즘을 적용하고 RANSAC(Random Sample Concensus) 알고리즘을 사용하여 에러율을 낮추도록 할 수 있다. On the other hand, for the feature points of the core region, it is preferable to generate a local direction descriptor using the image around the extracted corner and to represent the whole image in a kd-tree form. In the long term low running mode, the feature point is extracted from the image obtained by the image obtaining unit 12 in a kd-tree form, and the similarity with the previously registered key region feature point is determined. In this case, the BBF (Best Bin First) algorithm can be applied and the RANSAC (Random Sample Concensus) algorithm can be used to reduce the error rate.

주행 모드 선택부(32)는 기본적인 상황에서는 단기저 주행 모드(제 1 주행 모드)로 이동 로봇(10)의 주행 제어가 이루어지도록 선택하고, 상기한 바와 같이 특수한 상황에서는 장기저 주행 모드(제 2 주행 모드)로 이동 로봇(10)의 주행 제어가 이루어지도록 선택한다. 장기저 주행 모드로 이동 로봇(10)의 주행 제어가 이루어지는 경우에, 주제어부(30)는 영상 획득부(12)가 획득된 영상에서 핵심 영역 특징점을 추출하고 이를 기 저장된 핵심 영역 특징점과 매칭시켜 이동 로봇(10)의 주행을 제어하고, 이동 로봇(10)의 지도상의 위치가 복구되는 경우 다시 단기저 주행 모드로 변환한다. The traveling mode selection unit 32 selects the traveling control of the mobile robot 10 to be performed in the short-term low traveling mode (first traveling mode) in the basic situation, and selects the long-term low traveling mode Driving mode of the mobile robot 10 is selected. When the travel control of the mobile robot 10 is performed in the long term low running mode, the main control unit 30 extracts the key region feature points from the acquired image by the image obtaining unit 12 and matches the previously stored key region feature points The travel of the mobile robot 10 is controlled, and when the position on the map of the mobile robot 10 is restored, the mode is again switched to the short-term low-travel mode.

즉, 코너 추출 방법은 기본적으로 해리스 코너(harris corner) 방법과 동일하지만, KLT 알고리즘을 바로 적용하기에는 청소로봇의 경우 영상 간의 차이가 큽니다. 그렇다고 장기저 주행모드(widebaseline)의 대표격인 SIFT 알고리즘으로 영상을 매칭하는 경우에는 시간이 너무 걸려서 실시간에는 적합하지 않습니다. That is, the corner extraction method is basically the same as the Harris corner method. However, in order to directly apply the KLT algorithm, there is a large difference between the images in a cleaning robot. However, matching the images with the SIFT algorithm, which is a representative of the long-run mode (widebaseline), takes too much time and is not suitable for real-time.

상술한 바와 같이 본 발명에서는 상기 이동 로봇이 대상 영역의 주행을 위하여 2가지 지도를 구축하며, 단기저 주행시에 생성하는 메트릭 지도(metric map)와 장기저 주행모드시 위치 복구를 위하여 상향 영상을 기반으로 하는 토폴로지 지도(topological map)을 구축합니다. As described above, according to the present invention, the mobile robot constructs two maps for traveling in the target area, and the metric map generated at the time of short-term low driving and the upward image for the position restoration in the long- To create a topological map of the map.

상기 메트릭 지도는 KLT 트래커(KLT tracker)처럼 추적하기 좋은 코너들을 선택하여, 코너 반응함수에 따라 코너들을 정렬한 후 지역적으로 균일하게 분포하여 EKF를 이용하여 오도메트리 정보를 참조하여 지도 랜드마크를 생성할 수 있도록 합니다. 본 발명에서는 상기 메트릭 지도(metric map)에서 코너 주위에 개별적으로 방향적 기술자를 이용하여 랜드마크를 표현함으로써, 어파인(affine) 변형이 일어나는 벽면이나 조명변화에 강인하게 개별적으로 강한 구분력을 지닌다. The metric map selects corners that are likely to be tracked, such as a KLT tracker, arranges the corners according to the corner response function, distributes them locally uniformly, refers to the odometry information using the EKF, To be created. According to the present invention, the landmark is expressed using the directional descriptors individually around the corners in the metric map, thereby having strong discrimination power against the wall surface or the illumination change where the affine transformation takes place .

또한 토폴로지 지도(topological map)는 메트릭 지도(metric map)에서 추출된 코너들의 반응함수의 합이 정해진 문턱값(threshold)보다 큰 영상에 대하여 메트릭 지도와 달리 사물인식과 같이 코너를 보다 많이 추출하고 국지적 최대 값(local maxima)의 제한을 없앤다. 그리고 많이 추출된 코너 주위에서 지역적 방향기술자를 생성하고 이를 kd tree 형태로 전체를 나타낸다. 나중에 이를 이용하여 이미지 간의 포즈를 추정함으로써 로봇의 위치를 복구할 수 있다. The topological map also extracts more corners from the metric map, such as object recognition, than the metric map, for images whose sum of response functions of the corners extracted from the metric map is larger than a predetermined threshold, Eliminates the limit on the local maxima. Then, a local direction descriptor is generated around the extracted corners, and the whole is represented in the form of a kd tree. The position of the robot can be restored by estimating the pose between the images later.

그러므로, 본 발명에서는 이동 로봇이 제 1 주행 모드로 주행을 시작하여 키드냅 인지하는 방법(바닥 IR 센서 또는 자이로 오도메트리를 이용)이나 일정 프레임 이상 동안 메트릭 지도 매칭이 실패한 경우에 상기 제 2 주행 모드로 전환한다. 상기 제 2 주행 모드에서는 토폴로지 지도(topological map)에 KD 트리 형태로 저장된 영상과 BBF, RANSAC알고리즘을 이용하여 매칭되는 경우 위치 복원을 시도한다.Therefore, in the present invention, when the mobile robot starts traveling in the first traveling mode and recognizes the Kidnap (using the floor IR sensor or the GyroOdometry) or when the metric map matching fails over a certain frame, Mode. In the second driving mode, when the images stored in the KD tree form are matched with the topological map using the BBF and RANSAC algorithms, position restoration is attempted.

이상의 설명에 따른 이동 로봇(10)의 주행 제어 방법을 설명하면 다음과 같다. The traveling control method of the mobile robot 10 according to the above description will be described as follows.

도 5는 본 발명의 바람직한 실시예에 따른 이동 로봇의 위치 인식 및 주행 제어 방법에 있어서 특징점 추출 및 식별자 생성 과정을 도시한 순서도이다. FIG. 5 is a flowchart illustrating a minutiae point extraction and identifier generation process in a location recognition and driving control method of a mobile robot according to a preferred embodiment of the present invention.

영상 획득부(12)는 이동 로봇(10)의 주변 환경에 대한 영상을 획득한다(S70). 영상 왜곡 보정부(22)는 획득된 영상의 왜곡을 보정한다(S72). 영상 품질 점검부(24)는 영상 품질을 점검하고(S74), 영상 품질이 특징점 추출에 적합한 경우에만 다음 단계가 수행된다.The image acquisition unit 12 acquires an image of the surrounding environment of the mobile robot 10 (S70). The image distortion correction unit 22 corrects the distortion of the acquired image (S72). The image quality checking unit 24 checks the image quality (S74), and the next step is performed only when the image quality is suitable for the feature point extraction.

특징점 추출부(26)는 입력 영상으로부터 특징점을 추출하고(S76), 기술자 생성부는 특징점에 대한 기술자를 생성한 후(S78), 특징점 관리부(34)는 생성된 특징점이 신규인 경우 이를 등록하여 관리한다(S80). The feature point extracting unit 26 extracts feature points from the input image (S76), and the descriptor generating unit generates descriptors for the feature points (S78). The feature point managing unit 34 registers the generated feature points when they are new (S80).

한편, 특징점 추출부(26)에서 추출된 특징점이 핵심 영역 특징점에 해당하는 것으로 판정되는 경우(S82), 핵심 영역 특징점에 대한 기술자를 생성하고(S84), 특징점 관리부(34)는 핵심 영역 특징점이 신규인 경우 이를 등록하여 관리한다(S86).On the other hand, if it is determined that the feature point extracted by the feature point extraction unit 26 corresponds to the core region feature point (S82), a descriptor for the core region feature point is generated (S84), and the feature point management unit 34 If it is new, it is registered and managed (S86).

도 6은 본 발명의 바람직한 실시예에 따른 이동 로봇의 위치 인식 및 주행 제어 방법에 있어서, 주행 모드의 선택 및 주행 제어 방법을 도시한 순서도이다. 6 is a flowchart illustrating a method of selecting a traveling mode and a traveling control method in a position recognition and traveling control method of a mobile robot according to a preferred embodiment of the present invention.

주행 모드 선택부(32)는 이동 로봇(10)의 주행 상태에 따라 주행 모드를 선택한다(S90). The traveling mode selection unit 32 selects the traveling mode according to the traveling state of the mobile robot 10 (S90).

통상적인 경우에는 주행모드 선택부(32)는 제 1 주행 모드(단기저 주행 모드)를 선택하여 관성 센서(44) 및 엔코더(46)로부터 획득된 주행정보와 입력 영상의 특징점에 기반한 위치 인식 및 주행 제어를 수행한다. The travel mode selection unit 32 selects the first travel mode (short-term low-travel mode) to determine the location information based on the travel information obtained from the inertial sensor 44 and the encoder 46, And executes the traveling control.

제 1 주행 모드가 선택된 경우, 영상 획득부(12)에서 획득된 입력 영상에 대한 특징점을 추출하고 이에 대한 기술자를 생성한다(S94). 다음으로 입력 영상에 대해 생성된 기술자를 이용하여 입력 영상의 특징점과 등록된 특징점과의 매칭을 수행한다(S96).If the first driving mode is selected, the feature point of the input image acquired by the image acquisition unit 12 is extracted and a descriptor is generated (S94). Next, matching between the minutiae of the input image and the registered minutiae is performed using the descriptor generated for the input image (S96).

한편, 주제어부(30)는 관성 센서(44) 및 엔코더(46)로부터 이동 로봇(10)의 주행 정보를 입력받는다(S98). On the other hand, the main control unit 30 receives driving information of the mobile robot 10 from the inertial sensor 44 and the encoder 46 (S98).

주행 제어부(38)는 이동 로봇(10)의 주행 정보를 바탕으로 이동 로봇의 위치를 예측하고, 입력된 영상을 바탕으로 이동 로봇의 위치를 보정하여 이동 로봇의 주행을 제어한다(S100). The travel control unit 38 predicts the position of the mobile robot based on travel information of the mobile robot 10 and corrects the position of the mobile robot based on the input image to control the travel of the mobile robot (S100).

그러나, 이동 로봇(10)이 장애물에 끼거나 슬립이 발생한 경우에는 주행 모드 선택부(32)는 제 2 주행 모드(장기저 주행 모드)를 선택한다(S102). However, when the mobile robot 10 is stuck in an obstacle or slip occurs, the travel mode selection unit 32 selects a second travel mode (long-term low-travel mode) (S102).

제 2 주행 모드가 선택된 경우, 영상 획득부(12)에서 획득된 입력 영상으로부터 핵심 영역 특징점을 추출하고 핵심 영역 특징점에 대한 기술자를 생성한다(S104). When the second driving mode is selected, core region feature points are extracted from the input image obtained by the image obtaining unit 12, and a descriptor for the core region feature points is generated (S104).

특징점 관리부(34)는 입력 영상의 핵심 영역 특징점과 등록된 핵심 영역 특징점을 매칭시켜 이동 로봇(10)의 실제 위치를 확인한다(S106). The minutia point management unit 34 matches the key region minutiae of the input image with the registered minutiae minutiae point and confirms the actual position of the mobile robot 10 (S106).

주행 제어부(38)는 핵심 영역 특징점에 따른 영상 정합에 기반하여 이동 로봇(10)의 위치를 인식하고 주행을 제어한다(S108).The travel control unit 38 recognizes the position of the mobile robot 10 based on the image matching according to the key region feature points and controls the travel (S108).

한편, 상기 S102단계에 따라 제 2 주행 모드가 선택된 경우, 이동 로봇(10)을 후진시키거나 랜덤한 방향으로 이동시키는 것이 바람직하다. 이는 특징점 추출부(26)에서 영상 획득부(12)에서 획득된 영상으로부터 핵심 영역 특징점을 추출할 수 있는 영역으로 이동시키기 위함이다. On the other hand, when the second traveling mode is selected in step S102, it is preferable to move the mobile robot 10 in a reverse direction or in a random direction. This is for moving the feature point extracting unit 26 from the image obtained by the image obtaining unit 12 to an area where the feature point of the core region can be extracted.

특징점 관리부(34)는 영상 획득부(12)에서 신규로 획득된 영상에서 추출한 특징점과 기 등록된 특징점을 매칭하여 특징점의 일치 여부를 판단하는데 특징점의 오인식이 종종 발생한다. 이러한 특징점 오인식을 방지하기 위하여, 본 발명은 이미 설명한 지역적 방향 정보와 관성 센서(44)를 이용한 이동 로봇(10)의 주행 방향(heading) 정보를 함께 활용하는 방안을 제안한다. The minutia point management unit 34 frequently detects the minutiae point by matching the minutiae extracted from the newly acquired image with the pre-registered minutiae to determine whether the minutiae coincide with each other. In order to prevent such feature point misrecognition, the present invention proposes a method of using the above-described local direction information and heading information of the mobile robot 10 using the inertia sensor 44 together.

도 7은 본 발명의 바람직한 실시예에 따른 이동 로봇에 있어서 제 1 위치에 서의 이동 로봇의 주행 방향과 영상 패치의 주된 방향의 관계를 도시한 도면이고, 도 8은 본 발명의 바람직한 실시예에 따른 이동 로봇에 있어서 제 2 위치에서의 이동 로봇의 주행 방향과 영상 패치의 주된 방향의 관계를 도시한 도면이다. FIG. 7 is a view showing the relationship between the traveling direction of the mobile robot at the first position and the main direction of the image patch in the mobile robot according to the preferred embodiment of the present invention, and FIG. 8 is a view Fig. 5 is a diagram showing the relationship between the traveling direction of the mobile robot at the second position and the main direction of the image patch in the following mobile robot.

설명의 편의를 위해 도 7에서의 영상 패치를 제 1 영상 패치(110)라 하고, 도 8에서의 영상 패치를 제 2 영상 패치(112)라 한다. 7 is referred to as a first image patch 110, and an image patch in FIG. 8 is referred to as a second image patch 112. In FIG.

영상 패치는 전술한 바와 같이 특징점을 중심으로 일정 범위의 영상을 구획한 것이다. 영상 패치의 주된 방향(114, 116)은 영상 패치의 각 픽셀에 대한 위상(phase) 정보에 대한 히스트그램을 작성하고 피크에 해당하는 것으로 설정될 수 있다. As described above, the image patch is a segment of an image in a certain range centering on a feature point. The main directions 114 and 116 of the image patches can be set to produce a histogram of the phase information for each pixel of the image patch and correspond to the peaks.

이동 로봇(10)의 주행 방향은 이동 로봇(10)이 주행하고 있는 방향을 의미하며 초기 주행 방향을 기준으로 상대적으로 계산된다. The traveling direction of the mobile robot 10 means the direction in which the mobile robot 10 is traveling and is relatively calculated based on the initial traveling direction.

도 7에 따른 제 1 위치에서 이동 로봇(10)의 주행 방향을 α1이라고 하고, 이동 로봇(10)의 영상 획득부(12)에서 획득된 제 1 영상 패치(110)의 주된 방향(114)을 θ1이라 하자. The direction of travel of the mobile robot 10 at the first position according to FIG. 7 is represented by? 1 and the direction of the main image 114 of the first image patch 110 acquired by the image acquisition unit 12 of the mobile robot 10 Let? 1 be? 1 .

한편, 도 8에 따른 제 2 위치에서 이동 로봇(10)의 주행 방향을 α2라고 하고, 이동 로봇(10)의 영상 획득부(12)에서 획득된 제 2 영상 패치(112)의 주된 방향(116)을 θ2라고 하자. 8, the traveling direction of the mobile robot 10 is represented by? 2 , and the direction of travel of the second image patch 112 obtained by the image acquisition unit 12 of the mobile robot 10 in the main direction 116) is? 2 .

만약, 제 1 영상 패치(110)와 제 2 영상 패치(112)가 동일한 특징점에 대한 것이라면, 이론적으로는 제 2 영상 패치(112)의 주된 방향(116)은 제 1 영상 패 치(110)의 주된 방향(114)에 비해 이동 로봇(10)의 주행 방향이 변화한 각도만큼 상대적으로 변화할 것이다. 이는 영상 획득부(12)가 이동 로봇(10)에 고정된 상태로 부착되었기 때문이다. 이를 수학식으로 표현하면 수학식 8과 같으며, 도 9는 이동 로봇의 주행 방향의 변화와 그에 따른 영상 패치의 주된 방향의 변화와의 관계를 도시한 도면이다.If the first image patch 110 and the second image patch 112 are about the same minutiae, the main direction 116 of the second image patch 112 is theoretically the same as that of the first image patch 110 The traveling direction of the mobile robot 10 will change relative to the main direction 114 by the changed angle. This is because the image acquisition unit 12 is fixedly attached to the mobile robot 10. 9 is a diagram showing a relationship between a change in the traveling direction of the mobile robot and a change in the main direction of the image patch according to Equation 8.

Figure 112009046357918-pat00008
Figure 112009046357918-pat00008

그러나, 실제적으로는 특징점을 중심으로 한 영상 패치에 대한 주된 방향의 계산 과정 및 이동 로봇의 주행 정보 획득에 있어서 오차가 발생할 수 있으므로 수학식 8과 같이 될 수는 없다. 따라서 이동 로봇(10)의 주행 방향의 변화에 따른 영상 패치의 주된 방향의 변화가 수학식 9와 같이 소정 범위(예컨대 45°) 이내라면 상기 제 1 위치와 제 2 위치에서의 특징점이 동일한 것으로 판단될 수 있을 것이다. However, in practice, an error may occur in the calculation process of the main direction for the image patch centered on the feature point and in the acquisition of the traveling information of the mobile robot, so that Equation (8) can not be obtained. Therefore, if the change in the main direction of the image patch due to the change of the running direction of the mobile robot 10 is within a predetermined range (for example, 45 degrees) as in Equation 9, it is determined that the minutiae points at the first position and the second position are the same .

Figure 112009046357918-pat00009
Figure 112009046357918-pat00009

제 1 위치와 제 2 위치에서의 영상 패치의 주된 방향의 차이와 이동 로봇(10)의 주행 방향의 변화가 상기 조건을 만족하는지 여부는 2가지 방법으로 활용될 수 있다. Whether the difference in the main direction of the image patch at the first position and the second position and the change in the traveling direction of the mobile robot 10 satisfy the above conditions can be utilized in two ways.

첫째는 제 1 위치에서의 특징점과 제 2 위치에서의 특징점이 일치하는 것으 로 판단되는 경우, 상기 조건을 추가적으로 만족하는 경우에 동일한 특징점으로 판단될 수 있다. 둘째는 상기 조건을 만족하는 경우에만 제 1 위치에서의 특징점과 제 2 위치에서의 특징점의 매칭을 수행한다. First, when it is determined that the feature point at the first position coincides with the feature point at the second position, the same feature point can be determined when the condition is additionally satisfied. The second performs matching between the minutiae at the first position and the minutiae at the second position only when the above condition is satisfied.

위의 어느 경우에든 특징점 매칭의 정확성을 향상시켜 특징점 오인식을 방지할 수 있게 된다. In any of the above cases, it is possible to improve the accuracy of feature point matching and to prevent feature point misrecognition.

이상의 설명은 본 발명의 기술 사상을 예시적으로 설명한 것에 불과한 것으로서, 본 발명이 속하는 기술 분야에서 통상의 지식을 가진 자라면 본 발명의 본질적인 특성에서 벗어나지 않는 범위 내에서 다양한 수정, 변경 및 치환이 가능할 것이다. 따라서, 본 발명에 개시된 실시예 및 첨부된 도면들은 본 발명의 기술 사상을 한정하기 위한 것이 아니라 설명하기 위한 것이고, 이러한 실시예 및 첨부된 도면에 의하여 본 발명의 기술 사상의 범위가 한정되는 것은 아니다. 본 발명의 보호 범위는 아래의 청구범위에 의하여 해석되어야 하며, 그와 동등한 범위 내에 있는 모든 기술 사상은 본 발명의 권리범위에 포함되는 것으로 해석되어야 할 것이다.It will be apparent to those skilled in the art that various modifications, substitutions and substitutions are possible, without departing from the scope and spirit of the invention as disclosed in the accompanying claims. will be. Therefore, the embodiments disclosed in the present invention and the accompanying drawings are intended to illustrate and not to limit the technical spirit of the present invention, and the scope of the technical idea of the present invention is not limited by these embodiments and the accompanying drawings . The scope of protection of the present invention should be construed according to the following claims, and all technical ideas within the scope of equivalents should be construed as falling within the scope of the present invention.

도 1은 본 발명의 바람직한 실시예에 따른 이동 로봇의 구성을 도시한 블록도,1 is a block diagram illustrating a configuration of a mobile robot according to a preferred embodiment of the present invention.

도 2는 본 발명의 바람직한 실시예에 따른 이동 로봇에 있어서 지역적 방향 기술자의 생성 과정을 도시한 도면,2 is a diagram illustrating a process of generating a local direction descriptor in a mobile robot according to a preferred embodiment of the present invention.

도 3은 영상의 그래디언트를 계산하기 위한 윈도우를 예시한 도면, 3 is a diagram illustrating a window for calculating a gradient of an image,

도 4는 영상 패치의 일례(a) 및 영상 패치의 서브 영역에 대한 지역적 방향 정보(b)의 일례를 도시한 도면, 4 is a diagram showing an example of an image patch (a) and an example of regional direction information (b) for a sub-area of an image patch,

도 5는 본 발명의 바람직한 실시예에 따른 이동 로봇의 위치 인식 및 주행 제어 방법에 있어서 특징점 추출 및 식별자 생성 과정을 도시한 순서도,FIG. 5 is a flowchart illustrating a process of extracting a minutiae and generating an identifier in a method for recognizing and controlling a position of a mobile robot according to a preferred embodiment of the present invention.

도 6은 본 발명의 바람직한 실시예에 따른 이동 로봇의 위치 인식 및 주행 제어 방법에 있어서, 주행 모드의 선택 및 주행 제어 방법을 도시한 순서도,FIG. 6 is a flowchart illustrating a method of selecting a traveling mode and a traveling control method in a position recognition and traveling control method of a mobile robot according to a preferred embodiment of the present invention.

도 7은 본 발명의 바람직한 실시예에 따른 이동 로봇에 있어서 제 1 위치에서의 이동 로봇의 주행 방향과 영상 패치의 주된 방향의 관계를 도시한 도면, 7 is a view showing the relationship between the traveling direction of the mobile robot at the first position and the main direction of the image patch in the mobile robot according to the preferred embodiment of the present invention,

도 8은 본 발명의 바람직한 실시예에 따른 이동 로봇에 있어서 제 2 위치에서의 이동 로봇의 주행 방향과 영상 패치의 주된 방향의 관계를 도시한 도면,8 is a view showing a relationship between a traveling direction of a mobile robot at a second position and a main direction of an image patch in the mobile robot according to a preferred embodiment of the present invention,

도 9는 이동 로봇의 주행 방향의 변화와 그에 따른 영상 패치의 주된 방향의 변화와의 관계를 도시한 도면이다.9 is a diagram showing the relationship between the change of the running direction of the mobile robot and the change of the main direction of the image patch accordingly.

<도면의 주요 부분에 대한 도면부호의 설명>DESCRIPTION OF THE RELATED ART [0002]

10 : 이동 로봇 12 : 영상 획득부10: mobile robot 12: image acquiring unit

20 : 영상 처리부 22 : 영상 왜곡 보정부20: image processing unit 22: image distortion correction unit

24 : 영상 품질 점검부 26 : 특징점 추출부24: image quality checking unit 26: feature point extracting unit

28 : 기술자 생성부 30 : 주제어부28: descriptor generating unit 30:

32 : 주행모드 선택부 34 : 특징점 관리부32: traveling mode selection unit 34: characteristic point management unit

36 : 지도 관리부 38 : 주행 제어부36: map management unit 38:

40 : 로봇 구동부 42 : 센서부40: robot driving part 42:

44 : 관성 센서 46 : 엔코더44: inertia sensor 46: encoder

Claims (24)

영상을 획득하는 영상 획득부;An image acquiring unit acquiring an image; 적어도 이동 로봇의 주행 방향 및 주행 거리를 포함하는 주행 정보를 획득하는 센서부;A sensor unit for acquiring travel information including at least a travel direction and a travel distance of the mobile robot; 상기 영상 획득부에서 획득된 영상을 처리하여 특징점을 추출하고 특징점에 대한 기술자를 생성하는 영상 처리부; 및An image processing unit for processing the image obtained by the image obtaining unit to extract a feature point and generating a descriptor for the feature point; And 상기 특징점과 상기 주행 정보에 기초하여 주행 영역의 공간 지도를 생성하고 상기 이동 로봇의 위치 인식 및 주행을 제어하는 주제어부를 포함하며, And a main controller for generating a spatial map of the traveling region based on the minutiae and the traveling information, and controlling the position recognition and traveling of the mobile robot, 상기 주제어부는 상기 획득된 영상과 기준 영상의 매칭 정도에 따라 상기 이동 로봇의 주행 및 위치 인식 시에 상기 획득된 영상과 상기 주행 정보를 동시에 이용하는 제 1 주행 모드와 상기 획득된 영상을 활용하는 제 2 주행 모드를 선택적으로 적용하는 것을 특징으로 하는 이동 로봇.Wherein the main control unit has a first driving mode in which the acquired image and the driving information are simultaneously used at the time of traveling and recognizing the position of the mobile robot according to the degree of matching between the obtained image and the reference image, And the traveling mode is selectively applied to the mobile robot. 제 1 항에 있어서,The method according to claim 1, 상기 센서부에서 취득한 이동 로봇의 주행 방향 및 주행 거리를 포함하는 주행 정보와, 상기 영상 처리부에서 영상 처리를 통하여 취득한 특징점 및 기술자 정보를 포함하는 영상 정보를 저장하는 저장부를 더 포함하는 것을 특징으로 하는 이동 로봇.Further comprising a storage unit for storing driving information including a traveling direction and a traveling distance of the mobile robot acquired by the sensor unit and image information including minutiae and descriptor information acquired through image processing by the image processing unit Mobile robot. 제 1 항에 있어서, The method according to claim 1, 상기 영상 처리부는, Wherein the image processing unit comprises: 상기 영상 획득부에서 획득된 영상의 왜곡을 보정하는 영상 왜곡 보정부와, 상기 획득된 영상의 가용성 여부를 판단하는 영상 품질 점검부와, 상기 획득된 영상으로부터 상기 특징점을 추출하는 특징점 추출부, 및 상기 특징점에 대한 기술자를 생성하는 기술자 생성부를 포함하는 것을 특징으로 하는 이동 로봇.An image distortion correcting unit for correcting distortion of the image obtained by the image obtaining unit, an image quality checking unit for determining whether the obtained image is usable, a feature point extracting unit for extracting the feature point from the obtained image, And a descriptor generating unit for generating descriptors for the feature points. 제 3 항에 있어서,The method of claim 3, 상기 영상 품질 점검부는 상기 획득된 영상의 명도와 기준 영상의 명도를 비교하여 상기 획득된 영상의 가용성을 판단하는 것을 특징으로 하는 이동 로봇. Wherein the image quality checking unit determines the availability of the acquired image by comparing the brightness of the obtained image with the brightness of the reference image. 제 4 항에 있어서, 5. The method of claim 4, 상기 영상 품질 점검부는 상기 제 1 주행 모드시 상기 영상 획득부가 비정상 영상을 획득하고, 상기 비정상 영상 획득 시간이 소정 시간을 경과하는 경우에 상기 이동로봇이 차폐영역에 차폐되어 있는 것으로 판단하는 것을 특징으로 하는 이동 로봇.Wherein the image quality checking unit determines that the mobile robot is shielded in the shielded area when the image acquiring unit acquires the abnormal image in the first travel mode and the abnormal image acquisition time passes the predetermined time A mobile robot. 제 5 항에 있어서,6. The method of claim 5, 상기 영상 품질 점검부는 상기 획득된 영상의 명도 평균 및 분산에 기초하여 상기 영상 획득부의 차폐 여부를 판단하는 것을 특징으로 하는 이동 로봇.Wherein the image quality checking unit determines whether or not the image obtaining unit is shielded based on the brightness average and variance of the obtained image. 제 5 항에 있어서,6. The method of claim 5, 상기 주제어부는 상기 이동 로봇이 상기 차폐영역에 차폐된 것으로 판단하면 상기 이동 로봇을 상기 차폐영역의 진입지점으로 회귀시키는 것을 특징으로 하는 이동 로봇.Wherein the main controller returns the mobile robot to an entry point of the shielded area when it is determined that the mobile robot is shielded in the shielded area. 제 3 항에 있어서,The method of claim 3, 상기 영상 품질 점검부는 상기 획득된 영상을 상기 이동 로봇의 진행방향을 기준으로 4등분하여 분할된 각 영역으로 명도 평균값에 기초한 상기 획득된 영상의 평균 및 분산을 기반으로 차폐여부를 판단하는 것을 특징으로 하는 이동 로봇.Wherein the image quality checking unit determines whether the image is shielded based on the average and variance of the acquired image based on the brightness average value in each divided region by dividing the obtained image into four regions based on the traveling direction of the mobile robot A mobile robot. 제 3 항에 있어서,The method of claim 3, 상기 기술자 생성부는 상기 획득된 영상으로부터 분할된 n×n 서브 영역의 각각에 대한 밝기 변화와 방향 정보를 생성하는 것을 특징으로 하는 이동 로봇. Wherein the descriptor generating unit generates brightness change and direction information for each of the n x n sub-regions divided from the obtained image. 제 9 항에 있어서,10. The method of claim 9, 상기 기술자 생성부는 상기 n×n 서브 영역 가운데 서로 다른 두 서브 영역의 방향 정보를 선택하여 페어 와이즈(pair-wise) 조합을 생성하여 국지적 방향 정보의 각도 차이를 기술하는 것을 특징으로 하는 이동 로봇. Wherein the descriptor generating unit generates a pair-wise combination by selecting direction information of two different sub-regions among the nxn sub-regions to describe the angle difference of the local direction information. 제 1 항에 있어서, The method according to claim 1, 상기 주제어부는, Wherein, 상기 제 1 주행 모드와 제 2 주행 모드를 선택하는 주행 모드 선택부와, 상기 영상에서 추출된 특징점을 관리하고 기등록된 특징점과 매칭시키는 특징점 관리부와, 상기 지도를 생성하고 갱신하는 지도 관리부, 및 상기 이동 로봇의 위치 인식 및 주행을 제어하는 주행 제어부를 포함하는 것을 특징으로 하는 이동 로봇. A driving mode selector for selecting the first driving mode and the second driving mode, a minutia point management unit for managing minutiae extracted from the image and matching the minutiae with previously registered minutiae, a map management unit for generating and updating the map, And a travel controller for controlling the position recognition and traveling of the mobile robot. 제 11 항에 있어서,12. The method of claim 11, 상기 주행 모드 선택부는 상기 이동 로봇이 상기 제 1 주행 모드로 주행시 키드냅되거나 소정 영상 프레임 동안 메트릭 지도(metric map) 구축 및 위치 인식에 실패하는 경우에 토폴로지 맵(topological map)에 따라 위치를 복구하도록 상기 제 2 주행 모드로 전환하는 것을 특징으로 하는 이동 로봇. The traveling mode selection unit may restore the position according to a topological map when the mobile robot kicks in the first traveling mode or fails to construct a metric map and recognize the position during a predetermined image frame And the second traveling mode is switched to the second traveling mode. (a) 이동 로봇이 대상 영역의 영상 및 주행 정보를 획득하는 단계;(a) acquiring image and running information of a target area by the mobile robot; (b) 상기 획득된 영상의 품질을 기준 값과 비교하여 상기 획득된 영상의 가용성의 유무를 판단하는 단계; 및(b) comparing the quality of the acquired image with a reference value to determine availability of the acquired image; And (c) 상기 가용성이 인정되면 상기 획득된 영상으로부터 특징점을 추출하고 그 추출된 특징점의 기술자를 생성하여 주행 지도의 작성 및 대상 영역을 주행하는 단계;를 포함하며,(c) extracting a feature point from the acquired image if the availability is recognized, and generating a descriptor of the extracted feature point, thereby creating a travel map and traveling the object area, 상기 대상 영역을 주행하는 단계는, The method of claim 1, 상기 획득된 영상과 기준 영상의 매칭 정도에 따라 상기 이동 로봇의 주행 및 위치 인식 시에 상기 획득된 영상과 상기 주행 정보를 동시에 이용하는 제 1 주행 모드와 상기 획득된 영상을 활용하는 제 2 주행 모드 가운데 어느 하나의 주행 모드를 선택하는 단계를 포함하는 것을 특징으로 하는 이동 로봇의 위치 인식 및 주행 제어 방법.A first driving mode in which the obtained image and the driving information are simultaneously used at the time of driving and recognizing the position of the mobile robot according to the degree of matching between the obtained image and the reference image, And selecting any one of the traveling modes according to the position of the mobile robot. 제 13 항에 있어서,14. The method of claim 13, 상기 (b) 단계 이전에 상기 획득된 영상의 왜곡을 보정하는 단계;를 더 포함하는 것을 특징으로 하는 이동 로봇의 위치 인식 및 주행 제어 방법.And correcting the distortion of the obtained image before the step (b). 제 13 항에 있어서,14. The method of claim 13, 상기 기술자를 생성하는 단계는, Wherein the generating the descriptor comprises: 상기 특징점에 대하여 적어도 방향 정보와 밝기 정보를 포함하는 기술자를 생성하는 단계;Generating a descriptor including at least direction information and brightness information for the feature points; 상기 특징점의 신규 여부를 판단하여 신규인 경우에는 상기 특징점을 등록하는 단계; Determining whether the feature point is new and registering the feature point if the feature point is new; 상기 특징점이 일정 영역의 특징을 대표하는 핵심 영역 특징점에 해당하는 경우에는 상기 핵심 영역 특징점에 대한 기술자를 생성하는 단계; 및 Generating a descriptor for the core region feature point if the feature point corresponds to a core region feature point representing a feature of a certain region; And 상기 핵심 영역 특징점의 신규 여부를 판단하여 신규인 경우에는 상기 핵심 영역 특징점을 등록하는 단계;를 포함하는 것을 특징으로 하는 이동 로봇의 위치 인식 및 주행 제어 방법. Determining whether the core region feature point is new or not, and registering the core region feature point if the new region feature point is new. 제 15 항에 있어서,16. The method of claim 15, 상기 핵심 영역 특징점은 획득된 영상에서 공간적으로 균일하게 생성되고, 하나의 프레임의 영상에서 산출된 코너 반응함수 값의 합이 기준값 이상인 영역에서 설정되는 것을 특징으로 하는 이동 로봇의 위치 인식 및 주행 제어 방법.Wherein the key region feature points are generated in a spatially uniform manner in the acquired image and are set in an area where a sum of corner reaction function values calculated in an image of one frame is equal to or greater than a reference value, . 제 15 항에 있어서,16. The method of claim 15, 상기 이동 로봇은 상기 핵심 영역에서 취득한 영상의 특징점과 상기 핵심 영역 특징점의 영상 정합을 통하여 누적된 위치 오차와 방향각 오차를 보정하는 것을 특징으로 하는 이동 로봇의 위치 인식 및 주행 제어 방법. Wherein the mobile robot corrects the accumulated position error and directional angle error through image matching between the feature points of the image obtained in the core region and the core region feature points. 제 13 항에 있어서,14. The method of claim 13, 상기 제 1 주행 모드시 상기 이동 로봇이 획득한 영상의 명도가 기준 이하이고, 상기 기준 이하의 영상 획득 시간이 소정 시간을 경과하는 경우에 상기 이동로봇이 차폐영역에 차폐되어 있는 것으로 판단하는 것을 특징으로 하는 이동 로봇의 위치 인식 및 주행 제어 방법. When the brightness of the image acquired by the mobile robot in the first travel mode is less than or equal to a reference value and the image acquisition time of less than or equal to the reference elapses after a predetermined period of time, the mobile robot determines that the mobile robot is shielded in the shielded area Of the mobile robot. 제 18 항에 있어서,19. The method of claim 18, 상기 이동 로봇이 상기 차폐영역에 차폐된 것으로 판단하면 상기 이동 로봇 을 상기 차폐영역의 진입지점으로 회귀하는 것을 특징으로 하는 이동 로봇의 위치 인식 및 주행 제어 방법. And returning the mobile robot to an entry point of the shielded area when it is determined that the mobile robot is shielded in the shielded area. 제 18 항에 있어서,19. The method of claim 18, 상기 이동 로봇의 차폐 여부는 상기 획득된 영상을 상기 이동 로봇의 진행방향을 기준으로 4등분하여 분할된 각 영역으로 명도 평균값에 기초한 상기 획득된 영상의 평균 및 분산을 기반으로 판단하는 것을 특징으로 하는 이동 로봇의 위치 인식 및 주행 제어 방법. Wherein the shielded state of the mobile robot is determined based on the average and variance of the obtained image based on the brightness average value in each of the divided regions by dividing the obtained image into four regions based on the traveling direction of the mobile robot (Position recognition and traveling control method of mobile robot). 제 20 항에 있어서,21. The method of claim 20, 상기 대상 영역을 주행하는 단계는 상기 제 1 주행 모드시 Wherein the step of traveling on the target area comprises: 상기 획득된 영상의 전체 밝기의 평균을 측정하여 기준 영상의 밝기 평균과 비교하여 조명환경을 추정하는 단계; Estimating an illumination environment by comparing an average of all brightness of the acquired image with a brightness average of a reference image; 상기 4등분된 영상의 밝기 평균 및 분산을 측정하여 기준 밝기 평균 및 분산과 비교하여 조명변화를 감지하는 단계; 및Measuring a brightness average and variance of the quadrisected image and comparing the brightness average and variance with a reference brightness average and variance to detect an illumination change; And 상기 추정된 조명환경 및 상기 감지된 조명변화에 기초하여 이동 로봇의 속도를 조절하는 단계를 포함하는 것을 특징으로 하는 이동 로봇의 위치 인식 및 주행 제어방법. And controlling the speed of the mobile robot on the basis of the estimated illumination environment and the sensed illumination change. 제 13 항에 있어서,14. The method of claim 13, 상기 제 1 주행 모드에서는 상기 획득된 영상으로부터 분할된 n×n 서브 영역의 각각에 대한 밝기 변화와 방향 정보를 생성하는 것을 특징으로 하는 이동 로봇의 위치 인식 및 주행 제어 방법. Wherein the controller generates the brightness change and direction information for each of the n x n sub-regions divided from the obtained image in the first driving mode. 제 22 항에 있어서,23. The method of claim 22, 상기 제 1 주행 모드에서는 상기 n×n 서브 영역 가운데 서로 다른 두 서브 영역의 방향 정보를 선택하여 페어 와이즈(pair-wise) 조합을 생성하여 국지적 방향 정보의 각도 차이를 기술하는 것을 특징으로 하는 이동 로봇의 위치 인식 및 주행 제어 방법. Wherein in the first traveling mode, direction information of two different sub-regions among the nxn sub-regions is selected to generate a pair-wise combination to describe the angle difference of the local direction information. And a method of controlling the traveling of the vehicle. 제 13 항에 있어서,14. The method of claim 13, 상기 주행 모드를 선택하는 단계는 상기 이동 로봇이 상기 제 1 주행 모드로 주행시 키드냅되거나 소정 영상 프레임 동안 메트릭 지도(metric map) 구축 및 위치 인식에 실패하는 경우에 토폴로지 맵(topological map)에 따라 위치를 복구하도록 상기 제 2 주행 모드로 전환하는 것을 특징으로 하는 이동 로봇의 위치 인식 및 주행 제어 방법. The step of selecting the traveling mode may include selecting a traveling mode based on a topological map when the mobile robot is in the first traveling mode or when a metric map is constructed and a position recognition is failed during a predetermined image frame, And the second traveling mode is switched to the second traveling mode so as to recover the second traveling mode.
KR1020090069066A 2009-07-28 2009-07-28 Method for Recognizing Position and Controlling Movement of a Mobile Robot, and the Mobile Robot Using the same KR101618030B1 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
KR1020090069066A KR101618030B1 (en) 2009-07-28 2009-07-28 Method for Recognizing Position and Controlling Movement of a Mobile Robot, and the Mobile Robot Using the same

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020090069066A KR101618030B1 (en) 2009-07-28 2009-07-28 Method for Recognizing Position and Controlling Movement of a Mobile Robot, and the Mobile Robot Using the same

Publications (2)

Publication Number Publication Date
KR20110011424A KR20110011424A (en) 2011-02-08
KR101618030B1 true KR101618030B1 (en) 2016-05-09

Family

ID=43771633

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020090069066A KR101618030B1 (en) 2009-07-28 2009-07-28 Method for Recognizing Position and Controlling Movement of a Mobile Robot, and the Mobile Robot Using the same

Country Status (1)

Country Link
KR (1) KR101618030B1 (en)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR102572832B1 (en) * 2022-08-12 2023-08-30 주식회사 클로봇 Unmanned moving object, method and program for finding the location in space of unmanned moving object based on artificial intelligence

Families Citing this family (26)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR101951414B1 (en) * 2011-06-22 2019-02-22 엘지전자 주식회사 Robot cleaner and controlling method of the same
KR101314732B1 (en) * 2011-08-10 2013-10-08 (주)로봇에버 Provision method for robot control information and navigation device for robot control using the same
KR101366860B1 (en) * 2011-09-20 2014-02-21 엘지전자 주식회사 Mobile robot and controlling method of the same
KR101223480B1 (en) * 2011-09-20 2013-01-17 엘지전자 주식회사 Mobile robot and controlling method of the same
KR101140558B1 (en) * 2011-10-17 2012-05-02 국방과학연구소 Autonomous mobile robot and control method for the same
KR101398142B1 (en) * 2012-09-04 2014-06-27 엘지전자 주식회사 Moving robot and driving method of the same
KR101376536B1 (en) * 2012-09-04 2014-03-19 한국생산기술연구원 Position Recognition Method for mobile object using convergence of sensors and Apparatus thereof
KR101979003B1 (en) * 2012-09-06 2019-08-23 (주)하기소닉 Method for Localizing Intelligent Mobile Robot by Using Natural Landmark, Artificial Landmark and Inertial Sensor
KR20140053712A (en) * 2012-10-26 2014-05-08 (주)하기소닉 The localization method for indoor mobile robots by sensor fusion
KR101412513B1 (en) * 2013-07-19 2014-06-26 (주)나임기술 Method and system for controlling robot arm using frame grabber board
KR101705601B1 (en) * 2014-05-30 2017-02-13 동명대학교 산학협력단 Apparatus and method for estimating the location of autonomous robot based on three-dimensional depth information
KR101708659B1 (en) 2014-06-17 2017-02-22 주식회사 유진로봇 Apparatus for recognizing location mobile robot using search based correlative matching and method thereof
KR101725060B1 (en) 2014-06-17 2017-04-10 주식회사 유진로봇 Apparatus for recognizing location mobile robot using key point based on gradient and method thereof
KR101776620B1 (en) 2014-06-17 2017-09-11 주식회사 유진로봇 Apparatus for recognizing location mobile robot using search based correlative matching and method thereof
WO2015194866A1 (en) * 2014-06-17 2015-12-23 (주)유진로봇 Device and method for recognizing location of mobile robot by means of edge-based readjustment
KR101776622B1 (en) 2014-06-17 2017-09-11 주식회사 유진로봇 Apparatus for recognizing location mobile robot using edge based refinement and method thereof
WO2018074904A1 (en) * 2016-10-20 2018-04-26 엘지전자 주식회사 Mobile robot and control method of mobile robot
KR102017148B1 (en) 2017-03-03 2019-09-02 엘지전자 주식회사 Artificial intelligence Moving Robot and controlling method
KR102048363B1 (en) * 2017-07-25 2019-11-25 엘지전자 주식회사 A moving-robot
KR102707921B1 (en) 2019-01-22 2024-09-23 삼성전자주식회사 Robot and method for controlling thereof
KR102143349B1 (en) 2019-03-27 2020-08-11 엘지전자 주식회사 Controlling method for Moving robot
KR102325121B1 (en) * 2020-04-29 2021-11-12 주식회사 모빌테크 Real-time robot position estimation metod through map information and image matching and the robot
KR102383499B1 (en) * 2020-05-28 2022-04-08 네이버랩스 주식회사 Method and system for generating visual feature map
CN112318507A (en) * 2020-10-28 2021-02-05 内蒙古工业大学 Robot intelligent control system based on SLAM technology
CN112686951A (en) * 2020-12-07 2021-04-20 深圳乐动机器人有限公司 Method, device, terminal and storage medium for determining robot position
KR20230161782A (en) * 2022-05-19 2023-11-28 엘지전자 주식회사 A robot cleaner and control method thereof

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR102572832B1 (en) * 2022-08-12 2023-08-30 주식회사 클로봇 Unmanned moving object, method and program for finding the location in space of unmanned moving object based on artificial intelligence

Also Published As

Publication number Publication date
KR20110011424A (en) 2011-02-08

Similar Documents

Publication Publication Date Title
KR101618030B1 (en) Method for Recognizing Position and Controlling Movement of a Mobile Robot, and the Mobile Robot Using the same
EP2460629B1 (en) Control method for localization and navigation of mobile robot and mobile robot using same
KR102243179B1 (en) Moving robot and control method thereof
US8849036B2 (en) Map generating and updating method for mobile robot position recognition
KR101725060B1 (en) Apparatus for recognizing location mobile robot using key point based on gradient and method thereof
KR101868374B1 (en) Control method of a moving-robotf
US8903160B2 (en) Apparatus and method with traveling path planning
KR101776622B1 (en) Apparatus for recognizing location mobile robot using edge based refinement and method thereof
US9402151B2 (en) Method for recognizing position of mobile robot by using features of arbitrary shapes on ceiling
EP1796039B1 (en) Device and method for image processing
KR20180125010A (en) Control method of mobile robot and mobile robot
US11348276B2 (en) Mobile robot control method
WO2009142841A2 (en) Rectangular table detection using hybrid rgb and depth camera sensors
KR20150144730A (en) APPARATUS FOR RECOGNIZING LOCATION MOBILE ROBOT USING KEY POINT BASED ON ADoG AND METHOD THEREOF
US11119501B2 (en) Moving robot and control method for the same
CN111679661A (en) Semantic map construction method based on depth camera and sweeping robot
KR101456172B1 (en) Localization of a mobile robot device, method and mobile robot
KR101965739B1 (en) Mobile robot and method for controlling the same
KR102047303B1 (en) Robot of estimating direction based on vanishing point of low luminance image and method estimating thereof
KR101956569B1 (en) Mobile robot and method for controlling the same
Huang et al. Vision SLAM using omni-directional visual scan matching
Marin-Hernandez et al. Collaborative tracking for robotic tasks
Song et al. Mobile robot loop closing using monocular vision SLAM
Dehkharghani et al. Mobile robot visual control and navigation using strategies of moving object localization and mapping

Legal Events

Date Code Title Description
E902 Notification of reason for refusal
E902 Notification of reason for refusal
E701 Decision to grant or registration of patent right
GRNT Written decision to grant
FPAY Annual fee payment

Payment date: 20190415

Year of fee payment: 4