Nothing Special   »   [go: up one dir, main page]

KR102106029B1 - 간판 검출 성능 향상을 위한 방법 및 시스템 - Google Patents

간판 검출 성능 향상을 위한 방법 및 시스템 Download PDF

Info

Publication number
KR102106029B1
KR102106029B1 KR1020180083833A KR20180083833A KR102106029B1 KR 102106029 B1 KR102106029 B1 KR 102106029B1 KR 1020180083833 A KR1020180083833 A KR 1020180083833A KR 20180083833 A KR20180083833 A KR 20180083833A KR 102106029 B1 KR102106029 B1 KR 102106029B1
Authority
KR
South Korea
Prior art keywords
image
signage
input image
training
information
Prior art date
Application number
KR1020180083833A
Other languages
English (en)
Other versions
KR20200013156A (ko
Inventor
허민혁
유찬미
Original Assignee
네이버랩스 주식회사
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 네이버랩스 주식회사 filed Critical 네이버랩스 주식회사
Priority to KR1020180083833A priority Critical patent/KR102106029B1/ko
Publication of KR20200013156A publication Critical patent/KR20200013156A/ko
Application granted granted Critical
Publication of KR102106029B1 publication Critical patent/KR102106029B1/ko

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/20Image preprocessing
    • G06V10/25Determination of region of interest [ROI] or a volume of interest [VOI]
    • G06K9/3233
    • G06K9/6267
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N20/00Machine learning
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T3/00Geometric image transformations in the plane of the image
    • G06T3/40Scaling of whole images or parts thereof, e.g. expanding or contracting
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T5/00Image enhancement or restoration
    • G06T5/50Image enhancement or restoration using two or more images, e.g. averaging or subtraction
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • G06V10/74Image or video pattern matching; Proximity measures in feature spaces
    • G06V10/75Organisation of the matching processes, e.g. simultaneous or sequential comparisons of image or video features; Coarse-fine approaches, e.g. multi-scale approaches; using context analysis; Selection of dictionaries
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • G06V10/77Processing image or video features in feature spaces; using data integration or data reduction, e.g. principal component analysis [PCA] or independent component analysis [ICA] or self-organising maps [SOM]; Blind source separation
    • G06V10/774Generating sets of training patterns; Bootstrap methods, e.g. bagging or boosting

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Physics & Mathematics (AREA)
  • Software Systems (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Evolutionary Computation (AREA)
  • Medical Informatics (AREA)
  • Computing Systems (AREA)
  • Artificial Intelligence (AREA)
  • Multimedia (AREA)
  • General Engineering & Computer Science (AREA)
  • Data Mining & Analysis (AREA)
  • Mathematical Physics (AREA)
  • Health & Medical Sciences (AREA)
  • Databases & Information Systems (AREA)
  • General Health & Medical Sciences (AREA)
  • Image Analysis (AREA)

Abstract

간판 검출 성능 향상을 위한 방법 및 시스템이 개시된다. 간판 검출 성능을 향상시키기 위해, 상점의 간판을 검출하기 위한 기계 학습 모델을 학습하는 과정에서 간판 검출에 방해가 되는 객체에 대해 부정 값을 부여하는 손실 함수를 적용할 수 있고, 간판 검출 시 영상 사이즈의 영향을 최소화하도록 영상의 다중 스케일에서 중복적으로 검출되는 영역을 최종 간판 영역으로 인식할 수 있다.

Description

간판 검출 성능 향상을 위한 방법 및 시스템{METHOD AND SYSTEM FOR IMPROVING SIGNAGE DETECTION PERFORMANCE}
아래의 설명은 실 공간에 존재하는 상점 간판을 검출하는 기술에 관한 것이다.
실 공간에는 음식점, 서점, 가게 등 다양한 형태의 관심 영역(Point Of Interest, POI)이 존재한다. 이러한 관심 영역에 대한 정보(이하, 'POI 정보')를 지도에 표시하거나 사용자에게 제공하기 위해서는 해당 POI 정보를 수집해야 한다.
종래에는 사람이 직접 도보 또는 차량 등을 이용하여 실제 공간을 방문하여 POI의 위치와 종류, 이름 등을 직접 확인하여 시스템에 기록하거나 또는 카메라가 설치된 차량을 이용하여 실제 공간, 도로 등의 영상을 카메라로 촬영하고, 추후 사람이 촬영된 영상을 분석하여 POI의 종류, 이름 등을 인식하여 시스템에 기록하는 방법을 사용하였다.
예를 들어, 한국공개특허 제10-2011-0037045호는 차량의 카메라를 이용한 영상 수집 시스템 및 그 제어 방법에 관한 기술로, 차량에 장착된 카메라를 이용하여 촬영이 필요한지의 여부에 따라 해당 지역 또는 거리를 촬영하여 데이터베이스를 구축하고, 택시, 택배 트럭 또는 버스 등과 같이 다양한 지역을 이동하는 차량에 카메라를 장착하는 경우 보다 많은 지역 또는 거리를 촬영하여 사용자에게 보다 많은 지도 상의 영상 정보를 적은 비용으로 제공할 수 있음을 개시하고 있다.
그러나, 이러한 종래기술은 결국 실 공간에 있는 POI 정보를 확인하기 위해 사람이 해당 POI가 있는 위치에 방문하여 직접 정보를 확인 및 기록하거나 혹은 해당 위치를 방문하여 해당 위치를 촬영하고 추후에 사람이 촬영된 영상을 확인하여 정보를 확인 및 기록하는 등, 처리 과정 전반에 걸쳐 사람이 반드시 개입하여야 하기 때문에, 데이터 수집과 이를 분석하여 처리하는데 비용과 시간, 노력이 많이 소모될 수 밖에 없다는 문제점이 있다.
또한, 이미 어떠한 실 공간 영역에 대한 POI 정보를 확보하고 있다고 하더라도 POI 정보는 신규 오픈, 폐업, 상호 변경, 창업 등으로 인해 수시로 변경될 수 있다. 따라서 POI의 변화를 즉각 인지하기 위해서는 해당 공간 영역에 대한 빈번한 모니터링을 통한 POI 정보의 신속한 업데이트가 필요하나, 사람이 개입되는 처리 방법으로는 이 또한 비용과 많은 노력이 소모되어 실질적으로 POI의 변경과 관련된 최신의 정보를 획득/제공하는 것이 사실상 거의 불가능하다. 특히 실 공간의 범위가 넓은 경우 POI의 변화에 따른 최신의 POI 정보를 확인하는 과정이 더욱 어려워 진다는 문제점이 있다.
신규 오픈, 폐업, 상호 변경 등의 변화를 가장 잘 감지할 수 있는 상점의 간판 부분을 탐지하여 POI 변화를 검출할 수 있는 방법 및 시스템을 제공한다.
상점의 간판 검출에 방해가 되는 객체들을 감별하여 간판 검출 정확도를 향상시킬 수 있는 방법 및 시스템을 제공한다.
입력 영상의 다중 스케일에서 검출된 영역을 병합하는 방식을 이용하여 간판 검출 시 영상 사이즈의 영향을 최소화할 수 있는 방법 및 시스템을 제공한다.
컴퓨터 시스템에서 수행되는 방법에 있어서, 상기 컴퓨터 시스템은 메모리에 포함된 컴퓨터 판독가능한 명령들을 실행하도록 구성된 적어도 하나의 프로세서를 포함하고, 상기 방법은, 상기 적어도 하나의 프로세서에 의해, 간판과 관련된 학습 대상 이미지를 이용하여 간판 검출을 위한 기계 학습 모델을 훈련하는 단계를 포함하고, 상기 훈련하는 단계는, 상기 간판과 간판으로 검출될 가능성이 있는 방해 객체를 구분하여 상기 기계 학습 모델을 훈련하는 것을 특징으로 하는 방법을 제공한다.
일 측면에 따르면, 상기 훈련하는 단계는, 상기 방해 객체에 대해 부정 값을 부여하는 손실 함수(loss function)를 이용하여 상기 기계 학습 모델을 훈련할 수 있다.
다른 측면에 따르면, 상기 훈련하는 단계는, 상기 학습 대상 이미지에 상기 방해 객체를 삽입하여 합성 이미지를 생성하는 단계; 및 상기 합성 이미지를 훈련 데이터로 이용하여 상기 기계 학습 모델을 훈련하는 단계를 포함할 수 있다.
또 다른 측면에 따르면, 상기 합성 이미지를 생성하는 단계는, 상기 방해 객체로서 사전에 구축된 로고 이미지 셋에 존재하는 로고나 이미지, 문구를 상기 학습 대상 이미지에 삽입하여 합성할 수 있다.
또 다른 측면에 따르면, 상기 합성 이미지를 훈련 데이터로 이용하여 상기 기계 학습 모델을 훈련하는 단계는, 상기 합성 이미지에서 간판으로 예측되는 객체를 추출하는 단계; 및 주어진 정답 이미지를 기준으로 상기 추출된 객체 중 상기 정답 이미지 내에 간판으로 설정된 객체에 해당되는 경우 긍정 값을 부여하고 상기 정답 이미지 내에 방해 객체로 설정된 객체에 해당되는 경우 부정 값을 부여하는 단계를 포함할 수 있다.
컴퓨터 시스템에서 수행되는 방법에 있어서, 상기 컴퓨터 시스템은 메모리에 포함된 컴퓨터 판독가능한 명령들을 실행하도록 구성된 적어도 하나의 프로세서를 포함하고, 상기 방법은, 상기 적어도 하나의 프로세서에 의해, 입력 영상에 대하여 상기 입력 영상의 사이즈를 변경하여 다중 스케일의 영상들을 생성하는 단계; 및 상기 적어도 하나의 프로세서에 의해, 상기 다중 스케일의 영상들을 이용하여 상기 입력 영상 내의 간판 영역을 검출하는 단계를 포함하는 방법을 제공한다.
일 측면에 따르면, 상기 검출하는 단계는, 상기 다중 스케일의 영상들을 대상으로 각 영상 내에서 간판으로 예측되는 객체를 검출하는 단계; 상기 다중 스케일의 영상들에서 검출된 객체의 위치를 후보 영역으로서 상기 입력 영상에 대응시키는 단계; 및 상기 입력 영상 내에서 상기 후보 영역이 중복되는 영역을 기초로 최종 간판 영역을 검출하는 단계를 포함할 수 있다.
다른 측면에 따르면, 상기 검출하는 단계는, 상기 다중 스케일의 영상들을 대상으로 각 영상 내에서 간판으로 예측되는 객체를 검출하는 단계; 상기 다중 스케일의 영상들에서 검출된 객체의 위치를 후보 영역으로서 상기 입력 영상에 대응시키는 단계; 상기 후보 영역을 이용하여 상기 입력 영상에 대한 주요 맵(saliency map)을 생성하는 단계; 및 상기 주요 맵으로부터 상기 입력 영상 내의 최종 간판 영역을 검출하는 단계를 포함할 수 있다.
또 다른 측면에 따르면, 상기 주요 맵을 생성하는 단계는, 상기 입력 영상에 대해 상기 후보 영역에 대응되는 위치에 해당 후보 영역에 부여된 스코어를 누적하여 상기 주요 맵을 생성하고, 상기 최종 간판 영역을 검출하는 단계는, 상기 주요 맵에서 사전에 정해진 임계 값 이상의 스코어를 가진 주요 영역을 찾아 상기 입력 영상에서 상기 주요 영역에 대응되는 영역을 상기 최종 간판 영역으로 검출할 수 있다.
또 다른 측면에 따르면, 상기 생성하는 단계는, 상기 입력 영상의 사이즈를 기준으로 상기 입력 영상보다 작은 사이즈의 적어도 하나의 축소 영상과 상기 입력 영상보다 큰 사이즈의 적어도 하나의 확대 영상을 생성할 수 있다.
또 다른 측면에 따르면, 상기 생성하는 단계는, 상기 입력 영상의 사이즈가 사전에 정해진 최대 크기 이상이면 상기 입력 영상보다 작은 사이즈의 축소 영상으로 상기 다중 스케일의 영상들을 생성하고, 상기 입력 영상의 사이즈가 사전에 정해진 최소 크기 이하이면 상기 입력 영상보다 큰 사이즈의 확대 영상으로 상기 다중 스케일의 영상들을 생성할 수 있다.
상기 방법을 컴퓨터에 실행시키기 위한 프로그램이 기록되어 있는 것을 특징으로 하는 컴퓨터에서 판독 가능한 기록매체를 제공한다.
컴퓨터 시스템에 있어서, 컴퓨터에서 판독 가능한 명령을 실행하도록 구현되는 적어도 하나의 프로세서를 포함하고, 상기 적어도 하나의 프로세서에 의해, 간판과 관련된 학습 대상 이미지를 이용하여 간판 검출을 위한 기계 학습 모델을 훈련하고, 상기 간판과 간판으로 검출될 가능성이 있는 방해 객체를 구분하여 상기 기계 학습 모델을 훈련하는 것을 특징으로 하는 컴퓨터 시스템을 제공한다.
본 발명의 실시예들에 따르면, 신규 오픈, 폐업, 상호 변경 등의 변화를 가장 잘 감지할 수 있는 상점의 간판 부분을 탐지하여 POI 변화를 효과적이고 신뢰성 있게 검출할 수 있다.
본 발명의 실시예들에 따르면, 상점의 간판을 검출하기 위한 기계 학습 모델을 학습하는 과정에서 간판 검출에 방해가 되는 객체들을 함께 학습하여 간판 검출 정확도를 향상시킬 수 있다.
본 발명의 실시예들에 따르면, 입력 영상의 다중 스케일에서 검출된 영역을 병합하는 방식으로 최종 검출 영역을 생성함으로써 간판 검출 시 영상 사이즈의 영향을 최소화할 수 있다.
도 1은 본 발명의 일실시예에 따른 정보 수집 및 업데이트 시스템의 예를 도시한 도면이다.
도 2는 본 발명의 일실시예에 따른 정보 수집 및 업데이트 방법의 예를 도시한 흐름도이다.
도 3은 본 발명의 일실시예에 있어서, 기본 정보 획득 과정의 예를 도시한 흐름도이다.
도 4는 본 발명의 일실시예에 있어서, 맵핑 로봇을 통해 수집되는 데이터의 예를 도시한 도면이다.
도 5는 본 발명의 일실시예에 있어서, 수시 정보 획득 과정의 예를 도시한 흐름도이다.
도 6은 본 발명의 일실시예에 있어서, POI 변화 검출 과정의 예를 도시한 흐름도이다.
도 7 내지 도 8은 본 발명의 일실시예에 있어서 간판과 방해 객체를 함께 학습하는 과정을 설명하기 위한 예시 도면이다.
도 9 내지 도 11은 본 발명의 일실시예에 있어서 다중 스케일의 영상을 이용하여 간판을 검출하는 과정을 설명하기 위한 예시 도면이다.
도 12는 본 발명의 일실시예에 따른 컴퓨터 시스템의 예를 도시한 블록도이다.
이하, 본 발명의 실시예를 첨부된 도면을 참조하여 상세하게 설명한다.
본 발명은 관심 영역(Point Of Interest, POI) 변화 검출을 사람의 개입을 최소화하면서도 효율적으로 실행할 수 있는 방법 및 시스템을 제공한다. 특히, 본 발명의 실시예들은 상점의 간판 부분을 검출하여 POI 변화를 인식함에 있어 간판 검출 성능을 향상시킬 수 있는 방법 및 시스템을 제공한다.
실 환경에서 POI는 신규로 오픈하거나, 폐점하거나, 확장하거나, 다른 점포로 변경되는 등 수시로 다양한 형태로 변화한다. 이러한 POI 변화를 수시로 파악하여 최신의 POI 정보를 유지하는 것은 지도 등 위치 관련 서비스들에 있어서 중요도가 아주 높다.
본 발명의 실시예들에 따른 POI 변화 검출 기술은 차량이나 로봇 등을 활용하여 촬영한 영상으로부터 POI 변화를 자동으로 검출하고, POI 변화를 시스템에 기록하게 하기 위해 관련 정보를 운영자에게 제공하거나 또는 변화가 아주 명확한 경우에는 POI의 변경 사항을 자동으로 시스템에 기록하도록 함으로써, POI 정보를 효율적으로 최신 상태로 유지할 수 있다.
일실시예로, POI 변화 검출 기술을 설명하기 위해 실 공간으로서 대규모 실내 쇼핑몰의 예를 들어 설명한다. 이는 설명의 편의를 위한 것으로, 본 발명의 실시예들에서의 실 공간이 실내 쇼핑몰 등의 공간으로 한정되는 것은 아니다. 또한, 본 실시예에서는 POI 변화 검출을 위한 영상과 관련 데이터의 획득 수단으로서 자율주행이 가능한 로봇을 활용하는 예를 설명한다. 정보의 획득은 실 공간의 환경의 종류에 따라 차량, 사람, 트레이, CCTV 등 다양한 수단을 통해 이루어질 수 있으며, 본 실시예에서 제시하는 로봇과 같은 정보 획득 수단으로 한정되는 것은 아니다.
도 1은 본 발명의 일실시예에 따른 정보 수집 및 업데이트 시스템의 예를 도시한 도면이고, 도 2는 본 발명의 일실시예에 따른 정보 수집 및 업데이트 방법의 예를 도시한 흐름도이다.
본 실시예에 따른 정보 수집 및 업데이트 시스템(100)은 클라우드 서버(110), 맵핑 로봇(120) 및 서비스 로봇(130)을 포함하여 구성될 수 있다. 클라우드 서버(110)와 맵핑 로봇(120), 그리고 클라우드 서버(110)와 서비스 로봇(130)은 수집된 데이터의 전송이나 위치 정보, 맵 정보 등의 전송을 위해 네트워크를 통한 데이터 통신이 가능하도록 구현될 수 있다. 특히, 서비스 로봇(130)은 클라우드 서버(110)와의 데이터 통신에 실시간성을 부여하기 위해 무선 네트워크 인터페이스를 포함하도록 구현될 수 있다.
또한, 본 실시예에 따른 정보 수집 및 업데이트 방법은, 도 2에 도시된 바와 같이, 기본 정보 획득 단계(210), 수시 정보 획득 단계(220) 및 수시 POI 정보 처리 단계(230)를 포함할 수 있다. 기본 정보 획득 단계(210)는 기본 정보의 획득을 위해 최초 1회(필요 시 2회 이상) 수행될 수 있으며, 수시 정보 획득 단계(220)는 상시 또는 필요 시마다 반복적으로 수행될 수 있다. 또한, 수시 POI 정보 처리 단계(230)는 일(day) 단위나 주(week) 단위와 같이 정기적으로 반복 수행될 수 있다.
이때, 맵핑 로봇(120)은 기본 정보 획득 단계(210)에서 대상 장소(140)를 주행하면서 대상 장소(140)에 대한 데이터를 수집하여 클라우드 서버(110)로 전달하도록 구현될 수 있으며, 클라우드 서버(110)는 맵핑 로봇(120)이 수집 및 제공하는 데이터를 토대로 대상 장소(140)에 대한 기본 정보를 생성하고, 생성된 기본 정보를 이용하여 서비스 로봇(130)의 대상 장소(140)에서의 자율 주행 및 서비스 제공을 서포트하도록 구현될 수 있다.
또한, 서비스 로봇(130)은 수시 정보 획득 단계(220)에서 클라우드 서버(110)로부터 제공되는 정보에 기초하여 대상 장소(140)를 자율 주행하면서 수시 정보를 수집하여 클라우드 서버(110)로 전달하도록 구현될 수 있다.
이때, 클라우드 서버(110)는 수시 POI 정보 처리 단계(230)에서 기본 정보와 수시 정보 간의 비교에 기반하여 POI 변화를 인식하여 업데이트하는 등, 대상 장소(140)에 대한 정보를 업데이트할 수 있다.
기본 정보 획득 단계(210)에서 정보 수집 및 업데이트 시스템(100)은 기본 정보를 획득할 수 있다. POI 변화 검출 기술은 기본적으로 현재 영상과 이전 영상을 다양한 기술을 활용하여 비교함으로써, POI에 대한 변화 여부를 감지할 수 있다. 따라서, 비교 대상이 되는 이전 영상이 요구되며, 이후 로봇(일례로, 서비스 로봇(130))의 자율 주행을 위해 로봇을 위한 실내 지도 구성이 요구된다. 이러한 이전 영상과 실내 지도의 획득을 위해, 기본 정보 획득 단계(110)가 최초 1회(필요 시 2회 이상) 수행될 수 있다. 이러한 기본 정보 획득 단계(110)를 위한 세부 단계들을 도 3을 통해 설명한다.
도 3은 본 발명의 일실시예에 있어서, 기본 정보 획득 과정의 예를 도시한 흐름도이다. 기본 정보의 획득은 정보 수집 및 업데이트 시스템(100)이 포함하는 클라우드 서버(110) 및 맵핑 로봇(120)에 의해 이루어질 수 있으며, 도 3의 단계들(310 내지 340)은 도 2의 단계(210)에 포함되어 수행될 수 있다.
단계(310)에서 맵핑 로봇(120)는 실내 쇼핑몰과 같이 대상 장소(140)가 선정되면, 선정된 대상 장소(140)를 자율 주행하면서 데이터를 수집할 수 있다. 이때, 수집되는 데이터는 POI 변화 검출을 위해 활용될 이전 영상을 생성하기 위한 데이터, 그리고 서비스 로봇(130)의 자율 주행을 위한 실내 지도 구성을 위한 데이터를 포함할 수 있다. 이를 위해, 맵핑 로봇(120)은 라이더(Lidar), 휠 인코더(Wheel Encoder), IMU(Inertial Measurement Unit), 카메라, 통신 인터페이스 등을 포함하도록 구현될 수 있으며, 서비스 로봇(130)은 이미 맵핑 로봇(120)에 의해 수집된 데이터에 기반하여 구성되는 실내 지도를 활용하여 자율 주행을 수행하기 때문에 맵핑 로봇(120)과 같이 고가의 고정밀 센서를 탑재할 필요성이 없으며, 따라서 맵핑 로봇(120)에 비해 상대적으로 저가의 센서를 탑재하도록 구현될 수 있다. 맵핑 로봇(120)에 의해 수집되는 데이터에 대해서는 이후 도 4를 통해 더욱 자세히 설명한다.
단계(320)에서 맵핑 로봇(120)은 수집된 데이터를 클라우드 서버(110)로 전송할 수 있다. 수집되는 데이터는 실시예에 따라 수집과 동시에 클라우드 서버(110)로 전송되거나, 또는 대상 장소(140)의 구역 단위로 묶여서 클라우드 서버(110)로 전송되거나, 또는 대상 장소(140)의 전체 구역들에 대한 데이터의 수집이 완료된 이후에 한꺼번에 클라우드 서버(110)로 전송될 수 있다.
단계(330)에서 클라우드 서버(110)는 맵핑 로봇(120)으로부터 수신된 데이터를 저장할 수 있다. 예를 들어, 클라우드 서버(110)는 맵핑 로봇(120)으로부터 대상 장소(140)의 전체 구역들에 대한 전체 데이터를 수집하기 위해, 맵핑 로봇(120)이 수집하여 전송하는 데이터를 데이터베이스(POI 데이터베이스)에 저장하여 지속적으로 관리할 수 있다.
단계(340)에서 클라우드 서버(110)는 데이터베이스에 저장된 데이터를 이용하여 3차원 맵을 생성할 수 있다. 생성되는 3차원 맵은 이후 서비스 로봇(130)이 대상 장소(140)를 자율 주행하면서 목적하는 서비스를 제공할 수 있도록 돕기 위해 활용될 수 있다.
도 4는 본 발명의 일실시예에 있어서, 맵핑 로봇을 통해 수집되는 데이터의 예를 도시한 도면이다. 맵핑 로봇(120)은 대상 장소(140)에 대한 3차원 맵을 생성하기 위한 맵핑 데이터(410)와 POI 변화를 검출하는데 활용하기 위한 POI 데이터(420)를 수집할 수 있다. 일례로, 맵핑 데이터(410)는 맵핑 로봇(120)이 포함할 수 있는 라이더, 휠 인코더, IMU 등을 통해 측정된 측정값들(라이더 데이터, 휠 인코더 데이터, IMU 데이터 등)을 포함할 수 있으며, POI 데이터(420)는 맵핑 로봇(120)이 포함할 수 있는 카메라, 통신 인터페이스들(와이파이 인터페이스, 블루투스 인터페이스 등)을 통해 얻어지는 데이터들(촬영된 영상과 같은 카메라 데이터, 와이파이의 신호 강도나 블루투스 비콘(beacon) 등)을 포함할 수 있다. 도 4의 실시예에서는 설명의 편의를 위해, 맵핑 데이터(410)의 종류와 POI 데이터(420)의 종류를 구분하였으나, 수집된 데이터는 3차원 맵의 생성과 POI 변화 검출 모두를 위해 중복적으로 활용될 수도 있다. 예를 들어, 카메라를 통해 촬영된 영상이나 와이파이 신호 강도 등이 3차원 맵을 생성하기 위해 더 활용될 수도 있다. 맵핑 데이터(410) 및/또는 POI 데이터(420)를 수집하기 위해 도 4를 통해 설명한 센서들 이외에 스테레오 카메라나 적외선 센서 등과 같이 보다 다양한 종류의 센서들이 맵핑 로봇(120)에서 더 활용될 수도 있다.
맵핑 로봇(120)은 일례로, 실내 공간을 이동하면서 맵핑 로봇(120)에 탑재된 카메라로 일정 간격(일례로, 1m/sec로 이동하면서 1초 간격)으로 주변 영역을 촬영할 수 있다. 촬영되는 영상에서 POI 변화 검출에 주로 사용되는 매장의 간판과 매장 전면의 모양이 효율적으로 영상에 포함되도록, 360도 카메라나 광각 카메라 및/또는 다수의 카메라들이 활용될 수 있으며, 대상 공간(140)의 전 영역이 적어도 부분적으로 영상에 포함될 수 있도록 영상을 촬영할 수 있다. 이때, POI 변화 위치를 확인하기 위해서는 촬영된 영상이 대상 장소(140)의 어느 위치에서 얻어진 영상인지 알아야 하기 때문에 얻어진 영상은 촬영시의 맵핑 로봇(120)의 촬영 정보와 연계하여 함께 저장될 수 있다. 영상과 함께 저장되는 촬영 정보는 맵핑 로봇(120)의 위치정보(촬영 위치) 및/또는 방향정보(촬영 방향)를 포함할 수 있다. 이때, 영상이 촬영된 시점에 대한 정보(촬영 시점) 역시 영상과 함께 저장될 수도 있다. 일례로, 위치정보의 획득을 위해 맵핑 로봇(120)은 블루투스 비콘 정보나 와이파이 기반 위치 파악을 위한 와이파이 핑거 프린팅(finger printing) 데이터를 더 수집할 수 있으며, 방향정보의 획득을 위해 맵핑 로봇(120)이 포함하는 라이더나 IMU의 측정값이 활용될 수도 있다. 맵핑 로봇(120)은 수집된 데이터를 클라우드 서버(110)로 전송할 수 있으며, 클라우드 서버(110)는 맵핑 로봇(120)으로부터 수신되는 데이터를 활용하여 3차원 맵을 생성하고, 생성된 3차원 맵에 기반하여 서비스 로봇(130)에 대한 로컬라이제이션(localization), 경로 플래닝(planning) 등을 처리할 수 있다. 또한, 클라우드 서버(110)는 맵핑 로봇(120)으로부터 수신되는 데이터를 추후 서비스 로봇(130)에 의해 수집되는 데이터와 비교하여 대상 장소(140)에 대한 정보를 업데이트하는데 활용할 수 있다.
대상 장소가 실내인 경우, 맵핑 로봇(120)에 의해 생성된 맵 데이터(일례로, 위치 정보에 따른 영상, 와이파이 신호 강도, 블루투스 비콘 정보, 센서 측정값 등)에 포함되는 위치는 시작 위치를 기준으로 상대적으로 정해질 수 밖에 없다. 이는 실내 공간에서는 정밀한 글로벌 포지셔닝 데이터(global positioning data)를 얻을 수 없기 때문이다. 또한, 동일한 공간을 여러 번에 나누어 스캔하는 경우에는 시작 위치가 매번 다르기 때문에 일관성 있는 위치 데이터를 얻기 어렵다. 따라서, 일관성 있는 위치 데이터 표면 및 활용을 위해, 맵핑 로봇(120)을 통해 얻어지는 위치 데이터를 글로벌 포지셔닝이 가능한 형태로 변환하는 과정이 요구된다. 이를 위해, 클라우드 서버(110)는 실내 공간의 실제 위/경도로 표시되는 정확한 위치를 확인한 후, 맵 데이터에 포함된 위치 데이터를 WGS84나 ITRF, PZ 등의 측지 기준계에 따른 형태로 변환하여 저장한 후, 이후의 과정에서 활용할 수 있다.
다시 도 1 및 도 2를 참조하면, 수시 정보 획득 단계(220)에서 정보 수집 및 업데이트 시스템(100)은 대상 장소(140)에 대한 수시 정보를 획득할 수 있다. 수시 정보 획득 단계(220)에서는 이전 단계인 기본정보 획득 단계(210)에서 얻어진 3차원 맵이나 이전 영상, 위치정보 등을 지속적으로 활용할 수 있다.
이미 클라우드 서버(110)가 기본정보 획득 단계(210)에서 대상 장소(140)의 전체 공간에 대한 정보를 수집하여 가공 및 저장하고 있기 때문에, 수시 정보 획득 단계(220)에서는 일부 변경된 정보만을 획득, 가공 저장하여 효율적으로 맵 데이터와 같은 대상 장소(140)에 대한 정보를 최신 상태로 유지하는 것이 가능해진다. 따라서 매번 대상 장소(140)의 전체 공간 영역에 대한 데이터를 수집해야 할 필요성이 없다.
또한, 이미 설명한 바와 같이, 수시 정보 획득 단계(220)에서는 클라우드 서버(110)가 맵핑 로봇(120)에 탑재된 다양한 고가의 고정밀 센서들의 데이터를 이용하여 서비스 로봇(130)의 자율 주행에 요구되는 고정밀 맵 데이터를 생성하여 저장하고 있기 때문에, 서비스 로봇(130)이 고가의 고정밀 센서를 탑재할 필요성이 없다. 이에 수시 정보 획득 단계(220)에서 서비스 로봇(130)은 대상 장소(140)에 대한 보안, 안내, 청소 등과 같은 본연의 서비스 활용 목적에 따라 동작하는 저가의 로봇을 활용하여 구현될 수 있다.
도 5는 본 발명의 일실시예에 있어서, 수시 정보 획득 과정의 예를 도시한 흐름도이다. 서비스 로봇(130)은 보안, 안내, 청소 등과 같은 본연의 서비스 목적을 위해 대상 장소(140) 내부에 배치될 수 있다. 대상 장소(140)와 서비스 목적에 따라 둘 이상의 서비스 로봇들이 대상 장소(140)에 배치될 수 있으며, 각각 다른 영역에서 동작하도록 지정될 수도 있다. 수시 정보의 획득은 정보 수집 및 업데이트 시스템(100)이 포함하는 클라우드 서버(110) 및 서비스 로봇(130)에 의해 이루어질 수 있으며, 도 5의 단계들(510 내지 580)은 도 2의 단계(220)에 포함되어 수행될 수 있다.
단계(510)에서 서비스 로봇(130)은 대상 장소에서 주변의 영상을 촬영할 수 있다. 이를 위해, 서비스 로봇(130)은 대상 장소에서 주변의 영상을 촬영하기 위한 카메라를 포함하도록 구현될 수 있다. 촬영된 영상은 두 가지 목적으로 활용될 수 있다. 첫 번째로, 촬영된 영상은 서비스 로봇(130)의 현재의 위치(촬영 위치) 및/또는 방향(촬영 방향)을 확인하여 서비스 로봇(130)의 자율 주행을 돕기 위한 목적으로 활용될 수 있다. 두 번째로, 촬영된 영상은 POI 변화를 확인하기 위한 수시 영상으로서 기본 정보 획득 단계(210)에서 얻어진 이전 영상과의 비교를 위한 목적으로 활용될 수 있다. 두 가지 목적 모두를 위해 촬영된 영상은 해당 영상이 촬영된 시점(촬영 시점)의 서비스 로봇(130)의 위치 및/또는 방향 정보를 요구할 수 있다. 실시예에 따라, 첫 번째 목적을 위한 영상의 촬영 주기와 두 번째 목적을 위한 영상의 촬영 주기는 서로 다를 수도 있으며, 서비스 로봇(130)의 이동 속도에 적어도 기초하여 동적으로 결정될 수도 있다. 만약, 서비스 로봇(130)이 영상이 아닌 와이파이 신호 강도나 블루투스 비콘 등을 활용하여 위치 및/또는 방향을 확인하는 경우, 영상의 촬영은 두 번째 목적을 위해서만 활용될 수도 있다. 만약, 와이파이 신호 강도나 블루투스 비콘 등을 활용하는 경우, 서비스 로봇(130)은 위치나 방향을 확인하기 위해 얻어지는 와이파이 신호 강도나 블루투스 비콘을 클라우드 서버(110)로 전송하여 위치 및/또는 방향에 대한 정보를 요청할 수도 있다. 한편, 이 경우에도 두 번째 목적을 위해 영상과 관련된 위치 및/또는 방향 정보의 획득이 요구된다. 이후 단계(520) 내지 단계(540)은 영상과 관련된 위치 및/또는 방향 정보를 획득하는 과정의 예를 설명할 수 있다. 서비스 로봇(130)이 이동되는 경우, 서비스 로봇(130)의 위치를 지속적으로 획득하기 위해 단계(510) 내지 단계(540)는 주기적으로 및/또는 반복적으로 수행될 수 있다.
단계(520)에서 서비스 로봇(130)은 촬영된 영상을 클라우드 서버(130)로 전송할 수 있다. 이때, 서비스 로봇(130)은 영상을 전송하면서 전송하는 영상에 대응하는 위치 및/또는 방향 정보를 요청할 수 있다.
단계(530)에서 클라우드 서버(130)는 서비스 로봇(130)으로부터 수신된 영상을 분석하여 서비스 로봇(130)의 위치 및/또는 방향 정보를 생성할 수 있다. 이때, 위치 및/또는 방향 정보는 기본 정보 획득 단계(210)에서 얻어진 정보들을 통해 생성될 수 있다. 예를 들어, 클라우드 서버(130)는 맵핑 로봇(120)으로부터 수집된 영상과 서비스 로봇(130)으로부터 수신된 영상을 비교하여 매칭되는 영상을 찾은 후, 해당 영상과 연계되어 저장된 위치 및/또는 방향 정보에 기반하여 서비스 로봇(130)의 요청에 따른 위치 및/또는 방향 정보를 생성할 수 있다. 방향 정보는 카메라의 방향 정보일 수 있다.
단계(540)에서 클라우드 서버(130)는 생성된 위치 및/또는 방향 정보를 서비스 로봇(130)으로 전송할 수 있다.
단계(550)에서 서비스 로봇(130)은 수신되는 위치 및/또는 방향 정보를 촬영된 영상과 연관하여 수시 정보로서 저장할 수 있다. 수시 정보는 앞서 설명한 POI 변화를 확인하기 위한 목적을 위해 활용하기 위한 정보를 의미할 수 있다. 이때, 수시 정보는 영상의 촬영 시점에 대한 정보를 더 포함할 수 있다.
단계(560)에서 서비스 로봇(130)은 저장된 수시 정보를 클라우드 서버(130)로 전송할 수 있다. 서비스 로봇(130)이 이동함에 따라 수시 정보의 양 역시 늘어날 수 있으며, 서비스 로봇(130)은 상시적으로, 주기적으로 또는 필요 시마다 저장된 수시 정보를 클라우드 서버(130)로 전송할 수 있다.
단계(570)에서 클라우드 서버(130)는 수신된 수시 정보를 데이터베이스(POI 데이터베이스)에 저장할 수 있다. 저장된 수시 정보는 추후 기본 정보 획득 단계(210)에서 얻어진 정보들과의 비교를 통해 POI 변화를 검출하기 위해 활용될 수 있다.
단계(580)에서 서비스 로봇(130)은 수신되는 위치 및/또는 방향 정보에 기초하여 서비스 임무를 수행할 수 있다. 도 5의 실시예에서는 단계(580)이 단계(570) 이후에 수행되는 것처럼 설명하고 있으나, 서비스 임무를 수행하는 단계(580)는 단계(540)에서 수신되는 서비스 로봇(130)의 위치 및/또는 방향 정보를 이용하여 단계(550) 내지 단계(570)과는 병렬적으로 수행될 수 있다. 서비스 임무의 수행을 위한 로컬라이제이션과 경로 플래닝은 실시예에 따라 서비스 로봇(130)에 의해 수행될 수도 있고, 클라우드 서버(130)를 통해 수행될 수도 있다.
이상의 실시예들에서는 맵핑 로봇(120) 및 서비스 로봇(130) 등을 이용하여 대상 장소(140)에 대한 데이터를 수집함을 설명하고 있으나, 본 발명이 로봇의 사용을 전제로 하는 것은 아니며, 동등한 수준의 다양한 방법들이 활용될 수 있다. 예를 들어, 기본정보 획득 단계(210)에서는 최초 1회의 기본 정보의 수집을 위해, 자율 주행이 가능한 고가의 맵핑 로봇(120)을 사용하는 대신 사람이 끌고 다닐 수 있는 트롤리(trolley) 등과 같은 장치에 센서를 장착하여 공간의 데이터를 수집하는 것도 가능하며, 수시 정보 획득 단계(220)에서는 대상 장소(140)를 방문하는 일반 사용자들의 스마트폰으로 촬영된 영상을 수집하여 활용하거나 또는 대상 장소(140)에 설치되어 있는 CCTV(Closed Circuit Television)의 영상을 수집하여 활용하는 것도 가능하다. 다시 말해, 클라우드 서버(110)는 대상 장소(140)를 자율 주행하는 맵핑 로봇(120) 및 대상 장소(140)를 이동하는 트롤리(trolley) 중 적어도 하나에 포함된 카메라 및 센서를 통해 얻어지는 기본 영상과 기본 영상의 촬영 위치 및 촬영 시점을 네트워크를 통해 수신하여 POI 데이터베이스를 구축할 수 있다. 또한, 클라우드 서버(110)는 대상 장소(140)를 자율 주행하면서 기설정된 서비스 임무를 수행하는 서비스 로봇(130), 대상 장소(140)에 위치하는 사용자들의 카메라를 포함하는 단말 및 대상 장소(140)에 배치된 CCTV(Closed Circuit Television) 중 적어도 하나로부터 대상 장소(140)에 대해 촬영된 수시 영상과 수시 영상의 촬영 위치 및 촬영 시점을 네트워크를 통해 수신하여 POI 데이터베이스를 업데이트할 수 있다.
다시 도 1 및 도 2를 참조하면, 수시 POI 정보 처리 단계(230)는 클라우드 서버(110)가 기본 정보 획득 단계(210)에서 수집된 기본 정보와 수시 정보 획득 단계(220)에서 수집된 수시 정보를 활용하여 POI 관련 정보를 획득하기 위한 과정일 수 있다.
예를 들어, POI 변화 검출 기술은, 수시 POI 정보 처리 단계(230)에서 클라우드 서버(110)가 하나의 기본 영상과 다수의 수시 영상을 기계 학습(machine learning) 기술을 활용하여 분석 및 비교함으로써 해당 영상들에서 POI를 검출하고, POI에 변화가 있었는지 여부를 판단하며, 변화가 있는 경우, POI 변화를 정보 수집 및 업데이트 시스템(100)에 업데이트하기 위한 과정일 수 있다. 일례로, 클라우드 서버(110)는 POI 변화 검출 결과를 시각화하여 정보 수집 및 업데이트 시스템(100)의 운영자에게 알릴 수 있다. 예를 들어, 클라우드 서버(110)는 POI에 대한 변경 전, 후의 영상을 정보 수집 및 업데이트 시스템(100)의 운영자에게 알릴 수 있다. 정보 수집 및 업데이트 시스템(100)이 POI 변화 여부를 사전에 판단 및 선별하여 운영자에게 제공하는 것만으로도 운영자로 하여금 POI 변화 여부를 판단하기 위해 검토해야 할 영상의 분량을 획기적으로 줄여서 단위 시간에 더 넓은 영역에 대한 POI 정보의 분석, 검토 및 업데이트를 가능하게 할 수 있다. 다른 예로, 클라우드 서버(110)는 변경된 POI의 이름, 종류, 변경된 영상 등을 직접 정보 수집 및 업데이트 시스템(100)에 업데이트할 수도 있다.
도 6은 본 발명의 일실시예에 있어서, POI 변화 검출 과정의 예를 도시한 흐름도이다. 이미 설명한 바와 같이 도 6의 단계들(610 내지 640)은 클라우드 서버(110)에 의해 수행될 수 있다.
단계(610)에서 클라우드 서버(110)는 대상 장소(140)에서 소정 시간 간격으로 촬영된 이미지 쌍(image pair)을 선정할 수 있다. 이미지 쌍을 선정하기 위해 클라우드 서버(110)는 대상 장소(140) 내의 대상 위치를 선정할 수 있다. 예를 들어, 클라우드 서버(110)는 대상 장소(140) 내의 다수의 위치들을 미리 결정해놓고 그 중에서 POI 변화를 검출하고자 하는 위치를 선정할 수 있다. 예를 들어, 클라우드 서버(110)는 기설정된 간격을 갖는 그리드 형태로 대상 장소(140)를 구분하여 다수의 위치들을 결정해놓고, 결정된 다수의 위치들 중 하나의 위치를 대상 위치로서 선정할 수 있다. 그리고, 클라우드 서버(110)는 대상 위치로부터 기설정된 거리 이내에 위치하는 촬영 위치와 연계하여 POI 데이터베이스에 저장되어 있는 영상들 중에서 시간 간격을 두고 촬영된 이전 영상과 이후 영상으로 이루어진 이미지 쌍을 선정할 수 있다.
이때, 이전 영상과 이후 영상을 구분하여 선정하는 것은 영상들의 촬영 시점에 기초할 수 있다. POI 변화를 검출하기 위해서는 기본적으로 이전 영상과 비교의 대상이 되는 이후 영상이 각각 필요하다. 처음에는 기본 정보 획득 단계(210)를 통해 수집된 영상들 중에서 이전 영상이 선정될 수 있으며, 수시 정보 획득 단계(220)를 통해 수집된 영상들 중에서 이후 영상이 선정될 수 있다. 다른 예로, 수시 정보 획득 단계(220)를 통해 수집된 영상들 중에서 서로 다른 시점의 이전 영상과 이후 영상이 선정될 수 있다. 수시 정보 획득 단계(220)를 통해 영상들이 수집되는 경우 가장 최근 시점에 촬영된 수시 영상들 중에서 이후 영상이 선정될 수 있으며, 이전 비교에 활용되었던 이후 영상들 또는 이전 시점(일례로, 하루 전, 일주일 전 등)에 촬영된 수시 영상들 중에서 이전 영상이 선정될 수 있다.
클라우드 서버(110)는 이전 영상과 이후 영상을 선별하는 과정에서 해당 영상과 함께 저장된 촬영 정보에 기초하여 동일 방향 영상을 선별할 수 있다. 동일 방향 영상을 선별하는 것은 유사한 위치에서 유사한 방향을 촬영한 이전 영상과 이후 영상을 서로 비교하기 위한 것으로, 유사한 위치에서 촬영된 이전 영상과 이후 영상의 두 개의 영상들이 기설정된 비율 이상 서로 동일한 부분을 촬영했을 것으로 예상되는 정도의 방향 유사성을 갖고 있다면 동일 방향 영상의 쌍으로서 선별될 수 있다. 다른 예로, 클라우드 서버(110)는 두 영상의 촬영 방향들이 기설정된 각도 차 이내를 형성하는 경우 해당 두 영상이 동일 방향 영상의 페어로서 선별될 수 있다.
단계(620)에서 클라우드 서버(110)는 단계(610)에서 선정된 이미지 쌍으로 이루어진 이전 영상과 이후 영상에서 간판 영역을 검출할 수 있다. 본 발명에서는 신규 오픈, 폐업, 상호 변경 등의 변화를 가장 잘 감지할 수 있는 상점의 간판 부분을 탐지하여 POI 변화를 검출할 수 있다. 클라우드 서버(110)는 사전에 수집된 간판 이미지 셋을 딥러닝(deep learning) 기반으로 학습한 기계 학습 모델을 통해 이전 영상과 이후 영상으로부터 각각 간판 영역을 검출할 수 있다.
클라우드 서버(110)는 다양한 형태나 종류의 간판이 촬영된 이미지를 훈련 데이터로 하여 학습함으로써 기계 학습 모델을 구축할 수 있고 이러한 기계 학습 모델을 통해 이전 영상과 이후 영상 내에서 간판 영역을 검출할 수 있다. 간판 검출을 위해 기계 학습 모델을 훈련하는 구체적인 과정에 대해서는 이하에서 설명하기로 한다.
단계(630)에서 클라우드 서버(110)는 이전 영상과 이후 영상 간에 각 영상 내에서 검출된 간판 영역을 비교하여 POI 변화 영역을 검출할 수 있다. 클라우드 서버(110)는 이전 영상과 이후 영상 간에 간판 영역을 서로 비교하여 매칭이 성공한 경우에는 POI 변화가 없는 것으로, 매칭이 실패한 경우에는 POI 변화가 있는 것으로 결정할 수 있다. 클라우드 서버(110)는 이전 영상과 이후 영상 간에 간판 영역을 서로 비교하여 매칭되지 않는 영역을 POI 변화 영역으로 인식하여 인식된 POI 변화 영역을 대상 위치에 대한 정보와 연계하여 저장할 수 있다.
클라우드 서버(110)는 대상 장소(140) 내의 전체 위치에 대한 처리가 완료되었는지 여부를 결정할 수 있다. 이때, 전체 위치에 대한 처리가 완료되지 않은 경우, 클라우드 서버(110)는 대상 장소(140) 내의 다음 위치를 대상 위치로 선정하여 POI 변화를 검출하기 위해, 단계(610) 내지 단계(630)을 반복 수행할 수 있다. 전체 위치에 대한 처리가 완료된 경우 클라우드 서버(110)는 단계(640)을 수행할 수 있다.
단계(640)에서 클라우드 서버(110)는 대상 장소(140) 내에서 POI 변화 영역을 시각화할 수 있다. 클라우드 서버(110)는 POI 변화의 인식과 관련된 이전 영상 및 이후 영상을 이용하여 POI 변화 영역이 검출된 대상 위치를 시각화하거나 대상 장소(140)에 대한 3차원 맵 상에 POI 변화 영역이 검출된 대상 위치를 시각화하여 POI 변화 영역에 대한 검토를 요청할 수 있다. 이러한 검토의 요청은 정보 수집 및 업데이트 시스템(100)의 운영자에게 전달될 수 있다. 다시 말해, 운영자에게는 POI 변화 영역에 해당하는 이전 영상과 이후 영상이 위치 정보(대상 위치)와 함께 전달될 수 있다. 이러한 정보는 운영자가 POI 변화에 따른 변동 정보를 입력할 수 있는 소프트웨어 상에서 지도 상에 표시되어 운영자로 하여금 다시 한 번 POI 변화에 대한 정보를 검토 및 확인한 후 정보를 입력하도록 도울 수 있다. 다시 말해, 클라우드 서버(110)는 인식된 POI 변화에 대한 정보를 통해 운영자가 대응하는 POI에 대한 정보를 업데이트하도록, POI 변화의 인식과 관련된 이전 영상 및 이후 영상을 포함하는 POI 변화 정보를 생성하여 운영자에게 제공할 수 있다.
간판 검출을 위한 학습 과정에서 일반적인 객체 검출 알고리즘을 이용하는 경우 간판과 무관한 표지판, 비상구 픽토그램, 이벤트 문구 등과 같은 방해 객체(disruptor)가 많이 검출된다. 이외에도, 간판 일부만이 검출되는 등 여러 가지 원인으로 하여금 많은 긍정 오류(false positive)가 발생하게 된다.
본 발명의 실시예들은 방해 객체 검출 문제와 긍정 오류 문제를 해결하여 간판 검출 성능을 향상시키고자 한다.
도 7 내지 도 8은 본 발명의 일실시예에 있어서 간판과 방해 객체를 함께 학습하는 과정을 설명하기 위한 예시 도면이다.
클라우드 서버(110)는 간판이 있는 상점 이미지, 즉 학습 대상 이미지를 훈련 데이터로 하여 기계 학습 모델의 신경망을 훈련한다. 클라우드 서버(110)는 간판과 방해 객체의 특징을 각각 이용하여 해당 객체의 특징을 기계 학습으로 훈련함으로써 방해 객체가 간판으로 오검출되는 문제를 해결하고 실제 간판을 정확히 검출할 수 있다.
도 7을 참조하면, 클라우드 서버(110)는 학습 대상 이미지(701)에 방해 객체(702)를 랜덤하게 삽입하여 합성 이미지(synthetic image)(710)를 생성할 수 있다. 클라우드 서버(110)는 간판과는 무관하나 간판으로 검출될 가능성이 높은 방해 객체(702)로서 사전에 구축된 로고 데이터 셋(logo dataset)에 존재하는 로고나 이미지, 임의 문구 등을 학습 대상 이미지(701)의 임의 위치에 삽입하여 합성할 수 있다.
학습 대상 이미지(701)에 방해 객체(702)를 삽입한 합성 이미지(710)를 훈련 데이터로 이용하는 것 이외에도, 간판과 방해 객체가 공존하는 상점 이미지를 훈련 데이터로 이용하는 것 또한 가능하다.
클라우드 서버(110)는 기계 학습 모델에서 사용되는 손실 함수(loss function)를 기반으로 하여 간판 검출 과정에서 간판과 방해 객체를 감별하여 신경망을 학습할 수 있다. 손실 함수는 기계 학습 모델의 예측이 얼마나 정확한지를 수학적으로 표현한 것으로 오차의 정도를 나타낸다. 클라우드 서버(110)는 방해 객체를 감별하는 신경망을 통해 기계 학습 모델의 손실 함수가 작아지도록 하는 것에 목적이 있다.
일례로, 클라우드 서버(110)는 트리플렛 손실 함수(triplet loss function)를 기반으로 하여 신경망 학습 시에 긍정 값(positive cost)과 부정 값(negative cost)을 부여하는 손실 함수를 적용한다. 트리플렛 손실 함수는 3개의 이미지, 즉 기준 이미지(anchor image), 긍정 이미지(positive image), 부정 이미지(negative image)를 기반으로 정의되는 것으로, 기준 이미지와의 비교를 통해 긍정 이미지에 대해 긍정 값을 부여하고 부정 이미지에 대해 부정 값을 부여할 수 있다.
도 8을 참조하면, 클라우드 서버(110)는 간판 검출 알고리즘을 통해 합성 이미지(710)에서 간판으로 예측되는 객체들을 추출하게 되는데, 검증 자료로 주어진 정답 이미지(820)를 기준으로 합성 이미지(710)에서 검출된 객체들 중 정답 이미지(820) 내에 간판(821)으로 설정된 객체에 해당되는 경우 긍정 값을 부여하고 방해 객체(822)로 설정된 객체에 해당되는 경우 부정 값을 부여할 수 있다. 다시 말해, 클라우드 서버(110)는 간판 검출을 위한 기계 학습 모델의 신경망을 훈련하는 과정에서 합성 이미지(710)로부터 방해 객체(702)가 검출될 때 부정 값을 부여함으로써 방해 객체(702)로 인한 긍정 오류를 줄일 수 있는 손실 함수를 적용할 수 있다.
간판 검출을 위한 기계 학습 모델에서 사용되는 손실 함수(f)는 수학식 1과 같이 정의될 수 있다.
[수학식 1]
f=Lpositive+(α-Ldisruptor)
여기서, Lpositive는 간판에 대한 예측 확률, Ldisruptor는 방해 객체에 대한 예측 확률을 의미한다. α는 손실 함수가 0보다 작아지는 것을 방지하기 위한 양수 값으로, 임의 값 또는 사전에 설정된 임계 값(threshold)이 지정되거나 혹은 학습을 반복하는 과정에서 획득한 손실 함수의 평균 값 등이 지정될 수 있다.
따라서, 클라우드 서버(110)는 방해 객체(702)를 간판과 구분하여 학습한 기계 학습 모델을 통해 영상 내 간판 영역을 정확하게 검출할 수 있다.
도 9 내지 도 11은 본 발명의 일실시예에 있어서 다중 스케일의 영상을 이용하여 간판을 검출하는 과정을 설명하기 위한 예시 도면이다.
클라우드 서버(110)는 간판 검출 시 영상의 사이즈에 민감하지 않고 구애 없이 영상 내에 존재하는 다양한 크기의 간판을 검출할 수 있도록 간판 검출 알고리즘을 다중 스케일로 확장할 수 있다.
도 9를 참조하면, 클라우드 서버(110)는 POI 변화를 검출하기 위해 입력되는 영상(이전 영상과 이후 영상)(900)에 대하여 입력 영상(900)의 사이즈를 복수 개의 서로 다른 사이즈로 변경하여 다중 스케일의 영상들(910)을 생성할 수 있다.
다중 스케일의 영상들(910)은 입력 영상(900)의 사이즈를 기준으로 입력 영상(900)보다 작은 사이즈로 변경한 적어도 하나의 축소 영상과 입력 영상(900)보다 큰 사이즈로 변경한 적어도 하나의 확대 영상으로 구성될 수 있다. 다른 예로, 클라우드 서버(110)는 입력 영상(900)의 사이즈가 사전에 정해진 최대 크기 이상인 경우 축소 영상으로 다중 스케일의 영상들(910)을 구성하고, 입력 영상(900)의 사이즈가 사전에 정해진 최소 크기 이하인 경우 확대 영상으로 다중 스케일의 영상들(910)을 구성할 수 있다.
도 10을 참조하면, 클라우드 서버(110)는 다중 스케일의 영상들(910)을 대상으로 각 영상 내에서 간판으로 예측되는 객체를 검출할 수 있다. 이때, 클라우드 서버(110)는 다중 스케일의 영상들(910)에서 검출된 객체의 위치를 후보 영역(1001)으로서 입력 영상(900)에 대응시킬 수 있다. 예를 들어, 입력 영상(900)을 1/2로 줄인 영상에서 검출된 객체의 좌표가 (x, y)인 경우 입력 영상(900) 내 좌표 (2x, 2y)에 해당되는 위치에 후보 영역(1001)을 대응시킬 수 있다.
영상 자체의 크기나 영상 내에 존재하는 객체의 크기에 따라 검출 결과가 달라지게 된다. 클라우드 서버(110)는 다중 스케일의 영상들(910)로부터 얻어진 후보 영역(1001)을 이용하여 입력 영상(900)에 대한 주요 맵(saliency map)을 생성한 후 주요 맵으로부터 최종 검출 결과인 간판 영역을 검출할 수 있다.
도 11을 참조하면, 클라우드 서버(110)는 입력 영상(900)에 대응시킨 후보 영역(1001)에 부여된 스코어를 병합하여(aggregation) 입력 영상(900)에 대한 주요 맵(1100)을 생성할 수 있다. 다시 말해, 클라우드 서버(110)는 입력 영상(900)에 대해 후보 영역(1001)에 대응되는 위치, 즉 후보 영역(1001)에 대응되는 각 픽셀 별로 스코어를 누적하거나 평균함으로써 주요 맵(1100)을 생성할 수 있다. 클라우드 서버(110)는 주요 맵(1100)에서 사전에 정해진 임계 값 이상의 스코어를 가진 픽셀을 클러스터링하여 주요 영역(1101)을 찾을 수 있고, 입력 영상(900)에서 주요 맵(1100)의 주요 영역(1101)에 대응되는 영역을 최종 검출 결과인 간판 영역(1102)으로 인식할 수 있다.
따라서, 클라우드 서버(110)는 다중 스케일의 영상들(910)을 이용하여 여러 사이즈의 영상에서 중복으로 검출되는 객체 영역을 간판 영역(1102)으로 검출함으로써 긍정 오류를 줄일 수 있다.
도 12는 본 발명의 일실시예에 따른 컴퓨터 시스템의 예를 도시한 블록도이다. 앞서 설명한 클라우드 서버(110)는 도 12에 도시된 하나의 컴퓨터 시스템(1200) 또는 복수의 컴퓨터 시스템들에 의해 구현될 수 있다. 예를 들어, 컴퓨터 시스템(1200)에는 일실시예에 따른 컴퓨터 프로그램이 설치 및 구동될 수 있고, 컴퓨터 시스템(1200)은 구동된 컴퓨터 프로그램의 제어에 따라 본 발명의 실시예들에 따른 정보 수집 및 업데이트 방법을 수행할 수 있다.
이러한 컴퓨터 시스템(1200)은 도 12에 도시된 바와 같이, 메모리(1210), 프로세서(1220), 통신 인터페이스(1230) 그리고 입출력 인터페이스(1240)를 포함할 수 있다. 메모리(1210)는 컴퓨터에서 판독 가능한 기록매체로서, RAM(random access memory), ROM(read only memory) 및 디스크 드라이브와 같은 비소멸성 대용량 기록장치(permanent mass storage device)를 포함할 수 있다. 여기서 ROM과 디스크 드라이브와 같은 비소멸성 대용량 기록장치는 메모리(1210)와는 구분되는 별도의 영구 저장 장치로서 컴퓨터 시스템(1200)에 포함될 수도 있다. 또한, 메모리(1210)에는 운영체제와 적어도 하나의 프로그램 코드가 저장될 수 있다. 이러한 소프트웨어 구성요소들은 메모리(1210)와는 별도의 컴퓨터에서 판독 가능한 기록매체로부터 메모리(1210)로 로딩될 수 있다. 이러한 별도의 컴퓨터에서 판독 가능한 기록매체는 플로피 드라이브, 디스크, 테이프, DVD/CD-ROM 드라이브, 메모리 카드 등의 컴퓨터에서 판독 가능한 기록매체를 포함할 수 있다. 다른 실시예에서 소프트웨어 구성요소들은 컴퓨터에서 판독 가능한 기록매체가 아닌 통신 인터페이스(1230)를 통해 메모리(1210)에 로딩될 수도 있다. 예를 들어, 소프트웨어 구성요소들은 네트워크(1260)를 통해 수신되는 파일들에 의해 설치되는 컴퓨터 프로그램에 기반하여 컴퓨터 시스템(1200)의 메모리(1210)에 로딩될 수 있다.
프로세서(1220)는 기본적인 산술, 로직 및 입출력 연산을 수행함으로써, 컴퓨터 프로그램의 명령을 처리하도록 구성될 수 있다. 명령은 메모리(1210) 또는 통신 인터페이스(1230)에 의해 프로세서(1220)로 제공될 수 있다. 예를 들어 프로세서(1220)는 메모리(1210)와 같은 기록 장치에 저장된 프로그램 코드에 따라 수신되는 명령을 실행하도록 구성될 수 있다.
통신 인터페이스(1230)은 네트워크(1260)를 통해 컴퓨터 시스템(1200)이 다른 장치(일례로, 앞서 설명한 저장 장치들)와 서로 통신하기 위한 기능을 제공할 수 있다. 일례로, 컴퓨터 시스템(1200)의 프로세서(1220)가 메모리(1210)와 같은 기록 장치에 저장된 프로그램 코드에 따라 생성한 요청이나 명령, 데이터, 파일 등이 통신 인터페이스(1230)의 제어에 따라 네트워크(1260)를 통해 다른 장치들로 전달될 수 있다. 역으로, 다른 장치로부터의 신호나 명령, 데이터, 파일 등이 네트워크(1260)를 거쳐 컴퓨터 시스템(1200)의 통신 인터페이스(1230)를 통해 컴퓨터 시스템(1200)으로 수신될 수 있다. 통신 인터페이스(1230)를 통해 수신된 신호나 명령, 데이터 등은 프로세서(1220)나 메모리(1210)로 전달될 수 있고, 파일 등은 컴퓨터 시스템(1200)이 더 포함할 수 있는 저장 매체(상술한 영구 저장 장치)로 저장될 수 있다.
입출력 인터페이스(1240)는 입출력 장치(1250)와의 인터페이스를 위한 수단일 수 있다. 예를 들어, 입력 장치는 마이크, 키보드 또는 마우스 등의 장치를, 그리고 출력 장치는 디스플레이, 스피커와 같은 장치를 포함할 수 있다. 다른 예로 입출력 인터페이스(1240)는 터치스크린과 같이 입력과 출력을 위한 기능이 하나로 통합된 장치와의 인터페이스를 위한 수단일 수도 있다. 입출력 장치(1250)는 컴퓨터 시스템(1200)과 하나의 장치로 구성될 수도 있다.
또한, 다른 실시예들에서 컴퓨터 시스템(1200)은 도 12의 구성요소들보다 더 적은 혹은 더 많은 구성요소들을 포함할 수도 있다. 그러나, 대부분의 종래기술적 구성요소들을 명확하게 도시할 필요성은 없다. 예를 들어, 컴퓨터 시스템(1200)은 상술한 입출력 장치(1250) 중 적어도 일부를 포함하도록 구현되거나 또는 트랜시버(transceiver), 데이터베이스 등과 같은 다른 구성요소들을 더 포함할 수도 있다.
이처럼 본 발명의 실시예들에 따르면, 신규 오픈, 폐업, 상호 변경 등의 변화를 가장 잘 감지할 수 있는 상점의 간판 부분을 탐지하여 POI 변화를 효과적이고 신뢰성 있게 검출할 수 있다. 특히, 입력 영상에서 상점의 간판을 검출하기 위한 기계 학습 모델을 학습하는 과정에서 간판 검출에 방해가 되는 객체들을 함께 학습하여 간판 검출 정확도를 향상시킬 수 있다. 또한, 입력 영상의 다중 스케일에서 검출된 영역을 병합하는 방식으로 최종 검출 영역을 생성함으로써 간판 검출 시 영상 사이즈의 영향을 최소화할 수 있다.
이상에서 설명된 시스템 또는 장치는 하드웨어 구성요소, 또는 하드웨어 구성요소 및 소프트웨어 구성요소의 조합으로 구현될 수 있다. 예를 들어, 실시예들에서 설명된 장치 및 구성요소는, 예를 들어, 프로세서, 콘트롤러, ALU(arithmetic logic unit), 디지털 신호 프로세서(digital signal processor), 마이크로컴퓨터, FPGA(field programmable gate array), PLU(programmable logic unit), 마이크로프로세서, 또는 명령(instruction)을 실행하고 응답할 수 있는 다른 어떠한 장치와 같이, 하나 이상의 범용 컴퓨터 또는 특수 목적 컴퓨터를 이용하여 구현될 수 있다. 처리 장치는 운영 체제(OS) 및 상기 운영 체제 상에서 수행되는 하나 이상의 소프트웨어 어플리케이션을 수행할 수 있다. 또한, 처리 장치는 소프트웨어의 실행에 응답하여, 데이터를 접근, 저장, 조작, 처리 및 생성할 수도 있다. 이해의 편의를 위하여, 처리 장치는 하나가 사용되는 것으로 설명된 경우도 있지만, 해당 기술분야에서 통상의 지식을 가진 자는, 처리 장치가 복수 개의 처리 요소(processing element) 및/또는 복수 유형의 처리 요소를 포함할 수 있음을 알 수 있다. 예를 들어, 처리 장치는 복수 개의 프로세서 또는 하나의 프로세서 및 하나의 콘트롤러를 포함할 수 있다. 또한, 병렬 프로세서(parallel processor)와 같은, 다른 처리 구성(processing configuration)도 가능하다.
소프트웨어는 컴퓨터 프로그램(computer program), 코드(code), 명령(instruction), 또는 이들 중 하나 이상의 조합을 포함할 수 있으며, 원하는 대로 동작하도록 처리 장치를 구성하거나 독립적으로 또는 결합적으로(collectively) 처리 장치를 명령할 수 있다. 소프트웨어 및/또는 데이터는, 처리 장치에 의하여 해석되거나 처리 장치에 명령 또는 데이터를 제공하기 위하여, 어떤 유형의 기계, 구성요소(component), 물리적 장치, 가상 장치(virtual equipment), 컴퓨터 저장 매체 또는 장치에 구체화(embody)될 수 있다. 소프트웨어는 네트워크로 연결된 컴퓨터 시스템 상에 분산되어서, 분산된 방법으로 저장되거나 실행될 수도 있다. 소프트웨어 및 데이터는 하나 이상의 컴퓨터 판독 가능 기록매체에 저장될 수 있다.
실시예에 따른 방법은 다양한 컴퓨터 수단을 통하여 수행될 수 있는 프로그램 명령 형태로 구현되어 컴퓨터 판독 가능 매체에 기록될 수 있다. 상기 컴퓨터 판독 가능 매체는 프로그램 명령, 데이터 파일, 데이터 구조 등을 단독으로 또는 조합하여 포함할 수 있다. 매체는 컴퓨터로 실행 가능한 프로그램을 계속 저장하거나, 실행 또는 다운로드를 위해 임시 저장하는 것일 수도 있다. 또한, 매체는 단일 또는 수개 하드웨어가 결합된 형태의 다양한 기록수단 또는 저장수단일 수 있는데, 어떤 컴퓨터 시스템에 직접 접속되는 매체에 한정되지 않고, 네트워크 상에 분산 존재하는 것일 수도 있다. 매체의 예시로는, 하드 디스크, 플로피 디스크 및 자기 테이프와 같은 자기 매체, CD-ROM 및 DVD와 같은 광기록 매체, 플롭티컬 디스크(floptical disk)와 같은 자기-광 매체(magneto-optical medium), 및 ROM, RAM, 플래시 메모리 등을 포함하여 프로그램 명령어가 저장되도록 구성된 것이 있을 수 있다. 또한, 다른 매체의 예시로, 애플리케이션을 유통하는 앱 스토어나 기타 다양한 소프트웨어를 공급 내지 유통하는 사이트, 서버 등에서 관리하는 기록매체 내지 저장매체도 들 수 있다. 프로그램 명령의 예에는 컴파일러에 의해 만들어지는 것과 같은 기계어 코드뿐만 아니라 인터프리터 등을 사용해서 컴퓨터에 의해서 실행될 수 있는 고급 언어 코드를 포함한다.
이상과 같이 실시예들이 비록 한정된 실시예와 도면에 의해 설명되었으나, 해당 기술분야에서 통상의 지식을 가진 자라면 상기의 기재로부터 다양한 수정 및 변형이 가능하다. 예를 들어, 설명된 기술들이 설명된 방법과 다른 순서로 수행되거나, 및/또는 설명된 시스템, 구조, 장치, 회로 등의 구성요소들이 설명된 방법과 다른 형태로 결합 또는 조합되거나, 다른 구성요소 또는 균등물에 의하여 대치되거나 치환되더라도 적절한 결과가 달성될 수 있다.
그러므로, 다른 구현들, 다른 실시예들 및 청구범위와 균등한 것들도 후술하는 청구범위의 범위에 속한다.

Claims (13)

  1. 컴퓨터 시스템에서 수행되는 방법에 있어서,
    상기 컴퓨터 시스템은 메모리에 포함된 컴퓨터 판독가능한 명령들을 실행하도록 구성된 적어도 하나의 프로세서를 포함하고,
    상기 방법은,
    상기 적어도 하나의 프로세서에 의해, 간판과 관련된 학습 대상 이미지를 이용하여 간판 검출을 위한 기계 학습 모델을 훈련하는 단계
    를 포함하고,
    상기 훈련하는 단계는,
    상기 간판과 간판으로 검출될 가능성이 있는 방해 객체를 구분하여 상기 기계 학습 모델을 훈련하는 것으로,
    상기 학습 대상 이미지로서 상기 간판이 있는 상점 이미지에 상기 방해 객체를 삽입하여 합성 이미지를 생성하는 단계; 및
    상기 합성 이미지를 훈련 데이터로 이용하여 상기 기계 학습 모델을 훈련하는 단계
    를 포함하고,
    상기 합성 이미지를 생성하는 단계는,
    상기 방해 객체로서 사전에 구축된 이미지 셋에 존재하는 로고, 이미지, 및 문구 중 적어도 하나를 상기 상점 이미지의 임의 위치에 삽입하여 상기 합성 이미지를 생성하는 것
    을 특징으로 하는 방법.
  2. 제1항에 있어서,
    상기 훈련하는 단계는,
    상기 방해 객체에 대해 부정 값을 부여하는 손실 함수(loss function)를 이용하여 상기 기계 학습 모델을 훈련하는 것
    을 특징으로 하는 방법.
  3. 삭제
  4. 삭제
  5. 제1항에 있어서,
    상기 합성 이미지를 훈련 데이터로 이용하여 상기 기계 학습 모델을 훈련하는 단계는,
    상기 합성 이미지에서 간판으로 예측되는 객체를 추출하는 단계; 및
    주어진 정답 이미지를 기준으로 상기 추출된 객체 중 상기 정답 이미지 내에 간판으로 설정된 객체에 해당되는 경우 긍정 값을 부여하고 상기 정답 이미지 내에 방해 객체로 설정된 객체에 해당되는 경우 부정 값을 부여하는 단계
    를 포함하는 방법.
  6. 제1항에 있어서,
    상기 방법은,
    상기 적어도 하나의 프로세서에 의해, 입력 영상에 대하여 상기 입력 영상의 사이즈를 변경하여 다중 스케일의 영상들을 생성하는 단계; 및
    상기 적어도 하나의 프로세서에 의해, 상기 다중 스케일의 영상들을 이용하여 상기 입력 영상 내의 간판 영역을 검출하는 단계
    를 더 포함하는 방법.
  7. 제6항에 있어서,
    상기 검출하는 단계는,
    상기 다중 스케일의 영상들을 대상으로 각 영상 내에서 간판으로 예측되는 객체를 검출하는 단계;
    상기 다중 스케일의 영상들에서 검출된 객체의 위치를 후보 영역으로서 상기 입력 영상에 대응시키는 단계; 및
    상기 입력 영상 내에서 상기 후보 영역이 중복되는 영역을 기초로 최종 간판 영역을 검출하는 단계
    를 포함하는 방법.
  8. 제6항에 있어서,
    상기 검출하는 단계는,
    상기 다중 스케일의 영상들을 대상으로 각 영상 내에서 간판으로 예측되는 객체를 검출하는 단계;
    상기 다중 스케일의 영상들에서 검출된 객체의 위치를 후보 영역으로서 상기 입력 영상에 대응시키는 단계;
    상기 후보 영역을 이용하여 상기 입력 영상에 대한 주요 맵(saliency map)을 생성하는 단계; 및
    상기 주요 맵으로부터 상기 입력 영상 내의 최종 간판 영역을 검출하는 단계
    를 포함하는 방법.
  9. 제8항에 있어서,
    상기 주요 맵을 생성하는 단계는,
    상기 입력 영상에 대해 상기 후보 영역에 대응되는 위치에 해당 후보 영역에 부여된 스코어를 누적하여 상기 주요 맵을 생성하고,
    상기 최종 간판 영역을 검출하는 단계는,
    상기 주요 맵에서 사전에 정해진 임계 값 이상의 스코어를 가진 주요 영역을 찾아 상기 입력 영상에서 상기 주요 영역에 대응되는 영역을 상기 최종 간판 영역으로 검출하는 것
    을 특징으로 하는 방법.
  10. 제6항에 있어서,
    상기 생성하는 단계는,
    상기 입력 영상의 사이즈를 기준으로 상기 입력 영상보다 작은 사이즈의 적어도 하나의 축소 영상과 상기 입력 영상보다 큰 사이즈의 적어도 하나의 확대 영상을 생성하는 것
    을 특징으로 하는 방법.
  11. 제6항에 있어서,
    상기 생성하는 단계는,
    상기 입력 영상의 사이즈가 사전에 정해진 최대 크기 이상이면 상기 입력 영상보다 작은 사이즈의 축소 영상으로 상기 다중 스케일의 영상들을 생성하고,
    상기 입력 영상의 사이즈가 사전에 정해진 최소 크기 이하이면 상기 입력 영상보다 큰 사이즈의 확대 영상으로 상기 다중 스케일의 영상들을 생성하는 것
    을 특징으로 하는 방법.
  12. 제1항, 제2항, 제5항 내지 제11항 중 어느 한 항의 방법을 컴퓨터에 실행시키기 위한 프로그램이 기록되어 있는 것을 특징으로 하는 컴퓨터에서 판독 가능한 기록매체.
  13. 컴퓨터 시스템에 있어서,
    컴퓨터에서 판독 가능한 명령을 실행하도록 구현되는 적어도 하나의 프로세서
    를 포함하고,
    상기 적어도 하나의 프로세서에 의해,
    간판과 관련된 학습 대상 이미지를 이용하여 간판 검출을 위한 기계 학습 모델을 훈련하는 과정
    을 처리하고,
    상기 훈련하는 과정은,
    상기 간판과 간판으로 검출될 가능성이 있는 방해 객체를 구분하여 상기 기계 학습 모델을 훈련하는 것으로,
    상기 학습 대상 이미지로서 상기 간판이 있는 상점 이미지에 상기 방해 객체를 삽입하여 합성 이미지를 생성하는 과정; 및
    상기 합성 이미지를 훈련 데이터로 이용하여 상기 기계 학습 모델을 훈련하는 과정
    을 포함하고,
    상기 합성 이미지를 생성하는 과정은,
    상기 방해 객체로서 사전에 구축된 이미지 셋에 존재하는 로고, 이미지, 및 문구 중 적어도 하나를 상기 상점 이미지의 임의 위치에 삽입하여 상기 합성 이미지를 생성하는 것
    을 특징으로 하는 컴퓨터 시스템.
KR1020180083833A 2018-07-19 2018-07-19 간판 검출 성능 향상을 위한 방법 및 시스템 KR102106029B1 (ko)

Priority Applications (1)

Application Number Priority Date Filing Date Title
KR1020180083833A KR102106029B1 (ko) 2018-07-19 2018-07-19 간판 검출 성능 향상을 위한 방법 및 시스템

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020180083833A KR102106029B1 (ko) 2018-07-19 2018-07-19 간판 검출 성능 향상을 위한 방법 및 시스템

Publications (2)

Publication Number Publication Date
KR20200013156A KR20200013156A (ko) 2020-02-06
KR102106029B1 true KR102106029B1 (ko) 2020-05-04

Family

ID=69569171

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020180083833A KR102106029B1 (ko) 2018-07-19 2018-07-19 간판 검출 성능 향상을 위한 방법 및 시스템

Country Status (1)

Country Link
KR (1) KR102106029B1 (ko)

Families Citing this family (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US10690466B2 (en) 2017-04-19 2020-06-23 Global Tel*Link Corporation Mobile correctional facility robots
US10949940B2 (en) * 2017-04-19 2021-03-16 Global Tel*Link Corporation Mobile correctional facility robots
KR102555668B1 (ko) * 2021-04-27 2023-07-17 네이버랩스 주식회사 맵 생성 방법 및 이를 이용한 이미지 기반 측위 방법
KR20240083448A (ko) * 2022-12-05 2024-06-12 네이버랩스 주식회사 딥러닝을 기반으로 다각형 형태의 간판 검출을 위한 방법, 컴퓨터 장치, 및 컴퓨터 프로그램

Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2010266982A (ja) * 2009-05-13 2010-11-25 Sony Corp 画像処理装置および方法、並びにプログラム

Family Cites Families (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR101082665B1 (ko) * 2009-10-21 2011-11-14 한양대학교 산학협력단 관심 객체 추출 장치 및 방법
CN104700099B (zh) * 2015-03-31 2017-08-11 百度在线网络技术(北京)有限公司 识别交通标志的方法和装置
KR101823464B1 (ko) * 2016-05-24 2018-03-14 네이버 주식회사 지역 사진 및 거리뷰의 간판 이미지를 활용한 지역 정보 검출 및 보정 방법 및 시스템

Patent Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2010266982A (ja) * 2009-05-13 2010-11-25 Sony Corp 画像処理装置および方法、並びにプログラム

Also Published As

Publication number Publication date
KR20200013156A (ko) 2020-02-06

Similar Documents

Publication Publication Date Title
KR102092392B1 (ko) 실 공간에서 관심지점 관련 정보를 자동으로 수집 및 업데이트하는 방법 및 시스템
KR102096926B1 (ko) 관심 영역 변화를 검출하는 방법 및 시스템
EP3707469B1 (en) A point clouds registration system for autonomous vehicles
CN107145578B (zh) 地图构建方法、装置、设备和系统
JP7082545B2 (ja) 情報処理方法、情報処理装置およびプログラム
US11094112B2 (en) Intelligent capturing of a dynamic physical environment
KR101758576B1 (ko) 물체 탐지를 위한 레이더 카메라 복합 검지 장치 및 방법
JP5901779B2 (ja) 画像データベース地図サービスからアシストシステム内にデータを移す方法
US11333517B1 (en) Distributed collection and verification of map information
CN111771206A (zh) 用于自动驾驶车辆的地图分区系统
CN111771229A (zh) 用于自动驾驶车辆的点云重影效果检测系统
CN112105893A (zh) 用于自动驾驶车辆的实时地图生成系统
KR102106029B1 (ko) 간판 검출 성능 향상을 위한 방법 및 시스템
JP2020500767A (ja) 車両自動パーキングシステム及び方法
US11280630B2 (en) Updating map data
US11025865B1 (en) Contextual visual dataspaces
US20210403001A1 (en) Systems and methods for generating lane data using vehicle trajectory sampling
JP2023508705A (ja) データ伝送方法および装置
KR102189926B1 (ko) 관심 영역 변화를 검출하는 방법 및 시스템
KR102383499B1 (ko) 시각 특징 맵 생성 방법 및 시스템
US11961304B2 (en) Systems and methods for deriving an agent trajectory based on multiple image sources
US12067869B2 (en) Systems and methods for generating source-agnostic trajectories
US11961241B2 (en) Systems and methods for deriving an agent trajectory based on tracking points within images
US11682124B2 (en) Systems and methods for transferring map data between different maps
US20220198714A1 (en) Camera to camera calibration

Legal Events

Date Code Title Description
A201 Request for examination
E902 Notification of reason for refusal
AMND Amendment
E601 Decision to refuse application
X091 Application refused [patent]
AMND Amendment
X701 Decision to grant (after re-examination)