Nothing Special   »   [go: up one dir, main page]

KR102283904B1 - Object recognition systen of image based on deep learning and recognition method therefor - Google Patents

Object recognition systen of image based on deep learning and recognition method therefor Download PDF

Info

Publication number
KR102283904B1
KR102283904B1 KR1020190134385A KR20190134385A KR102283904B1 KR 102283904 B1 KR102283904 B1 KR 102283904B1 KR 1020190134385 A KR1020190134385 A KR 1020190134385A KR 20190134385 A KR20190134385 A KR 20190134385A KR 102283904 B1 KR102283904 B1 KR 102283904B1
Authority
KR
South Korea
Prior art keywords
image
imitation
region
reflection
real
Prior art date
Application number
KR1020190134385A
Other languages
Korean (ko)
Other versions
KR20210050138A (en
Inventor
오장욱
김지훈
김형준
Original Assignee
주식회사 베이리스
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 주식회사 베이리스 filed Critical 주식회사 베이리스
Priority to KR1020190134385A priority Critical patent/KR102283904B1/en
Publication of KR20210050138A publication Critical patent/KR20210050138A/en
Application granted granted Critical
Publication of KR102283904B1 publication Critical patent/KR102283904B1/en

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • G06V10/74Image or video pattern matching; Proximity measures in feature spaces
    • G06K9/20
    • G06K9/46
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/10Segmentation; Edge detection
    • G06T7/11Region-based segmentation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/50Depth or shape recovery
    • G06T7/514Depth or shape recovery from specularities
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/10Image acquisition
    • G06V10/12Details of acquisition arrangements; Constructional details thereof
    • G06V10/14Optical characteristics of the device performing the acquisition or on the illumination arrangements
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/40Extraction of image or video features
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20081Training; Learning

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Multimedia (AREA)
  • Health & Medical Sciences (AREA)
  • Artificial Intelligence (AREA)
  • Computing Systems (AREA)
  • Databases & Information Systems (AREA)
  • Evolutionary Computation (AREA)
  • General Health & Medical Sciences (AREA)
  • Medical Informatics (AREA)
  • Software Systems (AREA)
  • Image Analysis (AREA)

Abstract

객체 인식 시스템은, 카메라로부터 획득된 이미지로부터 분리된 반사 이미지는 실제 이미지를 모방한 모방 실제 이미지로 변환하고, 상기 카메라로부터 획득된 이미지로부터 분리된 실제 이미지는 반사 이미지를 모방한 모방 반사 이미지로 변환하는 이미지 변환부;를 포함한다.The object recognition system converts a reflective image separated from an image acquired from a camera into a imitation real image that mimics a real image, and a real image separated from the image acquired from the camera is converted into a imitation reflective image that mimics a reflective image and an image conversion unit.

Description

딥러닝에 기반한 이미지의 객체 인식 시스템 및 그 인식 방법{OBJECT RECOGNITION SYSTEN OF IMAGE BASED ON DEEP LEARNING AND RECOGNITION METHOD THEREFOR}An object recognition system for images based on deep learning and a method for recognizing the same

본 발명은 딥러닝에 기반한 이미지의 객체 인식 시스템 및 그 인식 방법에 관한 것이다.The present invention relates to an image object recognition system based on deep learning and a method for recognizing the same.

냉장고나 자동 판매기와 같은 보관함의 내부 공간의 상부 중앙에 위치한 카메라에 의해 한정된 공간 내부의 이미지를 획득할 때, 카메라 렌즈 화각의 가장자리의 객체들은 카메라 렌즈와 가깝고 큰 객체에 가려지는 경우가 빈번하다. When acquiring an image inside a space limited by a camera located in the upper center of an internal space of a storage box such as a refrigerator or a vending machine, objects at the edge of the camera lens angle of view are close to the camera lens and are often obscured by a large object.

도 1은 좁은 내부 공간에 대해 획득된 카메라 이미지의 예시도이다.1 is an exemplary view of a camera image obtained for a narrow interior space.

도 1로부터 알 수 있는 바와 같이 'A'라고 표시된 상품 뒤에 가려진 'B' 상품의 경우, 딥러닝 시에 객체 인식에 어려움이 있다.As can be seen from FIG. 1 , in the case of a product 'B' hidden behind a product marked 'A', there is a difficulty in object recognition during deep learning.

이러한 가려진 객체들이 많은 경우, 카메라로부터 획득된 이미지를 이용하여 해당 공간 내부의 상품인 객체를 인식하기 위한 시스템에서 딥러닝을 실시하게 되면, 가려진 객체들에 대한 올바른 인식이 어렵다.When there are many such obscured objects, when deep learning is performed in a system for recognizing an object that is a product in a corresponding space using an image obtained from a camera, correct recognition of the obscured objects is difficult.

1. 중국실용신안등록공보 208781326(2019.04.23)1. China Utility Model Registration Publication 208781326 (2019.04.23) 2. 국내공개특허공보 제10-2016-0041965호(2016.04.18)2. Domestic Patent Publication No. 10-2016-0041965 (2016.04.18) 3. 국내등록특허공보 제10-1991424호(2019.06.20)3. Domestic Registered Patent Publication No. 10-1991424 (2019.06.20)

본 발명은 전술한 바와 같은 기술적 과제를 해결하는 데 목적이 있는 발명으로서, 냉장고나 자동 판매기와 같은 내부 공간에 상품이 보관된 경우, 거울을 이용한 반사 이미지에 의해 가려진 상품에 대한 이미지도 확보하여 해당 상품을 인식할 수 있는 딥러닝에 기반한 이미지의 객체 인식 시스템 및 그 인식 방법을 제공하는 것에 그 목적이 있다.The present invention is an invention aimed at solving the technical problems as described above, and when the product is stored in an internal space such as a refrigerator or a vending machine, an image of the product covered by a reflection image using a mirror is also secured and the corresponding image is obtained. An object of the present invention is to provide an image object recognition system based on deep learning capable of recognizing a product and a method for recognizing the same.

본 발명의 객체 인식 시스템은, 카메라로부터 획득된 이미지로부터 분리된 반사 이미지는 실제 이미지를 모방한 모방 실제 이미지로 변환하고, 상기 카메라로부터 획득된 이미지로부터 분리된 실제 이미지는 반사 이미지를 모방한 모방 반사 이미지로 변환하는 이미지 변환부;를 포함한다. 상기 이미지 변환부에 의해 사용되는 변환 전 반사 이미지는, 전체 반사 이미지 중 적어도 일부에 해당하고, 상기 이미지 변환부에 의해 사용되는 변환 전 실제 이미지는, 전체 실제 이미지 중 적어도 일부에 해당하는 것을 특징으로 한다.The object recognition system of the present invention converts a reflected image separated from an image obtained from a camera into a imitation real image that imitates a real image, and a real image separated from the image acquired from the camera is a imitation reflection that imitates a reflected image It includes; an image converter that converts the image into an image. The reflection image before conversion used by the image conversion unit corresponds to at least a part of the total reflection image, and the actual image before conversion used by the image conversion unit corresponds to at least a part of the entire actual image. do.

아울러, 본 발명의 객체 인식 시스템은, 상기 반사 이미지, 상기 실제 이미지, 상기 모방 실제 이미지 및 상기 모방 반사 이미지 각각으로부터 객체가 존재하는 영역을 검출하는 객체 영역 검출부; 상기 반사 이미지, 상기 실제 이미지, 상기 모방 실제 이미지 및 상기 모방 반사 이미지 각각의 특징점을 추출하는 특징점 추출부; 및 상기 객체 영역 검출부에서 검출된 객체가 존재하는 영역의 정보 및 상기 특징점 추출부에서 추출된 특징점을 이용하여, 상기 카메라로부터 획득된 이미지에 존재하는 객체를 검출하는 객체 검출부;를 더 포함하는 것이 바람직하다.In addition, the object recognition system of the present invention may include an object region detection unit configured to detect a region in which an object exists from each of the reflected image, the real image, the imitation real image, and the imitation reflected image; a feature point extraction unit for extracting feature points of each of the reflection image, the real image, the imitation real image, and the imitation reflection image; and an object detection unit configured to detect an object present in the image obtained from the camera using information on a region in which the object detected by the object region detection unit exists and the characteristic point extracted by the characteristic point extraction unit. do.

구체적으로, 상기 특징점 추출부는, 상기 반사 이미지의 특징점과 상기 모방 반사 이미지의 특징점을 서로 매칭하고, 상기 실제 이미지의 특징점과 상기 모방 실제 이미지의 특징점을 서로 매칭하는 것을 특징으로 한다.Specifically, the feature point extraction unit is characterized in that the feature points of the reflection image and the feature points of the imitation reflection image are matched with each other, and the feature points of the real image and the feature points of the imitation real image are matched with each other.

아울러, 상기 객체 검출부는, 상기 객체 영역 검출부에 의해 객체가 존재하는 영역으로 검출된 영역에 대해, 상기 반사 이미지의 특징점과 상기 모방 반사 이미지의 특징점의 매칭 비율인 제 1 매칭 비율; 및 상기 실제 이미지의 특징점과 상기 모방 실제 이미지의 특징점의 매칭 비율인 제 2 매칭 비율;을 이용하여, 상기 제 1 매칭 비율 또는 상기 제 2 매칭 비율이 미리 설정된 제 1 비율 이상의 매칭된 특징점을 보유하는 영역을 제 1 객체군의 객체로 검출하는 것이 바람직하다.In addition, the object detection unit may include: a first matching ratio that is a matching ratio between the feature points of the reflective image and the feature points of the imitation reflection image with respect to the region detected as the region where the object exists by the object region detector; and a second matching ratio, which is a matching ratio between the feature points of the real image and the feature points of the imitation real image. It is preferable to detect the region as an object of the first object group.

또한, 상기 객체 검출부는, 상기 객체 영역 검출부에 의해 객체가 존재하는 영역으로 검출된 영역에 대해, 상기 반사 이미지의 특징점과 상기 모방 반사 이미지의 특징점의 매칭 비율인제 1 매칭 비율; 및 상기 실제 이미지의 특징점과 상기 모방 실제 이미지의 특징점의 매칭 비율인 제 2 매칭 비율;을 이용하여, 상기 제 1 매칭 비율 또는 상기 제 2 매칭 비율이 미리 설정된 제 2 비율 미만의 매칭된 특징점을 보유하는 영역을 제 2 객체군의 객체로 검출하는 것을 특징으로 한다.In addition, the object detection unit may include: a first matching ratio that is a matching ratio between the feature points of the reflective image and the feature points of the imitation reflective image with respect to the region detected as the region where the object exists by the object region detector; and a second matching ratio, which is a matching ratio between the feature points of the real image and the feature points of the imitation real image; using, the first matching ratio or the second matching ratio is less than a preset second ratio. It is characterized in that the region is detected as an object of the second object group.

바람직하게는, 상기 이미지 변환부는, 전체 반사 이미지 중, 일부 영역에 해당하는 N개의 일부 영역의 반사 이미지; 및 객체가 보관된 내부 공간의 전체 실제 이미지 중, 상기 N개의 일부 영역의 반사 이미지에 각각 대응하는 N개의 일부 영역의 실제 이미지;를 이용하여, 상기 N개의 일부 영역의 반사 이미지 각각을 모방 실제 이미지로 변환하고, 상기 N개의 일부 영역의 실제 이미지 각각을 모방 반사 이미지로 변환하되, 상기 N은, 2 이상인 정수인 것을 특징으로 한다.Preferably, the image converter comprises: a reflection image of N partial regions corresponding to a partial region of the total reflection image; and an actual image of N partial regions corresponding to the reflection images of the N partial regions, respectively, among the total real images of the internal space in which the object is stored; a real image imitation of each of the reflection images of the N partial regions and converts each of the actual images of the N partial regions into a imitation reflection image, wherein N is an integer of 2 or more.

아울러, 본 발명의 객체 인식 시스템은, 상기 N개의 일부 영역의 반사 이미지 각각 및 상기 N개의 일부 영역의 실제 이미지 각각에 대해 검출된 제 1 객체군의 객체의 위치 정보 및 제 2 객체군의 객체의 위치 정보를 이용하여, 상기 N개의 일부 영역의 반사 이미지 모두 및 상기 N개의 일부 영역의 실제 이미지 모두에 대해 검출된 객체 중 중복적으로 검출된 객체를 단일화하여, 내부 공간에 실제 보관된 전체 객체를 확정하는 객체 확정부;를 더 포함하는 것이 바람직하다.In addition, in the object recognition system of the present invention, the position information of the object of the first object group and the object of the second object group detected for each of the reflection images of the N partial areas and the actual images of the N partial areas respectively By unifying the duplicated detected objects among the objects detected for all of the reflection images of the N partial areas and the actual images of the N partial areas by using the location information, the entire object actually stored in the internal space It is preferable to further include; an object determining unit to be determined.

또한, 본 발명의 객체 인식 시스템은, 이미지를 획득하는 이미지 획득부;를 더 포함하되, 상기 이미지 획득부는, 객체를 보관할 수 있는 내부 공간의 다수의 측벽에 설치된 다수의 거울; 및 상기 내부 공간 및 상기 다수의 거울의 이미지를 획득하는 카메라;를 포함하는 것을 특징으로 한다. 아울러, 상기 다수의 거울의 전면 유리는, 전기 신호의 인가에 의해, 투명 또는 불투명 상태로 될 수 있다.In addition, the object recognition system of the present invention further comprises; an image acquisition unit for acquiring an image; and a camera for acquiring images of the interior space and the plurality of mirrors. In addition, the front glass of the plurality of mirrors may be in a transparent or opaque state by application of an electrical signal.

본 발명의 객체 인식 방법은, 카메라로부터 획득된 이미지로부터 분리된 반사 이미지는 실제 이미지를 모방한 모방 실제 이미지로 변환하고, 상기 카메라로부터 획득된 이미지로부터 분리된 실제 이미지는 반사 이미지를 모방한 모방 반사 이미지로 변환하는 이미지 변환 단계;를 포함하고, 상기 이미지 변환 단계에 의해 사용되는 변환 전 반사 이미지는, 전체 반사 이미지 중 적어도 일부에 해당하고, 상기 이미지 변환 단계에 의해 사용되는 변환 전 실제 이미지는, 전체 실제 이미지 중 적어도 일부에 해당하는 것을 특징으로 한다.In the object recognition method of the present invention, the reflected image separated from the image acquired from the camera is converted into a imitation real image that imitates the real image, and the real image separated from the image acquired from the camera is imitation reflection that imitates the reflection image An image conversion step of converting into an image; including, wherein the reflection image before conversion used by the image conversion step corresponds to at least a part of the total reflection image, and the actual image before conversion used by the image conversion step is, It is characterized in that it corresponds to at least a part of the entire real image.

아울러, 본 발명의 객체 인식 방법은, 상기 반사 이미지, 상기 실제 이미지, 상기 모방 실제 이미지 및 상기 모방 반사 이미지 각각으로부터 객체가 존재하는 영역을 검출하는 객체 영역 검출 단계; 상기 반사 이미지, 상기 실제 이미지, 상기 모방 실제 이미지 및 상기 모방 반사 이미지 각각의 특징점을 추출하는 특징점 추출 단계; 및 상기 객체 영역 검출 단계에서 검출된 객체가 존재하는 영역의 정보 및 상기 특징점 추출 단계에서 추출된 특징점을 이용하여, 상기 카메라로부터 획득된 이미지에 존재하는 객체를 검출하는 객체 검출 단계;를 더 포함하는 것이 바람직하다.In addition, the object recognition method of the present invention includes an object region detection step of detecting an area in which an object exists from each of the reflected image, the real image, the imitation real image, and the imitation reflection image; a feature point extraction step of extracting feature points of each of the reflection image, the real image, the imitation real image, and the imitation reflection image; and an object detection step of detecting an object existing in the image obtained from the camera using information on a region in which the object detected in the object region detection step exists and the feature point extracted in the feature point extraction step; it is preferable

구체적으로, 상기 특징점 추출 단계에서는, 상기 반사 이미지의 특징점과 상기 모방 반사 이미지의 특징점을 서로 매칭하고, 상기 실제 이미지의 특징점과 상기 모방 실제 이미지의 특징점을 서로 매칭하는 것을 특징으로 한다. Specifically, in the feature point extraction step, the feature point of the reflective image and the feature point of the imitation reflection image are matched with each other, and the feature point of the real image and the feature point of the imitation real image are matched with each other.

아울러, 상기 객체 검출 단계에서는, 상기 객체 영역 검출 단계에 의해 객체가 존재하는 영역으로 검출된 영역에 대해, 상기 반사 이미지의 특징점과 상기 모방 반사 이미지의 특징점의 매칭 비율인 제 1 매칭 비율; 및 상기 실제 이미지의 특징점과 상기 모방 실제 이미지의 특징점의 매칭 비율인 제 2 매칭 비율;을 이용하여, 상기 제 1 매칭 비율 또는 상기 제 2 매칭 비율이 미리 설정된 제 1 비율 이상의 매칭된 특징점을 보유하는 영역을 제 1 객체군의 객체로 검출하는 것이 바람직하다.In addition, in the object detection step, a first matching ratio, which is a matching ratio between the feature points of the reflective image and the feature points of the imitation reflective image, with respect to the region detected as the region in which the object exists by the object region detection step; and a second matching ratio, which is a matching ratio between the feature points of the real image and the feature points of the imitation real image. It is preferable to detect the region as an object of the first object group.

또한, 상기 객체 검출 단계에서는, 상기 객체 영역 검출 단계에 의해 객체가 존재하는 영역으로 검출된 영역에 대해, 상기 반사 이미지의 특징점과 상기 모방 반사 이미지의 특징점의 매칭 비율인제 1 매칭 비율; 및 상기 실제 이미지의 특징점과 상기 모방 실제 이미지의 특징점의 매칭 비율인 제 2 매칭 비율;을 이용하여, 상기 제 1 매칭 비율 또는 상기 제 2 매칭 비율이 미리 설정된 제 2 비율 미만의 매칭된 특징점을 보유하는 영역을 제 2 객체군의 객체로 검출하는 것을 특징으로 한다.In addition, in the object detection step, a first matching ratio, which is a matching ratio between the feature points of the reflective image and the feature points of the imitation reflective image, with respect to the region detected as the region in which the object exists by the object region detection step; and a second matching ratio, which is a matching ratio between the feature points of the real image and the feature points of the imitation real image; using, the first matching ratio or the second matching ratio is less than a preset second ratio. It is characterized in that the region is detected as an object of the second object group.

바람직하게는, 상기 이미지 변환 단계에서는, 전체 반사 이미지 중, 일부 영역에 해당하는 N개의 일부 영역의 반사 이미지; 및 객체가 보관된 내부 공간의 전체 실제 이미지 중, 상기 N개의 일부 영역의 반사 이미지에 각각 대응하는 N개의 일부 영역의 실제 이미지;를 이용하여, 상기 N개의 일부 영역의 반사 이미지 각각을 모방 실제 이미지로 변환하고, 상기 N개의 일부 영역의 실제 이미지 각각을 모방 반사 이미지로 변환하되, 상기 N은, 2 이상인 정수인 것을 특징으로 한다.Preferably, in the image conversion step, a reflection image of N partial regions corresponding to a partial region among the total reflection images; and an actual image of N partial regions corresponding to the reflection images of the N partial regions, respectively, among the total real images of the internal space in which the object is stored; a real image imitation of each of the reflection images of the N partial regions and converts each of the actual images of the N partial regions into a imitation reflection image, wherein N is an integer of 2 or more.

아울러, 본 발명의 객체 인식 방법은, 상기 N개의 일부 영역의 반사 이미지 각각 및 상기 N개의 일부 영역의 실제 이미지 각각에 대해 검출된 제 1 객체군의 객체의 위치 정보 및 제 2 객체군의 객체의 위치 정보를 이용하여, 상기 N개의 일부 영역의 반사 이미지 모두 및 상기 N개의 일부 영역의 실제 이미지 모두에 대해 검출된 객체 중 중복적으로 검출된 객체를 단일화하여, 내부 공간에 실제 보관된 전체 객체를 확정하는 객체 확정 단계;를 더 포함하는 것이 바람직하다.In addition, in the object recognition method of the present invention, the position information of the object of the first object group and the object of the second object group detected for each of the reflected images of the N partial regions and the actual images of the N partial regions respectively By unifying the duplicated detected objects among the objects detected for all of the reflection images of the N partial areas and the actual images of the N partial areas by using the location information, the entire object actually stored in the internal space It is preferable to further include; an object determination step of confirming.

또한, 본 발명의 객체 인식 방법은, 객체를 보관할 수 있는 내부 공간 및 상기 내부 공간의 다수의 측벽에 설치된 다수의 거울의 이미지를 획득하는 이미지 획득 단계;를 더 포함하되, 상기 다수의 거울의 전면 유리는, 전기 신호의 인가에 의해, 투명 또는 불투명 상태로 될 수 있다.In addition, the object recognition method of the present invention, an image acquisition step of acquiring images of a plurality of mirrors installed on a plurality of sidewalls of an internal space that can store an object and the internal space; further comprising, the front surface of the plurality of mirrors The glass can be made transparent or opaque by application of an electrical signal.

본 발명의 딥러닝에 기반한 이미지의 객체 인식 시스템 및 그 인식 방법에 따르면, 냉장고나 자동 판매기와 같은 내부 공간에 상품이 보관된 경우, 거울을 이용한 반사 이미지에 의해 가려진 상품에 대한 이미지도 확보하여 해당 상품을 인식할 수 있다.According to the deep learning-based image object recognition system and the recognition method of the present invention, when a product is stored in an internal space such as a refrigerator or a vending machine, an image of the product obscured by a reflection image using a mirror is also secured and the corresponding image is obtained. product can be recognized.

도 1은 좁은 내부 공간에 대해 획득된 카메라 이미지의 예시도.
도 2는 본 발명의 바람직한 일실시예에 따른 딥러닝에 기반한 이미지의 객체 인식 시스템의 구성도.
도 3은 보관함의 내부 공간 측벽에 설치된 다수의 거울의 예시도.
도 4는 카메라에 의해 획득되는 이미지 영역의 예시도.
도 5는 다수의 거울의 전면 유리의 각각의 투명 상태를 제어하기 위한 전기신호의 타이밍도의 예시도.
도 6은 이미지 분리부에 의해 분리되는 이미지 영역의 예시도.
도 7은 이미지 변환부에 의한 이미지의 변환 설명도.
도 8은 객체 검출부에 의한 객체 검출 방법에 관한 설명도.
도 9는 객체 확정부에 의한 객체 확정 방법에 관한 설명도.
1 is an exemplary view of a camera image obtained for a narrow interior space.
2 is a block diagram of an image object recognition system based on deep learning according to a preferred embodiment of the present invention.
Figure 3 is an exemplary view of a plurality of mirrors installed on the side wall of the inner space of the storage box.
4 is an exemplary diagram of an image area acquired by a camera;
5 is an exemplary diagram of a timing diagram of an electrical signal for controlling each transparent state of the windshield of a plurality of mirrors;
6 is an exemplary view of an image area separated by an image separator;
Fig. 7 is an explanatory diagram of image conversion by an image conversion unit;
Fig. 8 is an explanatory diagram of an object detection method by an object detection unit;
Fig. 9 is an explanatory diagram of a method for determining an object by an object determining unit;

이하, 첨부된 도면을 참조하면서 본 발명의 실시예에 따른 딥러닝에 기반한 이미지의 객체 인식 시스템 및 그 인식 방법에 대해 상세히 설명하기로 한다. 본 발명의 하기의 실시예는 본 발명을 구체화하기 위한 것일 뿐 본 발명의 권리 범위를 제한하거나 한정하는 것이 아님은 물론이다. 본 발명의 상세한 설명 및 실시예로부터 본 발명이 속하는 기술 분야의 전문가가 용이하게 유추할 수 있는 것은 본 발명의 권리 범위에 속하는 것으로 해석된다.Hereinafter, a system for recognizing an image based on deep learning and a method for recognizing the same according to an embodiment of the present invention will be described in detail with reference to the accompanying drawings. Of course, the following examples of the present invention are not intended to limit or limit the scope of the present invention only to embody the present invention. What can be easily inferred by an expert in the technical field to which the present invention pertains from the detailed description and examples of the present invention is construed as belonging to the scope of the present invention.

먼저, 도 2는 본 발명의 바람직한 일실시예에 따른 딥러닝에 기반한 이미지의 객체 인식 시스템(100)의 구성도를 나타낸다.First, FIG. 2 shows a configuration diagram of an image object recognition system 100 based on deep learning according to a preferred embodiment of the present invention.

도 2로부터 알 수 있는 바와 같이, 본 발명의 바람직한 일실시예에 따른 딥러닝에 기반한 이미지의 객체 인식 시스템(100)은, 이미지 획득부(10), 이미지 분리부(20), 이미지 변환부(30), 객체 영역 검출부(40), 특징점 추출부(50), 객체 검출부(60) 및 객체 확정부(70)를 포함한다.As can be seen from FIG. 2, the object recognition system 100 of an image based on deep learning according to a preferred embodiment of the present invention includes an image acquisition unit 10, an image separation unit 20, an image conversion unit ( 30 ), an object region detection unit 40 , a feature point extraction unit 50 , an object detection unit 60 , and an object determining unit 70 .

이미지 획득부(10)를 제외한 이미지 분리부(20), 이미지 변환부(30), 객체 영역 검출부(40), 특징점 추출부(50), 객체 검출부(60) 및 객체 확정부(70)는, 컴퓨팅 장치의 일부로서 구현될 수 있다.The image separation unit 20, the image conversion unit 30, the object region detection unit 40, the feature point extraction unit 50, the object detection unit 60 and the object determination unit 70 except for the image acquisition unit 10, It may be implemented as part of a computing device.

이미지 획득부(10)는, 이미지를 획득하는 역할을 한다. 구체적으로, 이미지 획득부(10)는, 냉장고나 자동 판매기와 같은, 객체를 보관할 수 있는 보관함(S) 내부의 다수의 측벽에 설치된 다수의 거울; 및 보관함(S) 내부 및 다수의 거울의 이미지를 획득하는 카메라;를 포함하는 것이 바람직하다. 여기서 객체의 예로는, 다양한 상품을 예로 들 수 있다.The image acquisition unit 10 serves to acquire an image. Specifically, the image acquisition unit 10 may include a plurality of mirrors installed on a plurality of sidewalls inside a storage box (S) capable of storing objects, such as a refrigerator or a vending machine; And it is preferable to include a; and a camera for acquiring images of the inside and a plurality of mirrors in the storage box (S). Here, as an example of an object, various goods may be mentioned as an example.

도 3은 냉장고나 자동 판매기와 같은 보관함(S)의 내부 공간 측벽에 설치된 다수의 거울의 예시도이다. 아울러, 도 4는 카메라에 의해 획득되는 이미지 영역의 예시도이다.3 is an exemplary view of a plurality of mirrors installed on the side wall of the inner space of the storage box (S) such as a refrigerator or a vending machine. In addition, FIG. 4 is an exemplary diagram of an image area acquired by a camera.

전기 신호의 인가에 의해, 다수의 거울의 전면 유리는, 투명 또는 불투명 상태로 제어될 수 있다. 전면 유리는 PDLC 필름 등을 부착하여 투명 또는 불투명 상태의 천이를 가능하게 할 수 있다. 예를 들면, 해당 전면 유리의 필름에 전기 신호가 인가되면 전류가 흘러 불투명 상태로부터 투명 상태가 될 수 있다. 다만, 필름에 따라서는, 필름에 전기 신호가 인가될 경우, 투명 상태로부터 불투명 상태로 될 수도 있다.By application of an electrical signal, the front glass of the plurality of mirrors can be controlled to be transparent or opaque. The front glass may enable transition of a transparent or opaque state by attaching a PDLC film or the like. For example, when an electric signal is applied to the film of the corresponding windshield, an electric current may flow from the opaque state to the transparent state. However, depending on the film, when an electric signal is applied to the film, the film may be changed from a transparent state to an opaque state.

다수의 거울이 동시에 동작할 경우, 보관함(S) 내부의 이미지가 거울 각각에 반사될 뿐만 아니라, 다른 거울에 반사된 이미지도 반사되어, 실제 반사된 보관함(S) 내부의 이미지를 특정하는 것에 어려움이 있다. When a plurality of mirrors operate at the same time, the image inside the storage box (S) is not only reflected on each mirror, but also the image reflected on other mirrors is reflected, making it difficult to specify the actual reflected image inside the storage box (S) There is this.

이러한 문제를 해결하고자, 다수의 거울의 전면 유리 각각의 투명한 상태인 구간은, 서로 이시(異時)적인 것이 바람직하다.In order to solve this problem, it is preferable that the sections in the transparent state of each of the front glass of the plurality of mirrors are different from each other.

도 5는 다수의 거울의 전면 유리의 각각의 투명 상태를 제어하기 위한 전기 신호의 타이밍도의 예시도이다. 도 5로부터 알 수 있는 바와 같이, 전기 신호의 인가에 의해 각각의 거울은 순차적으로 투명한 상태가 되는 것이 바람직하다.5 is an exemplary diagram of a timing diagram of an electrical signal for controlling each transparent state of the windshield of a plurality of mirrors; As can be seen from FIG. 5, it is preferable that each mirror sequentially becomes transparent by the application of an electric signal.

도 5와 같이, 이시적으로 다수의 거울의 전면 유리 각각의 투명한 상태인 구간을 설정하는 것에 의해, 투명한 상태의 하나의 거울 이외의 거울은 불투명한 상태가 되어 이미지가 반사되지 않으므로, 불투명한 거울의 이미지가 투명한 거울에 반사되는 일 또한 발생하지 않는다.As shown in FIG. 5 , by temporarily setting a section in a transparent state of each of the front glasses of a plurality of mirrors, mirrors other than one mirror in a transparent state become opaque and the image is not reflected, so the opaque mirror There is also no reflection of the image of the transparent mirror.

도 6은 이미지 분리부(20)에 의해 분리되는 이미지 영역의 예시도이다.6 is an exemplary view of an image region separated by the image separator 20 .

이미지 분리부(20)는, 카메라로부터 획득된 이미지를 거울에 반사된 반사 이미지와 실제 객체가 보관된 내부 공간의 실제 이미지로 분리하는 역할을 한다.The image separation unit 20 serves to separate the image acquired from the camera into a reflection image reflected by a mirror and an actual image of the internal space in which the real object is stored.

구체적으로 이미지 분리부(20)는, 다수의 거울이 순차적이고 이시적으로 동작 시에 획득된 다수의 이미지를, 다음과 같이 서로 대응하는 이미지를 선택하여 분리하는 것이 바람직하다.Specifically, it is preferable that the image separation unit 20 selects and separates a plurality of images obtained when a plurality of mirrors are sequentially and temporally operated, by selecting images corresponding to each other as follows.

(1) 제 1 거울의 영역 중 일부 영역인 제 1 반사 영역과 제 1 거울이 설치된 측벽과 인접한 보관함(S) 내부 공간의 제 1 내부 영역.(1) a first reflection area, which is a partial area of the area of the first mirror, and a first inner area of the inner space of the storage box (S) adjacent to the side wall where the first mirror is installed.

(2) 제 2 거울의 영역 중 일부 영역인 제 2 반사 영역과 제 2 거울이 설치된 측벽과 인접한 보관함(S) 내부 공간의 제 2 내부 영역.(2) a second reflection area, which is a partial area of the area of the second mirror, and a second inner area of the inner space of the storage box (S) adjacent to the side wall where the second mirror is installed.

(3) 제 3 거울의 영역 중 일부 영역인 제 3 반사 영역과 제 3 거울이 설치된 측벽과 인접한 보관함(S) 내부 공간의 제 3 내부 영역.(3) a third reflection area, which is a part of the area of the third mirror, and a third inner area of the inner space of the storage box (S) adjacent to the side wall where the third mirror is installed.

(4) 제 4 거울의 영역 중 일부 영역인 제 4 반사 영역과 제 4 거울이 설치된 측벽과 인접한 보관함(S) 내부 공간의 제 4 내부 영역.(4) a fourth reflection area, which is a partial area of the area of the fourth mirror, and a fourth inner area of the inner space of the storage box (S) adjacent to the side wall where the fourth mirror is installed.

본 발명에서는 제 1 반사 영역 내지 제 4 반사 영역은 해당 거울의 모든 영역이 아니라, 객체인 상품의 반사되는 일부 영역으로 제한되어, 비교하기 위한 이미지 영역을 최적화하였다. 마찬가지로, 보관함(S) 내부 공간에 대해서도 해당 거울과 인접한 영역만으로 비교 영역을 최적화하였다.In the present invention, the first to fourth reflective regions are not all regions of the corresponding mirror, but are limited to a part of the reflected region of the product, which is an object, to optimize the image region for comparison. Similarly, the comparison area was optimized only for the area adjacent to the mirror for the inner space of the storage box (S).

아울러, 제 1 반사 영역과 제 1 내부 영역;을 비교하기 위한 제 1 이미지, 제 2 반사 영역과 제 2 내부 영역;을 비교하기 위한 제 2 이미지, 제 3 반사 영역과 제 3 내부 영역;을 비교하기 위한 제 3 이미지 및 제 4 반사 영역과 제 4 내부 영역;을 비교하기 위한 제 4 이미지는, 서로 이시적으로 카메라로부터 획득된 것을 특징으로 한다. In addition, a first image for comparing the first reflective region and the first internal region, a second image for comparing the second reflective region and the second internal region, and the third reflective region and the third internal region are compared The third image and the fourth reflective region and the fourth inner region for comparison are obtained from a camera visually with each other.

즉, 해당 거울이 투명한 상태가 되어 보관함(S) 내부 공간의 이미지를 반사하는 경우에만, 해당 반사 영역과 내부 공간의 비교가 의미가 있는 까닭이다.That is, only when the mirror becomes transparent and reflects the image of the internal space of the storage box (S), the comparison of the reflective area with the internal space is meaningful.

도 7은 이미지 변환부(30)에 의한 이미지의 변환 설명도이다.7 is an explanatory diagram of image conversion by the image conversion unit 30 .

이미지 변환부(30)는, 인공 지능에 의해, 이미지 분리부(20)에 의해 분리된 반사 이미지는 실제 이미지를 모방한 모방 실제 이미지로 변환하고, 이미지 분리부(20)에 의해 분리된 실제 이미지는 반사 이미지를 모방한 모방 반사 이미지로 변환하는 역할을 한다.The image conversion unit 30, by artificial intelligence, converts the reflected image separated by the image separation unit 20 into a imitation real image that imitates the real image, and the real image separated by the image separation unit 20 plays a role in converting the reflected image into a mimicking reflective image.

거울의 반사로 인해 얻어진 이미지의 경우, 기울기나 반사각 등을 고려해보면 바로 위에서 촬영한 것과는 전혀 다르게 찍히기 때문에 같은 객체라고 판단하기가 쉽지 않다. 만약 거울에서 이미지를 동일한 객체라고 인식하기 위해서는 반사각, 카메라 위치 등을 따져서 반사된 이미지에서의 좌표를 계산하고 그에 맞춰 이미지를 워핑 하는 등의 복잡한 계산이 필요하게 된다.In the case of an image obtained due to the reflection of a mirror, it is not easy to determine that it is the same object because it is taken completely different from the one taken from above when the tilt or reflection angle is taken into account. If the mirror recognizes the image as the same object, complex calculations such as calculating the coordinates in the reflected image by taking into account the angle of reflection and camera position, and warping the image accordingly are required.

이미지 변환부(30)에서는, 인공 지능, 구체적으로 딥러닝을 기반으로 이미지 변환하는 모델을 사용한다. 아울러, 이미지 변환부(30)로는, 딥러닝 모델로 cGAN(Conditional GAN)을 사용할 수 있다.In the image conversion unit 30, an image conversion model is used based on artificial intelligence, specifically, deep learning. In addition, as the image conversion unit 30 , a conditional GAN (cGAN) may be used as a deep learning model.

즉, 이미지 변환부(30)에 의한 학습 모델에 의해, 모방 실제 이미지는 반사 이미지가 실제 내부 공간에 위치한 경우를 가정하여 반사 이미지의 구도 등을 변환하여, 실제 내부 공간에 위치한 경우의 이미지를 흉내낸 것이다. 마찬가지로, 모방 반사 이미지는 실제 이미지가 실제 거울에 반사된 경우를 가정하여 실제 이미지의 구도 등을 변환하여, 거울에 반사된 경우의 이미지를 흉내낸 것이다.That is, by the learning model by the image conversion unit 30, the imitation real image assumes that the reflective image is located in the actual internal space and converts the composition of the reflective image to imitate the image when located in the actual internal space. it paid off Similarly, the imitation reflection image simulates the image reflected by the mirror by changing the composition of the real image on the assumption that the real image is reflected by the real mirror.

이미지 분리부(20)에 대한 설명으로부터 알 수 있는 바와 같이, 이미지 변환부(30)에 의해 사용되는 변환 전 반사 이미지는 전체 반사 이미지 중 적어도 일부에 해당하고, 이미지 변환부(30)에 의해 사용되는 변환 전 실제 이미지는, 전체 실제 이미지 중 적어도 일부에 해당하는 것을 특징으로 한다.As can be seen from the description of the image separation unit 20 , the pre-conversion reflection image used by the image conversion unit 30 corresponds to at least a part of the total reflection image, and is used by the image conversion unit 30 . The actual image before conversion to be converted is characterized in that it corresponds to at least a part of the entire actual image.

즉, 이미지 변환부(30)는, 이미지 분리부(20)에 의해 분리된 전체 반사 이미지 중, 일부 영역에 해당하는 N개의 일부 영역의 반사 이미지; 및 객체가 보관된 내부 공간의 전체 실제 이미지 중, N개의 일부 영역의 반사 이미지에 각각 대응하는 N개의 일부 영역의 실제 이미지;를 이용한다. 이에 따라, 이미지 변환부(30)는, N개의 일부 영역의 반사 이미지 각각을 모방 실제 이미지로 변환하고, N개의 일부 영역의 실제 이미지 각각을 모방 반사 이미지로 변환한다. 여기서, N은, 2 이상인 정수인 것을 특징으로 한다. 예를 들어, 4개의 거울이 이미지 획득부(10)에서 사용된 경우, N은 4가 된다.That is, the image conversion unit 30 may include: reflection images of N partial regions corresponding to partial regions among the total reflection images separated by the image separation unit 20 ; and N real images of the N partial regions, respectively, corresponding to the reflection images of the N partial regions among the total real images of the internal space in which the object is stored. Accordingly, the image conversion unit 30 converts each of the reflection images of the N partial regions into a imitation real image, and converts each of the real images of the N partial regions into a imitation reflection image. Here, N is an integer of 2 or more. For example, when four mirrors are used in the image acquisition unit 10, N becomes 4.

4개의 거울의 반사 이미지가 있는 경우, 이미지 변환부(30)는 다음 [표 1]과 같이 이미지를 변환한다.When there is a reflection image of four mirrors, the image conversion unit 30 converts the image as shown in Table 1 below.

번호number 변환 전
반사 이미지
before conversion
reflection image
변환 후
모방 실제 이미지
after conversion
imitation real image
변환 전
실제 이미지
before conversion
real image
변환 후
모방 반사 이미지
after conversion
imitation reflection image
1One 제 1 반사 영역
이미지
first reflective area
image
제 1 내부 영역
모방 이미지
first inner region
imitation image
제 1 내부 영역
이미지
first inner region
image
제 1 반사 영역
모방 이미지
first reflective area
imitation image
22 제 2 반사 영역
이미지
second reflective area
image
제 2 내부 영역
모방 이미지
second inner area
imitation image
제 2 내부 영역
이미지
second inner area
image
제 2 반사 영역
모방 이미지
second reflective area
imitation image
33 제 3 반사 영역
이미지
third reflective area
image
제 3 내부 영역
모방 이미지
3rd inner area
imitation image
제 3 내부 영역
이미지
3rd inner area
image
제 3 반사 영역
모방 이미지
third reflective area
imitation image
44 제 4 반사 영역
이미지
fourth reflective area
image
제 4 내부 영역
모방 이미지
4th inner area
imitation image
제 4 내부 영역
이미지
4th inner area
image
제 4 반사 영역
모방 이미지
fourth reflective area
imitation image

[표 1]에서 제 1 반사 영역 이미지를 이용하여, 제 1 내부 영역 이미지를 모방한 이미지가 제 1 내부 영역 모방 이미지이다. 마찬가지로, 제 1 내부 영역 이미지를 이용하여, 제 1 반사 영역 이미지를 모방한 이미지가 제 1 반사 영역 모방 이미지가 된다.In [Table 1], an image imitating the first internal region image using the first reflection region image is the first internal region imitation image. Similarly, by using the first inner region image, an image simulating the first reflective region image becomes the first reflective region imitation image.

객체 영역 검출부(40)는, 반사 이미지, 실제 이미지, 모방 실제 이미지 및 모방 반사 이미지 각각으로부터 객체가 존재하는 영역을 검출하는 역할을 한다. The object region detection unit 40 serves to detect a region in which an object exists from each of the reflective image, the real image, the imitation real image, and the imitation reflection image.

즉, 객체 영역 검출부(40)는, N개의 반사 이미지, N개의 실제 이미지, N개의 모방 실제 이미지 및 N개의 모방 반사 이미지 각각으로부터 객체가 존재하는 영역을 검출한다.That is, the object region detection unit 40 detects a region in which an object exists from each of the N reflected images, N real images, N imitation real images, and N imitation reflection images.

구체적으로 객체 영역 검출부(40)는, 컨벌루션 뉴럴 네트워크 및 앵커를 포함하는 딥러닝 학습 모델에 의해 객체가 존재하는 영역을 검출할 수 있다.Specifically, the object region detection unit 40 may detect a region in which an object exists by a deep learning learning model including a convolutional neural network and an anchor.

컨벌루션 뉴럴 네트워크는, 다층으로 구성되며, 특징맵(Feature Map)을 출력한다. 앵커는 컨벌루션 뉴럴 네트워크의 출력인 특징맵을 이용하여 객체의 영역 검출하는 역할을 한다.The convolutional neural network is composed of multiple layers and outputs a feature map. The anchor serves to detect the area of an object using the feature map that is the output of the convolutional neural network.

특징점 추출부(50)는, 반사 이미지, 실제 이미지, 모방 실제 이미지 및 모방 반사 이미지 각각의 특징점을 추출하는 역할을 한다. 즉, 특징점 추출부(50)는, N개의 반사 이미지, N개의 실제 이미지, N개의 모방 실제 이미지 및 N개의 모방 반사 이미지 각각으로부터 특징점을 추출한다. The feature point extraction unit 50 serves to extract feature points of each of the reflection image, the real image, the imitation real image, and the imitation reflection image. That is, the feature point extraction unit 50 extracts feature points from each of the N reflection images, N real images, N imitation real images, and N imitation reflection images.

예를 들면, 거울이 4개인 경우, 제 1 내지 제 4 반사 영역 이미지, 제 1 내지 제 4 내부 영역 이미지, 제 1 내지 제 4 내부 영역 모방 이미지, 제 1 내지 제 4 반사 영역 모방 이미지 각각으로부터 특징점을 추출하게 된다.For example, when there are 4 mirrors, the feature points from each of the first to fourth reflective region images, the first to fourth internal region images, the first to fourth internal region imitation images, and the first to fourth reflective region imitation images will extract

아울러, 특징점 추출부(50)는, 반사 이미지의 특징점과 대응하는 모방 반사 이미지의 특징점을 서로 매칭하고, 실제 이미지의 특징점과 대응하는 모방 실제 이미지의 특징점을 서로 매칭한다.In addition, the feature point extraction unit 50 matches the feature points of the reflective image with the feature points of the corresponding imitation reflection image, and matches the feature points of the real image with the feature points of the corresponding imitation real image with each other.

예를 들면, 특징점 추출부(50)는, 제 1 반사 영역 이미지의 특징점과 제 1 내부 영역 모방 이미지의 특징점을 서로 매칭하고, 제 1 내부 영역 이미지의 특징점과 제 1 내부 영역 모방 이미지를 서로 매칭하게 된다. 아울러, 이 매칭 비율에 의해 두(2) 이미지 사이의 유사도를 알 수 있다.For example, the feature point extraction unit 50 may match the feature point of the first reflection region image with the feature point of the first internal region imitation image, and match the feature point of the first internal region image with the first internal region imitation image with each other will do In addition, the similarity between the two (2) images can be known by this matching ratio.

특징점 추출부(50)는, SURF(Speed Up Robust Features)를 사용할 수 있다. The feature point extraction unit 50 may use Speed Up Robust Features (SURF).

도 8은 객체 검출부(60)에 의한 객체 검출 방법에 관한 설명도이다.8 is an explanatory diagram of an object detection method by the object detection unit 60 .

객체 검출부(60)는, 객체 영역 검출부(40)에서 검출된 객체가 존재하는 영역의 정보 및 특징점 추출부(50)에서 추출된 특징점을 이용하여, 카메라로부터 획득된 이미지에 존재하는 객체를 검출하는 역할을 한다.The object detection unit 60 is configured to detect an object existing in an image obtained from a camera using information on a region in which the object detected by the object region detection unit 40 exists and the characteristic point extracted by the characteristic point extraction unit 50 . plays a role

구체적으로, 객체 검출부(60)는, 객체 영역 검출부(40)에 의해 객체가 존재하는 영역으로 검출된 영역에 대해, 반사 이미지의 특징점과 모방 반사 이미지의 특징점의 매칭 비율인 제 1 매칭 비율; 및 실제 이미지의 특징점과 모방 실제 이미지의 특징점의 매칭 비율인 제 2 매칭 비율;을 이용하여, 제 1 매칭 비율 또는 제 2 매칭 비율이 미리 설정된 제 1 비율 이상의 매칭된 특징점을 보유하는 영역을 제 1 객체군의 객체로 검출한다. 즉, 유사도가 제 1 비율 이상인 경우에는, 반사 이미지 및 실제 이미지 모두에 나타나는 제 1 객체군의 객체로서 검출되게 된다.Specifically, the object detection unit 60 may include a first matching ratio, which is a matching ratio between the feature points of the reflective image and the feature points of the imitation reflection image, with respect to the region detected by the object region detector 40 as the region where the object exists; and a second matching ratio, which is a matching ratio between the feature points of the real image and the feature points of the imitation real image; using a first matching ratio or a second matching ratio, an area having a matched feature point equal to or greater than a preset first ratio It is detected as an object of a group of objects. That is, when the similarity is equal to or greater than the first ratio, it is detected as an object of the first object group appearing in both the reflected image and the actual image.

아울러, 객체 검출부(60)는, 객체 영역 검출부(40)에 의해 객체가 존재하는 영역으로 검출된 영역에 대해, 반사 이미지의 특징점과 모방 반사 이미지의 특징점의 매칭 비율인 제 1 매칭 비율; 및 실제 이미지의 특징점과 모방 실제 이미지의 특징점의 매칭 비율;을 이용하여, 제 1 매칭 비율 또는 제 2 매칭 비율이 미리 설정된 제 2 비율 미만의 매칭된 특징점을 보유하는 영역을 제 2 객체군의 객체로 검출한다. 즉, 유사도가 제 2 비율 미만인 경우에는, 반사 이미지 및 실제 이미지 중 하나에만 나타나는 제 2 객체군의 객체로서 검출되게 된다.In addition, the object detection unit 60 may include a first matching ratio, which is a matching ratio between the characteristic points of the reflective image and the characteristic points of the imitation reflection image, with respect to the region detected as the region in which the object exists by the object region detection unit 40 ; and a matching ratio between the feature point of the real image and the feature point of the imitation real image; using the first matching ratio or the second matching ratio, an area having a matched feature point less than a preset second ratio is defined as an object of the second object group. detected with That is, when the similarity is less than the second ratio, it is detected as an object of the second object group appearing only in one of the reflected image and the actual image.

도 9는 객체 확정부(70)에 의한 객체 확정 방법에 관한 설명도이다.9 is an explanatory diagram of a method for determining an object by the object determining unit 70 .

다만, 도 9는 설명을 위해 각각의 이미지를 간략화 및 과장하여 도시하였다.However, in FIG. 9 , each image is simplified and exaggerated for explanation.

도 9와 같이 하나의 큰 객체 'C'에 가려진 작은 객체 'D'가 있는 경우, 2개의 반사 이미지인 제 1 반사 영역 이미지와 제 3 반사 영역 이미지에 해당 객체 'D'가 나타나서, 객체 검출부(60)에 의해 제 1 반사 영역 이미지를 이용한 객체의 검출시에도 객체 'C' 및 객체 'D'가 검출되고, 제 3 반사 영역 이미지를 이용한 객체의 검출시에도 객체 'C' 및 객체 'D'가 검출되게 된다. 즉, 이 경우, 객체 'C'는 제 1 객체군의 객체이고, 객체 'D'는 제 2 객체군의 객체이다.As shown in FIG. 9, when there is a small object 'D' hidden by one large object 'C', the corresponding object 'D' appears in the first reflection area image and the third reflection area image, which are two reflection images, so that the object detection unit ( 60), the object 'C' and the object 'D' are detected even when the object is detected using the first reflective region image, and the object 'C' and the object 'D' are detected even when the object is detected using the third reflective region image. will be detected. That is, in this case, object 'C' is an object of the first object group, and object 'D' is an object of the second object group.

따라서, 객체 확정부(70)는, N개의 일부 영역의 반사 이미지 각각 및 N개의 일부 영역의 실제 이미지 각각에 대해 검출된 제 1 객체군의 객체의 위치 정보 및 제 2 객체군의 객체의 위치 정보를 이용하여, N개의 일부 영역의 반사 이미지 모두 및 N개의 일부 영역의 실제 이미지 모두에 대해 검출된 객체 중 중복적으로 검출된 객체를 단일화하여, 내부 공간에 실제 보관된 전체 객체를 확정하는 역할을 한다. 즉, 중복적으로 검출된 객체 'C' 및 객체 'D'는 각각 하나로 단일화하여, 객체 'C' 및 객체 'D'로 검출된다.Accordingly, the object determining unit 70 may include the position information of the object of the first object group and the position information of the object of the second object group detected with respect to each of the reflection images of the N partial regions and each of the actual images of the N partial regions. by unifying the duplicated detected objects among the objects detected for all the reflection images of the N partial regions and the real images of the N partial regions by using to determine the entire object actually stored in the internal space do. That is, the duplicately detected object 'C' and object 'D' are unified into one, respectively, and are detected as object 'C' and object 'D'.

중복된 객체를 단일화하는 것에 의해, 객체 확정부(70)는, 하나의 보관함(S)의 내부 공간에 보관된 전체 객체를 중복없이 확정할 수 있다.By unifying the duplicated object, the object determining unit 70 may determine the entire object stored in the internal space of one storage box (S) without duplication.

하기에 본 발명의 바람직한 일실시예에 따른 딥러닝에 기반한 이미지의 객체 인식 방법에 대해 설명하기로 한다.Hereinafter, an image object recognition method based on deep learning according to a preferred embodiment of the present invention will be described.

본 발명의 이미지의 객체 인식 방법은, 상술한 이미지의 객체 인식 시스템(100)을 이용하므로 별도의 설명이 없더라도 상술한 이미지 객체 인식 시스템(100)의 모든 특징을 포함하고 있다. 아울러, 본 발명의 이미지의 객체 인식 방법의 적어도 일부는, 컴퓨팅 장치에 의해 실시되는 컴퓨터 프로그램의 형태로 구현될 수 있다.Since the method for recognizing an object of an image of the present invention uses the above-described image object recognition system 100, all features of the image object recognition system 100 are included even if there is no separate explanation. In addition, at least a part of the image object recognition method of the present invention may be implemented in the form of a computer program executed by a computing device.

본 발명의 이미지의 객체 인식 방법은, 이미지 획득 단계(S10), 이미지 분리 단계(S20), 이미지 변환 단계(S30), 객체 영역 검출 단계(S40), 특징점 추출 단계(S50), 객체 검출 단계(S60) 및 객체 확정 단계(S70)를 포함한다.The image object recognition method of the present invention includes an image acquisition step (S10), an image separation step (S20), an image conversion step (S30), an object region detection step (S40), a feature point extraction step (S50), an object detection step ( S60) and an object determination step (S70).

구체적으로 이미지 획득 단계(S10)에서는, 객체를 보관할 수 있는 내부 공간 및 내부 공간의 다수의 측벽에 설치된 다수의 거울의 이미지를 획득한다.Specifically, in the image acquisition step ( S10 ), an image of a plurality of mirrors installed on a plurality of sidewalls of an internal space and an internal space capable of storing an object is acquired.

아울러, 이미지 분리 단계(S20)에서는, 카메라로부터 획득된 이미지를 거울에 반사된 반사 이미지와 실제 객체가 보관된 내부 공간의 실제 이미지로 분리한다.In addition, in the image separation step (S20), the image obtained from the camera is separated into a reflection image reflected by the mirror and an actual image of the internal space in which the real object is stored.

예를 들면, 이미지 분리 단계(S20)에서는, 다수의 거울 중 제 1 거울의 영역 중 일부 영역인 제 1 반사 영역;을 선택하고, 제 1 거울이 설치된 측벽과 인접한 실제 객체가 보관된 내부 공간의 제 1 내부 영역;을 제 1 반사 영역에 대응하는 영역으로 선택하고, 다수의 거울 중 제 2 거울의 영역 중 일부 영역인 제 2 반사 영역;을 선택하고, 제 2 거울이 설치된 측벽과 인접한 실제 객체가 보관된 내부 공간의 제 2 내부 영역;을 제 2 반사 영역에 대응하는 영역으로 선택한다.For example, in the image separation step (S20), a first reflection area, which is a partial area of the area of the first mirror among the plurality of mirrors, is selected, and the sidewall on which the first mirror is installed and the adjacent real object are stored. A first inner region is selected as an region corresponding to the first reflective region, a second reflective region that is a partial region of the second mirror among the plurality of mirrors is selected, and a real object adjacent to the sidewall on which the second mirror is installed A second inner area of the inner space in which is stored is selected as an area corresponding to the second reflection area.

다음으로, 이미지 변환 단계(S30)에서는, 인공 지능에 의해, 이미지 분리 단계(S20)에 의해 분리된 반사 이미지는 실제 이미지를 모방한 모방 실제 이미지로 변환하고, 이미지 분리 단계(S20)에 의해 분리된 실제 이미지는 반사 이미지를 모방한 모방 반사 이미지로 변환한다. 아울러, 이미지 변환 단계(S30)에서 사용되는 변환 전 반사 이미지는, 전체 반사 이미지 중 적어도 일부에 해당한다. 마찬가지로, 이미지 변환 단계(S30)에서 사용되는 변환 전 실제 이미지는, 전체 실제 이미지 중 적어도 일부에 해당한다.Next, in the image conversion step (S30), the reflected image separated by the image separation step (S20) by artificial intelligence is converted into an imitation real image that imitates the real image, and separated by the image separation step (S20) The resulting real image is converted into a imitation reflection image that mimics the reflection image. In addition, the reflection image before conversion used in the image conversion step S30 corresponds to at least a part of the total reflection image. Similarly, the real image before conversion used in the image conversion step S30 corresponds to at least a part of the entire real image.

구체적으로, 이미지 변환 단계(S30)에서는, 이미지 분리 단계(S20)에 의해 분리된 전체 반사 이미지 중, 일부 영역에 해당하는 N개의 일부 영역의 반사 이미지; 및 객체가 보관된 내부 공간의 전체 실제 이미지 중, N개의 일부 영역의 반사 이미지에 각각 대응하는 N개의 일부 영역의 실제 이미지;를 이용한다. 아울러, 이미지 변환 단계(S30)에서는, N개의 일부 영역의 반사 이미지 각각을 모방 실제 이미지로 변환하고, N개의 일부 영역의 실제 이미지 각각을 모방 반사 이미지로 변환한다. 여기서, N은, 2 이상인 정수인 것이 바람직하다.Specifically, in the image conversion step ( S30 ), among the total reflection images separated by the image separation step ( S20 ), the reflection images of N partial areas corresponding to the partial areas; and N real images of the N partial regions, respectively, corresponding to the reflection images of the N partial regions among the total real images of the internal space in which the object is stored. In addition, in the image conversion step ( S30 ), each of the reflection images of the N partial regions is converted into an imitation real image, and each of the real images of the N partial regions is converted into a imitation reflection image. Here, it is preferable that N is an integer of 2 or more.

또한, 객체 영역 검출 단계(S40)에서는, 반사 이미지, 실제 이미지, 모방 실제 이미지 및 모방 반사 이미지 각각으로부터 객체가 존재하는 영역을 검출한다.In addition, in the object region detection step S40, a region in which an object exists is detected from each of the reflective image, the real image, the imitation real image, and the imitation reflective image.

특징점 추출 단계(S50)에서는, 반사 이미지, 실제 이미지, 모방 실제 이미지 및 모방 반사 이미지 각각의 특징점을 추출한다.In the feature point extraction step ( S50 ), each feature point of the reflection image, the real image, the imitation real image, and the imitation reflection image is extracted.

아울러, 특징점 추출 단계(S50)에서는, 반사 이미지의 특징점과 모방 반사 이미지의 특징점을 서로 매칭하고, 실제 이미지의 특징점과 모방 실제 이미지의 특징점을 서로 매칭한다.In addition, in the feature point extraction step ( S50 ), the feature points of the reflective image and the feature points of the imitation reflection image are matched with each other, and the feature points of the real image and the feature points of the imitation real image are matched with each other.

객체 검출 단계(S60)에서는, 객체 영역 검출 단계(S40)에서 검출된 객체가 존재하는 영역의 정보 및 특징점 추출 단계(S50)에서 추출된 특징점을 이용하여, 카메라로부터 획득된 이미지에 존재하는 객체를 검출하는 역할을 한다.In the object detection step S60, the object existing in the image acquired from the camera is identified using the information on the area in which the object detected in the object area detection step S40 exists and the feature point extracted in the feature point extraction step S50. serves to detect.

구체적으로, 객체 검출 단계(S60)에서는, 객체 영역 검출 단계(S40)에 의해 객체가 존재하는 영역으로 검출된 영역에 대해, 반사 이미지의 특징점과 모방 반사 이미지의 특징점의 매칭 비율인 제 1 매칭 비율; 및 실제 이미지의 특징점과 모방 실제 이미지의 특징점의 매칭 비율인 제 2 매칭 비율;을 이용하여, 제 1 매칭 비율 또는 제 2 매칭 비율이 미리 설정된 제 1 비율 이상의 매칭된 특징점을 보유하는 영역을 제 1 객체군의 객체로 검출한다.Specifically, in the object detection step S60, the first matching ratio, which is the matching ratio between the feature points of the reflective image and the feature points of the imitation reflective image, with respect to the region detected as the region where the object exists by the object region detection step S40. ; and a second matching ratio, which is a matching ratio between the feature points of the real image and the feature points of the imitation real image; using a first matching ratio or a second matching ratio, an area having a matched feature point equal to or greater than a preset first ratio It is detected as an object of a group of objects.

아울러, 객체 검출 단계(S60)에서는, 객체 영역 검출 단계(S40)에 의해 객체가 존재하는 영역으로 검출된 영역에 대해, 반사 이미지의 특징점과 모방 반사 이미지의 특징점의 매칭 비율인 제 1 매칭 비율; 및 실제 이미지의 특징점과 모방 실제 이미지의 특징점의 매칭 비율인 제 2 매칭 비율;을 이용하여, 제 1 매칭 비율 또는 제 2 매칭 비율이 미리 설정된 제 2 비율 미만의 매칭된 특징점을 보유하는 영역을 제 2 객체군의 객체로 검출한다.In addition, in the object detection step S60, the first matching ratio, which is the matching ratio between the feature points of the reflective image and the feature points of the imitation reflective image, with respect to the region detected as the region where the object exists by the object region detection step S40; and a second matching ratio, which is a matching ratio between the feature points of the real image and the feature points of the imitation real image; using the first matching ratio or the second matching ratio to generate a region having a matched feature point that is less than a preset second ratio It is detected as an object of the 2 object group.

객체 확정 단계(S70)에서는, N개의 일부 영역의 반사 이미지 각각 및 N개의 일부 영역의 실제 이미지 각각에 대해 검출된 제 1 객체군의 객체의 위치 정보 및 제 2 객체군의 객체의 위치 정보를 이용하여, N개의 일부 영역의 반사 이미지 모두 및 N개의 일부 영역의 실제 이미지 모두에 대해 검출된 객체 중 중복적으로 검출된 객체를 단일화하여, 내부 공간에 실제 보관된 전체 객체를 확정한다. In the object determination step (S70), the position information of the object of the first object group and the position information of the object of the second object group detected for each of the reflection images of the N partial regions and each of the actual images of the N partial regions are used. Accordingly, by unifying the duplicated objects among the objects detected for all of the reflection images of the N partial regions and the actual images of the N partial regions, the entire object actually stored in the internal space is determined.

상술한 바와 같이, 본 발명의 딥러닝에 기반한 이미지의 객체 인식 시스템(100) 및 그 인식 방법에 따르면, 냉장고나 자동 판매기와 같은 내부 공간에 상품이 보관된 경우, 거울을 이용한 반사 이미지에 의해 가려진 상품에 대한 이미지도 확보하여 해당 상품을 인식할 수 있음을 알 수 있다.As described above, according to the deep learning-based image object recognition system 100 and the recognition method of the present invention, when a product is stored in an internal space such as a refrigerator or a vending machine, it is hidden by the reflection image using a mirror. It can be seen that the image of the product is also secured so that the product can be recognized.

100 : 객체 인식 시스템
10 : 이미지 획득부
20 : 이미지 분리부
30 : 이미지 변환부
40 : 객체 영역 검출부
50 : 특징점 추출부
60 : 객체 검출부
70 : 객체 확정부
S : 보관함
M : 거울
100: object recognition system
10: image acquisition unit
20: image separator
30: image conversion unit
40: object area detection unit
50: feature point extraction unit
60: object detection unit
70: object confirmation part
S : storage box
M: mirror

Claims (18)

객체 인식 시스템에 있어서,
카메라로부터 획득된 이미지로부터 분리된 반사 이미지는 실제 이미지를 모방한 모방 실제 이미지로 변환하고, 상기 카메라로부터 획득된 이미지로부터 분리된 실제 이미지는 반사 이미지를 모방한 모방 반사 이미지로 변환하는 이미지 변환부;
상기 반사 이미지, 상기 실제 이미지, 상기 모방 실제 이미지 및 상기 모방 반사 이미지 각각으로부터 객체가 존재하는 영역을 검출하는 객체 영역 검출부;
상기 반사 이미지, 상기 실제 이미지, 상기 모방 실제 이미지 및 상기 모방 반사 이미지 각각의 특징점을 추출하는 특징점 추출부; 및
상기 객체 영역 검출부에서 검출된 객체가 존재하는 영역의 정보 및 상기 특징점 추출부에서 추출된 특징점을 이용하여, 상기 카메라로부터 획득된 이미지에 존재하는 객체를 검출하는 객체 검출부;를 포함하고,
상기 이미지 변환부에 의해 사용되는 변환 전 반사 이미지는, 전체 반사 이미지 중 적어도 일부에 해당하고,
상기 이미지 변환부에 의해 사용되는 변환 전 실제 이미지는, 전체 실제 이미지 중 적어도 일부에 해당하는 것을 특징으로 하는 객체 인식 시스템.
An object recognition system comprising:
an image conversion unit that converts the reflected image separated from the image acquired from the camera into a imitation real image that imitates the real image, and converts the real image separated from the image acquired from the camera into a imitation reflective image that mimics the reflection image;
an object region detection unit configured to detect a region in which an object exists from each of the reflection image, the real image, the imitation real image, and the imitation reflection image;
a feature point extraction unit for extracting feature points of each of the reflection image, the real image, the imitation real image, and the imitation reflection image; and
an object detection unit configured to detect an object present in the image obtained from the camera using information on a region in which the object detected by the object region detection unit exists and the characteristic point extracted by the characteristic point extraction unit;
The reflection image before conversion used by the image conversion unit corresponds to at least a part of the total reflection image,
The real image before conversion used by the image conversion unit corresponds to at least a part of the entire real image.
삭제delete 제1항에 있어서,
상기 특징점 추출부는,
상기 반사 이미지의 특징점과 상기 모방 반사 이미지의 특징점을 서로 매칭하고, 상기 실제 이미지의 특징점과 상기 모방 실제 이미지의 특징점을 서로 매칭하는 것을 특징으로 하는 객체 인식 시스템.
According to claim 1,
The feature point extraction unit,
The object recognition system, characterized in that the feature points of the reflected image and the feature points of the imitation reflection image are matched with each other, and the feature points of the real image and the feature points of the imitation real image are matched with each other.
제3항에 있어서,
상기 객체 검출부는,
상기 객체 영역 검출부에 의해 객체가 존재하는 영역으로 검출된 영역에 대해, 상기 반사 이미지의 특징점과 상기 모방 반사 이미지의 특징점의 매칭 비율인 제 1 매칭 비율; 및 상기 실제 이미지의 특징점과 상기 모방 실제 이미지의 특징점의 매칭 비율인 제 2 매칭 비율;을 이용하여, 상기 제 1 매칭 비율 또는 상기 제 2 매칭 비율이 미리 설정된 제 1 비율 이상의 매칭된 특징점을 보유하는 영역을 제 1 객체군의 객체로 검출하는 것을 특징으로 하는 객체 인식 시스템.
4. The method of claim 3,
The object detection unit,
a first matching ratio, which is a matching ratio between the feature points of the reflective image and the feature points of the imitation reflective image, with respect to the region detected as the region in which the object exists by the object region detection unit; and a second matching ratio, which is a matching ratio between the feature points of the real image and the feature points of the imitation real image. An object recognition system, characterized in that the region is detected as an object of the first object group.
제4항에 있어서,
상기 객체 검출부는,
상기 객체 영역 검출부에 의해 객체가 존재하는 영역으로 검출된 영역에 대해, 상기 반사 이미지의 특징점과 상기 모방 반사 이미지의 특징점의 매칭 비율인제 1 매칭 비율; 및 상기 실제 이미지의 특징점과 상기 모방 실제 이미지의 특징점의 매칭 비율인 제 2 매칭 비율;을 이용하여, 상기 제 1 매칭 비율 또는 상기 제 2 매칭 비율이 미리 설정된 제 2 비율 미만의 매칭된 특징점을 보유하는 영역을 제 2 객체군의 객체로 검출하는 것을 특징으로 하는 객체 인식 시스템.
5. The method of claim 4,
The object detection unit,
a first matching ratio, which is a matching ratio between the feature points of the reflective image and the feature points of the imitation reflective image with respect to the region detected by the object region detection unit as a region in which an object exists; and a second matching ratio, which is a matching ratio between the feature points of the real image and the feature points of the imitation real image; using, the first matching ratio or the second matching ratio is less than a preset second ratio. An object recognition system, characterized in that the region is detected as an object of the second object group.
제5항에 있어서,
상기 이미지 변환부는,
전체 반사 이미지 중, 일부 영역에 해당하는 N개의 일부 영역의 반사 이미지; 및 객체가 보관된 내부 공간의 전체 실제 이미지 중, 상기 N개의 일부 영역의 반사 이미지에 각각 대응하는 N개의 일부 영역의 실제 이미지;를 이용하여,
상기 N개의 일부 영역의 반사 이미지 각각을 모방 실제 이미지로 변환하고, 상기 N개의 일부 영역의 실제 이미지 각각을 모방 반사 이미지로 변환하되,
상기 N은, 2 이상인 정수인 것을 특징으로 하는 객체 인식 시스템.
6. The method of claim 5,
The image conversion unit,
reflection images of N partial regions corresponding to partial regions among the total reflection images; and N real images of the N partial regions respectively corresponding to the reflection images of the N partial regions among the total real images of the internal space in which the object is stored.
Converting each of the reflection images of the N partial regions into a imitation real image, and converting each of the real images of the N partial regions into a imitation reflection image,
The object recognition system, characterized in that N is an integer of 2 or more.
제6항에 있어서,
상기 객체 인식 시스템은,
상기 N개의 일부 영역의 반사 이미지 각각 및 상기 N개의 일부 영역의 실제 이미지 각각에 대해 검출된 제 1 객체군의 객체의 위치 정보 및 제 2 객체군의 객체의 위치 정보를 이용하여, 상기 N개의 일부 영역의 반사 이미지 모두 및 상기 N개의 일부 영역의 실제 이미지 모두에 대해 검출된 객체 중 중복적으로 검출된 객체를 단일화하여, 내부 공간에 실제 보관된 전체 객체를 확정하는 객체 확정부;를 더 포함하는 것을 특징으로 하는 객체 인식 시스템.
7. The method of claim 6,
The object recognition system,
Using the position information of the object of the first object group and the position information of the object of the second object group detected for each of the reflection images of the N partial regions and the actual images of the N partial regions, respectively, the N parts An object determining unit for unifying the duplicated detected objects among all the reflected images of the region and for all of the actual images of the N partial regions to determine the entire object actually stored in the internal space; further comprising Object recognition system, characterized in that.
제1항에 있어서,
상기 객체 인식 시스템은,
이미지를 획득하는 이미지 획득부;를 더 포함하되,
상기 이미지 획득부는,
객체를 보관할 수 있는 내부 공간의 다수의 측벽에 설치된 다수의 거울; 및
상기 내부 공간 및 상기 다수의 거울의 이미지를 획득하는 카메라;를 포함하는 것을 특징으로 하는 객체 인식 시스템.
According to claim 1,
The object recognition system,
An image acquisition unit for acquiring an image; further comprising,
The image acquisition unit,
a plurality of mirrors installed on a plurality of side walls of an interior space capable of storing objects; and
and a camera for acquiring images of the interior space and the plurality of mirrors.
제8항에 있어서,
상기 다수의 거울의 전면 유리는,
전기 신호의 인가에 의해, 투명 또는 불투명 상태로 되는 것을 특징으로 하는 객체 인식 시스템.
9. The method of claim 8,
The front glass of the plurality of mirrors,
An object recognition system, characterized in that it becomes transparent or opaque by application of an electrical signal.
객체 인식 방법에 있어서,
카메라로부터 획득된 이미지로부터 분리된 반사 이미지는 실제 이미지를 모방한 모방 실제 이미지로 변환하고, 상기 카메라로부터 획득된 이미지로부터 분리된 실제 이미지는 반사 이미지를 모방한 모방 반사 이미지로 변환하는 이미지 변환 단계;
상기 반사 이미지, 상기 실제 이미지, 상기 모방 실제 이미지 및 상기 모방 반사 이미지 각각으로부터 객체가 존재하는 영역을 검출하는 객체 영역 검출 단계;
상기 반사 이미지, 상기 실제 이미지, 상기 모방 실제 이미지 및 상기 모방 반사 이미지 각각의 특징점을 추출하는 특징점 추출 단계; 및
상기 객체 영역 검출 단계에서 검출된 객체가 존재하는 영역의 정보 및 상기 특징점 추출 단계에서 추출된 특징점을 이용하여, 상기 카메라로부터 획득된 이미지에 존재하는 객체를 검출하는 객체 검출 단계;를 포함하고,
상기 이미지 변환 단계에 의해 사용되는 변환 전 반사 이미지는, 전체 반사 이미지 중 적어도 일부에 해당하고,
상기 이미지 변환 단계에 의해 사용되는 변환 전 실제 이미지는, 전체 실제 이미지 중 적어도 일부에 해당하는 것을 특징으로 하는 객체 인식 방법.
In the object recognition method,
an image conversion step of converting the reflected image separated from the image acquired from the camera into a imitation real image that imitates the real image, and converting the real image separated from the image acquired from the camera into a imitation reflective image that mimics the reflection image;
an object region detection step of detecting a region in which an object exists from each of the reflection image, the real image, the imitation real image, and the imitation reflection image;
a feature point extraction step of extracting feature points of each of the reflection image, the real image, the imitation real image, and the imitation reflection image; and
an object detection step of detecting an object existing in the image obtained from the camera using information on a region in which the object detected in the object region detection step exists and the feature point extracted in the feature point extraction step;
The reflection image before conversion used by the image conversion step corresponds to at least a part of the total reflection image,
The real image before conversion used by the image conversion step corresponds to at least a part of the entire real image.
삭제delete 제10항에 있어서,
상기 특징점 추출 단계에서는,
상기 반사 이미지의 특징점과 상기 모방 반사 이미지의 특징점을 서로 매칭하고, 상기 실제 이미지의 특징점과 상기 모방 실제 이미지의 특징점을 서로 매칭하는 것을 특징으로 하는 객체 인식 방법.
11. The method of claim 10,
In the feature point extraction step,
An object recognition method, characterized in that the feature points of the reflected image and the feature points of the imitation reflection image are matched with each other, and the feature points of the real image and the feature points of the imitation real image are matched with each other.
제12항에 있어서,
상기 객체 검출 단계에서는,
상기 객체 영역 검출 단계에 의해 객체가 존재하는 영역으로 검출된 영역에 대해, 상기 반사 이미지의 특징점과 상기 모방 반사 이미지의 특징점의 매칭 비율인 제 1 매칭 비율; 및 상기 실제 이미지의 특징점과 상기 모방 실제 이미지의 특징점의 매칭 비율인 제 2 매칭 비율;을 이용하여, 상기 제 1 매칭 비율 또는 상기 제 2 매칭 비율이 미리 설정된 제 1 비율 이상의 매칭된 특징점을 보유하는 영역을 제 1 객체군의 객체로 검출하는 것을 특징으로 하는 객체 인식 방법.
13. The method of claim 12,
In the object detection step,
a first matching ratio, which is a matching ratio between the feature points of the reflective image and the feature points of the imitation reflective image, with respect to the region detected as a region in which an object exists by the object region detection step; and a second matching ratio, which is a matching ratio between the feature points of the real image and the feature points of the imitation real image. An object recognition method, characterized in that the region is detected as an object of the first object group.
제13항에 있어서,
상기 객체 검출 단계에서는,
상기 객체 영역 검출 단계에 의해 객체가 존재하는 영역으로 검출된 영역에 대해, 상기 반사 이미지의 특징점과 상기 모방 반사 이미지의 특징점의 매칭 비율인제 1 매칭 비율; 및 상기 실제 이미지의 특징점과 상기 모방 실제 이미지의 특징점의 매칭 비율인 제 2 매칭 비율;을 이용하여, 상기 제 1 매칭 비율 또는 상기 제 2 매칭 비율이 미리 설정된 제 2 비율 미만의 매칭된 특징점을 보유하는 영역을 제 2 객체군의 객체로 검출하는 것을 특징으로 하는 객체 인식 방법.
14. The method of claim 13,
In the object detection step,
a first matching ratio, which is a matching ratio between the feature points of the reflective image and the feature points of the imitation reflective image with respect to the region detected as the region in which the object exists by the object region detecting step; and a second matching ratio, which is a matching ratio between the feature points of the real image and the feature points of the imitation real image; using, the first matching ratio or the second matching ratio is less than a preset second ratio. An object recognition method, characterized in that the region is detected as an object of the second object group.
제10항에 있어서,
상기 이미지 변환 단계에서는,
전체 반사 이미지 중, 일부 영역에 해당하는 N개의 일부 영역의 반사 이미지; 및 객체가 보관된 내부 공간의 전체 실제 이미지 중, 상기 N개의 일부 영역의 반사 이미지에 각각 대응하는 N개의 일부 영역의 실제 이미지;를 이용하여,
상기 N개의 일부 영역의 반사 이미지 각각을 모방 실제 이미지로 변환하고, 상기 N개의 일부 영역의 실제 이미지 각각을 모방 반사 이미지로 변환하되,
상기 N은, 2 이상인 정수인 것을 특징으로 하는 객체 인식 방법.
11. The method of claim 10,
In the image conversion step,
reflection images of N partial regions corresponding to partial regions among the total reflection images; and N real images of the N partial regions respectively corresponding to the reflection images of the N partial regions among the total real images of the internal space in which the object is stored.
Converting each of the reflection images of the N partial regions into a imitation real image, and converting each of the real images of the N partial regions into a imitation reflection image,
The N is an object recognition method, characterized in that it is an integer of 2 or more.
제15항에 있어서,
상기 객체 인식 방법은,
상기 N개의 일부 영역의 반사 이미지 각각 및 상기 N개의 일부 영역의 실제 이미지 각각에 대해 검출된 제 1 객체군의 객체의 위치 정보 및 제 2 객체군의 객체의 위치 정보를 이용하여, 상기 N개의 일부 영역의 반사 이미지 모두 및 상기 N개의 일부 영역의 실제 이미지 모두에 대해 검출된 객체 중 중복적으로 검출된 객체를 단일화하여, 내부 공간에 실제 보관된 전체 객체를 확정하는 객체 확정 단계;를 더 포함하는 것을 특징으로 하는 객체 인식 방법.
16. The method of claim 15,
The object recognition method comprises:
Using the position information of the object of the first object group and the position information of the object of the second object group detected for each of the reflection images of the N partial regions and the actual images of the N partial regions, respectively, the N parts Object determination step of unifying the duplicately detected objects among the objects detected for all of the reflected images of the region and the actual images of the N partial regions to determine all objects actually stored in the internal space; further comprising: Object recognition method, characterized in that.
제10항에 있어서,
상기 객체 인식 방법은,
객체를 보관할 수 있는 내부 공간 및 상기 내부 공간의 다수의 측벽에 설치된 다수의 거울의 이미지를 획득하는 이미지 획득 단계;를 더 포함하는 것을 특징으로 하는 객체 인식 방법.
11. The method of claim 10,
The object recognition method comprises:
An image acquisition step of acquiring images of an internal space capable of storing an object and images of a plurality of mirrors installed on a plurality of sidewalls of the internal space;
제17항에 있어서,
상기 다수의 거울의 전면 유리는,
전기 신호의 인가에 의해, 투명 또는 불투명 상태로 되는 것을 특징으로 하는 객체 인식 방법.
18. The method of claim 17,
The front glass of the plurality of mirrors,
An object recognition method, characterized in that it becomes transparent or opaque by application of an electrical signal.
KR1020190134385A 2019-10-28 2019-10-28 Object recognition systen of image based on deep learning and recognition method therefor KR102283904B1 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
KR1020190134385A KR102283904B1 (en) 2019-10-28 2019-10-28 Object recognition systen of image based on deep learning and recognition method therefor

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020190134385A KR102283904B1 (en) 2019-10-28 2019-10-28 Object recognition systen of image based on deep learning and recognition method therefor

Publications (2)

Publication Number Publication Date
KR20210050138A KR20210050138A (en) 2021-05-07
KR102283904B1 true KR102283904B1 (en) 2021-08-02

Family

ID=75916641

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020190134385A KR102283904B1 (en) 2019-10-28 2019-10-28 Object recognition systen of image based on deep learning and recognition method therefor

Country Status (1)

Country Link
KR (1) KR102283904B1 (en)

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN208781326U (en) * 2018-08-07 2019-04-23 上海韬林机械有限公司 A kind of Vending Machine of visual identity commodity
KR101991424B1 (en) * 2018-02-09 2019-06-20 충북대학교 산학협력단 Refrigerator with visible device for inner side

Family Cites Families (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN110609617B (en) 2013-08-04 2023-09-26 艾斯适配有限公司 Apparatus, system and method for virtual mirror

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR101991424B1 (en) * 2018-02-09 2019-06-20 충북대학교 산학협력단 Refrigerator with visible device for inner side
CN208781326U (en) * 2018-08-07 2019-04-23 上海韬林机械有限公司 A kind of Vending Machine of visual identity commodity

Also Published As

Publication number Publication date
KR20210050138A (en) 2021-05-07

Similar Documents

Publication Publication Date Title
US11288492B2 (en) Method and device for acquiring 3D information of object
US7822267B2 (en) Enhanced object reconstruction
CN106909911B (en) Image processing method, image processing apparatus, and electronic apparatus
Klank et al. Transparent object detection and reconstruction on a mobile platform
JP4451307B2 (en) How to classify objects in a scene
Filliat et al. RGBD object recognition and visual texture classification for indoor semantic mapping
CN105740910A (en) Vehicle object detection method and device
JP4313758B2 (en) How to chain edges in stereo images together
CN106997457B (en) Figure limb identification method, figure limb identification device and electronic device
EP3553468A1 (en) Method and apparatus for generating 3d map of indoor space
WO2020130070A1 (en) Detecting device, information processing device, detecting method, and information processing program
US11257287B2 (en) System, device and method for creating three-dimensional models
KR102283904B1 (en) Object recognition systen of image based on deep learning and recognition method therefor
US20140218477A1 (en) Method and system for creating a three dimensional representation of an object
Majdi et al. 3d modeling of indoor environments using kinect sensor
KR20140120527A (en) Apparatus and method for matchong stereo image
CN111246623B (en) Gesture control method and control system based on embedded binocular intelligent mirror front lamp
CN110008918B (en) Method for identifying posture of motorcycle simulator driver
JPH05173644A (en) Three-dimensional body recording device
CN111383340A (en) Background filtering method, device and system based on 3D image
US20240054765A1 (en) Information processing method and apparatus
Shin et al. Object proposal using 3D point cloud for DRC-HUBO+
KR20180055305A (en) Method and apparatus for controlling movement of electronic equipment
JP2002259968A (en) Color extracting method and color extracting device
Iannizzotto et al. Real-time object tracking with movels and affine transformations

Legal Events

Date Code Title Description
PA0109 Patent application

Patent event code: PA01091R01D

Comment text: Patent Application

Patent event date: 20191028

PA0201 Request for examination
PE0902 Notice of grounds for rejection

Comment text: Notification of reason for refusal

Patent event date: 20210122

Patent event code: PE09021S01D

PG1501 Laying open of application
E701 Decision to grant or registration of patent right
PE0701 Decision of registration

Patent event code: PE07011S01D

Comment text: Decision to Grant Registration

Patent event date: 20210715

GRNT Written decision to grant
PR0701 Registration of establishment

Comment text: Registration of Establishment

Patent event date: 20210726

Patent event code: PR07011E01D

PR1002 Payment of registration fee

Payment date: 20210726

End annual number: 3

Start annual number: 1

PG1601 Publication of registration
PR1001 Payment of annual fee

Payment date: 20240502

Start annual number: 4

End annual number: 4