KR102283904B1 - Object recognition systen of image based on deep learning and recognition method therefor - Google Patents
Object recognition systen of image based on deep learning and recognition method therefor Download PDFInfo
- Publication number
- KR102283904B1 KR102283904B1 KR1020190134385A KR20190134385A KR102283904B1 KR 102283904 B1 KR102283904 B1 KR 102283904B1 KR 1020190134385 A KR1020190134385 A KR 1020190134385A KR 20190134385 A KR20190134385 A KR 20190134385A KR 102283904 B1 KR102283904 B1 KR 102283904B1
- Authority
- KR
- South Korea
- Prior art keywords
- image
- imitation
- region
- reflection
- real
- Prior art date
Links
- 238000000034 method Methods 0.000 title claims description 37
- 238000013135 deep learning Methods 0.000 title description 14
- VOXZDWNPVJITMN-ZBRFXRBCSA-N 17β-estradiol Chemical compound OC1=CC=C2[C@H]3CC[C@](C)([C@H](CC4)O)[C@@H]4[C@@H]3CCC2=C1 VOXZDWNPVJITMN-ZBRFXRBCSA-N 0.000 title 1
- 238000006243 chemical reaction Methods 0.000 claims abstract description 54
- 238000001514 detection method Methods 0.000 claims description 53
- 238000000605 extraction Methods 0.000 claims description 25
- 239000011521 glass Substances 0.000 claims description 8
- 238000010586 diagram Methods 0.000 description 14
- 238000000926 separation method Methods 0.000 description 14
- 238000013473 artificial intelligence Methods 0.000 description 3
- 238000013527 convolutional neural network Methods 0.000 description 3
- 239000000284 extract Substances 0.000 description 2
- 239000000203 mixture Substances 0.000 description 2
- 239000004983 Polymer Dispersed Liquid Crystal Substances 0.000 description 1
- 238000004364 calculation method Methods 0.000 description 1
- 238000004590 computer program Methods 0.000 description 1
- 238000012790 confirmation Methods 0.000 description 1
- 238000013136 deep learning model Methods 0.000 description 1
- 230000007704 transition Effects 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/70—Arrangements for image or video recognition or understanding using pattern recognition or machine learning
- G06V10/74—Image or video pattern matching; Proximity measures in feature spaces
-
- G06K9/20—
-
- G06K9/46—
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/10—Segmentation; Edge detection
- G06T7/11—Region-based segmentation
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/50—Depth or shape recovery
- G06T7/514—Depth or shape recovery from specularities
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/10—Image acquisition
- G06V10/12—Details of acquisition arrangements; Constructional details thereof
- G06V10/14—Optical characteristics of the device performing the acquisition or on the illumination arrangements
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/40—Extraction of image or video features
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/20—Special algorithmic details
- G06T2207/20081—Training; Learning
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Multimedia (AREA)
- Health & Medical Sciences (AREA)
- Artificial Intelligence (AREA)
- Computing Systems (AREA)
- Databases & Information Systems (AREA)
- Evolutionary Computation (AREA)
- General Health & Medical Sciences (AREA)
- Medical Informatics (AREA)
- Software Systems (AREA)
- Image Analysis (AREA)
Abstract
객체 인식 시스템은, 카메라로부터 획득된 이미지로부터 분리된 반사 이미지는 실제 이미지를 모방한 모방 실제 이미지로 변환하고, 상기 카메라로부터 획득된 이미지로부터 분리된 실제 이미지는 반사 이미지를 모방한 모방 반사 이미지로 변환하는 이미지 변환부;를 포함한다.The object recognition system converts a reflective image separated from an image acquired from a camera into a imitation real image that mimics a real image, and a real image separated from the image acquired from the camera is converted into a imitation reflective image that mimics a reflective image and an image conversion unit.
Description
본 발명은 딥러닝에 기반한 이미지의 객체 인식 시스템 및 그 인식 방법에 관한 것이다.The present invention relates to an image object recognition system based on deep learning and a method for recognizing the same.
냉장고나 자동 판매기와 같은 보관함의 내부 공간의 상부 중앙에 위치한 카메라에 의해 한정된 공간 내부의 이미지를 획득할 때, 카메라 렌즈 화각의 가장자리의 객체들은 카메라 렌즈와 가깝고 큰 객체에 가려지는 경우가 빈번하다. When acquiring an image inside a space limited by a camera located in the upper center of an internal space of a storage box such as a refrigerator or a vending machine, objects at the edge of the camera lens angle of view are close to the camera lens and are often obscured by a large object.
도 1은 좁은 내부 공간에 대해 획득된 카메라 이미지의 예시도이다.1 is an exemplary view of a camera image obtained for a narrow interior space.
도 1로부터 알 수 있는 바와 같이 'A'라고 표시된 상품 뒤에 가려진 'B' 상품의 경우, 딥러닝 시에 객체 인식에 어려움이 있다.As can be seen from FIG. 1 , in the case of a product 'B' hidden behind a product marked 'A', there is a difficulty in object recognition during deep learning.
이러한 가려진 객체들이 많은 경우, 카메라로부터 획득된 이미지를 이용하여 해당 공간 내부의 상품인 객체를 인식하기 위한 시스템에서 딥러닝을 실시하게 되면, 가려진 객체들에 대한 올바른 인식이 어렵다.When there are many such obscured objects, when deep learning is performed in a system for recognizing an object that is a product in a corresponding space using an image obtained from a camera, correct recognition of the obscured objects is difficult.
본 발명은 전술한 바와 같은 기술적 과제를 해결하는 데 목적이 있는 발명으로서, 냉장고나 자동 판매기와 같은 내부 공간에 상품이 보관된 경우, 거울을 이용한 반사 이미지에 의해 가려진 상품에 대한 이미지도 확보하여 해당 상품을 인식할 수 있는 딥러닝에 기반한 이미지의 객체 인식 시스템 및 그 인식 방법을 제공하는 것에 그 목적이 있다.The present invention is an invention aimed at solving the technical problems as described above, and when the product is stored in an internal space such as a refrigerator or a vending machine, an image of the product covered by a reflection image using a mirror is also secured and the corresponding image is obtained. An object of the present invention is to provide an image object recognition system based on deep learning capable of recognizing a product and a method for recognizing the same.
본 발명의 객체 인식 시스템은, 카메라로부터 획득된 이미지로부터 분리된 반사 이미지는 실제 이미지를 모방한 모방 실제 이미지로 변환하고, 상기 카메라로부터 획득된 이미지로부터 분리된 실제 이미지는 반사 이미지를 모방한 모방 반사 이미지로 변환하는 이미지 변환부;를 포함한다. 상기 이미지 변환부에 의해 사용되는 변환 전 반사 이미지는, 전체 반사 이미지 중 적어도 일부에 해당하고, 상기 이미지 변환부에 의해 사용되는 변환 전 실제 이미지는, 전체 실제 이미지 중 적어도 일부에 해당하는 것을 특징으로 한다.The object recognition system of the present invention converts a reflected image separated from an image obtained from a camera into a imitation real image that imitates a real image, and a real image separated from the image acquired from the camera is a imitation reflection that imitates a reflected image It includes; an image converter that converts the image into an image. The reflection image before conversion used by the image conversion unit corresponds to at least a part of the total reflection image, and the actual image before conversion used by the image conversion unit corresponds to at least a part of the entire actual image. do.
아울러, 본 발명의 객체 인식 시스템은, 상기 반사 이미지, 상기 실제 이미지, 상기 모방 실제 이미지 및 상기 모방 반사 이미지 각각으로부터 객체가 존재하는 영역을 검출하는 객체 영역 검출부; 상기 반사 이미지, 상기 실제 이미지, 상기 모방 실제 이미지 및 상기 모방 반사 이미지 각각의 특징점을 추출하는 특징점 추출부; 및 상기 객체 영역 검출부에서 검출된 객체가 존재하는 영역의 정보 및 상기 특징점 추출부에서 추출된 특징점을 이용하여, 상기 카메라로부터 획득된 이미지에 존재하는 객체를 검출하는 객체 검출부;를 더 포함하는 것이 바람직하다.In addition, the object recognition system of the present invention may include an object region detection unit configured to detect a region in which an object exists from each of the reflected image, the real image, the imitation real image, and the imitation reflected image; a feature point extraction unit for extracting feature points of each of the reflection image, the real image, the imitation real image, and the imitation reflection image; and an object detection unit configured to detect an object present in the image obtained from the camera using information on a region in which the object detected by the object region detection unit exists and the characteristic point extracted by the characteristic point extraction unit. do.
구체적으로, 상기 특징점 추출부는, 상기 반사 이미지의 특징점과 상기 모방 반사 이미지의 특징점을 서로 매칭하고, 상기 실제 이미지의 특징점과 상기 모방 실제 이미지의 특징점을 서로 매칭하는 것을 특징으로 한다.Specifically, the feature point extraction unit is characterized in that the feature points of the reflection image and the feature points of the imitation reflection image are matched with each other, and the feature points of the real image and the feature points of the imitation real image are matched with each other.
아울러, 상기 객체 검출부는, 상기 객체 영역 검출부에 의해 객체가 존재하는 영역으로 검출된 영역에 대해, 상기 반사 이미지의 특징점과 상기 모방 반사 이미지의 특징점의 매칭 비율인 제 1 매칭 비율; 및 상기 실제 이미지의 특징점과 상기 모방 실제 이미지의 특징점의 매칭 비율인 제 2 매칭 비율;을 이용하여, 상기 제 1 매칭 비율 또는 상기 제 2 매칭 비율이 미리 설정된 제 1 비율 이상의 매칭된 특징점을 보유하는 영역을 제 1 객체군의 객체로 검출하는 것이 바람직하다.In addition, the object detection unit may include: a first matching ratio that is a matching ratio between the feature points of the reflective image and the feature points of the imitation reflection image with respect to the region detected as the region where the object exists by the object region detector; and a second matching ratio, which is a matching ratio between the feature points of the real image and the feature points of the imitation real image. It is preferable to detect the region as an object of the first object group.
또한, 상기 객체 검출부는, 상기 객체 영역 검출부에 의해 객체가 존재하는 영역으로 검출된 영역에 대해, 상기 반사 이미지의 특징점과 상기 모방 반사 이미지의 특징점의 매칭 비율인제 1 매칭 비율; 및 상기 실제 이미지의 특징점과 상기 모방 실제 이미지의 특징점의 매칭 비율인 제 2 매칭 비율;을 이용하여, 상기 제 1 매칭 비율 또는 상기 제 2 매칭 비율이 미리 설정된 제 2 비율 미만의 매칭된 특징점을 보유하는 영역을 제 2 객체군의 객체로 검출하는 것을 특징으로 한다.In addition, the object detection unit may include: a first matching ratio that is a matching ratio between the feature points of the reflective image and the feature points of the imitation reflective image with respect to the region detected as the region where the object exists by the object region detector; and a second matching ratio, which is a matching ratio between the feature points of the real image and the feature points of the imitation real image; using, the first matching ratio or the second matching ratio is less than a preset second ratio. It is characterized in that the region is detected as an object of the second object group.
바람직하게는, 상기 이미지 변환부는, 전체 반사 이미지 중, 일부 영역에 해당하는 N개의 일부 영역의 반사 이미지; 및 객체가 보관된 내부 공간의 전체 실제 이미지 중, 상기 N개의 일부 영역의 반사 이미지에 각각 대응하는 N개의 일부 영역의 실제 이미지;를 이용하여, 상기 N개의 일부 영역의 반사 이미지 각각을 모방 실제 이미지로 변환하고, 상기 N개의 일부 영역의 실제 이미지 각각을 모방 반사 이미지로 변환하되, 상기 N은, 2 이상인 정수인 것을 특징으로 한다.Preferably, the image converter comprises: a reflection image of N partial regions corresponding to a partial region of the total reflection image; and an actual image of N partial regions corresponding to the reflection images of the N partial regions, respectively, among the total real images of the internal space in which the object is stored; a real image imitation of each of the reflection images of the N partial regions and converts each of the actual images of the N partial regions into a imitation reflection image, wherein N is an integer of 2 or more.
아울러, 본 발명의 객체 인식 시스템은, 상기 N개의 일부 영역의 반사 이미지 각각 및 상기 N개의 일부 영역의 실제 이미지 각각에 대해 검출된 제 1 객체군의 객체의 위치 정보 및 제 2 객체군의 객체의 위치 정보를 이용하여, 상기 N개의 일부 영역의 반사 이미지 모두 및 상기 N개의 일부 영역의 실제 이미지 모두에 대해 검출된 객체 중 중복적으로 검출된 객체를 단일화하여, 내부 공간에 실제 보관된 전체 객체를 확정하는 객체 확정부;를 더 포함하는 것이 바람직하다.In addition, in the object recognition system of the present invention, the position information of the object of the first object group and the object of the second object group detected for each of the reflection images of the N partial areas and the actual images of the N partial areas respectively By unifying the duplicated detected objects among the objects detected for all of the reflection images of the N partial areas and the actual images of the N partial areas by using the location information, the entire object actually stored in the internal space It is preferable to further include; an object determining unit to be determined.
또한, 본 발명의 객체 인식 시스템은, 이미지를 획득하는 이미지 획득부;를 더 포함하되, 상기 이미지 획득부는, 객체를 보관할 수 있는 내부 공간의 다수의 측벽에 설치된 다수의 거울; 및 상기 내부 공간 및 상기 다수의 거울의 이미지를 획득하는 카메라;를 포함하는 것을 특징으로 한다. 아울러, 상기 다수의 거울의 전면 유리는, 전기 신호의 인가에 의해, 투명 또는 불투명 상태로 될 수 있다.In addition, the object recognition system of the present invention further comprises; an image acquisition unit for acquiring an image; and a camera for acquiring images of the interior space and the plurality of mirrors. In addition, the front glass of the plurality of mirrors may be in a transparent or opaque state by application of an electrical signal.
본 발명의 객체 인식 방법은, 카메라로부터 획득된 이미지로부터 분리된 반사 이미지는 실제 이미지를 모방한 모방 실제 이미지로 변환하고, 상기 카메라로부터 획득된 이미지로부터 분리된 실제 이미지는 반사 이미지를 모방한 모방 반사 이미지로 변환하는 이미지 변환 단계;를 포함하고, 상기 이미지 변환 단계에 의해 사용되는 변환 전 반사 이미지는, 전체 반사 이미지 중 적어도 일부에 해당하고, 상기 이미지 변환 단계에 의해 사용되는 변환 전 실제 이미지는, 전체 실제 이미지 중 적어도 일부에 해당하는 것을 특징으로 한다.In the object recognition method of the present invention, the reflected image separated from the image acquired from the camera is converted into a imitation real image that imitates the real image, and the real image separated from the image acquired from the camera is imitation reflection that imitates the reflection image An image conversion step of converting into an image; including, wherein the reflection image before conversion used by the image conversion step corresponds to at least a part of the total reflection image, and the actual image before conversion used by the image conversion step is, It is characterized in that it corresponds to at least a part of the entire real image.
아울러, 본 발명의 객체 인식 방법은, 상기 반사 이미지, 상기 실제 이미지, 상기 모방 실제 이미지 및 상기 모방 반사 이미지 각각으로부터 객체가 존재하는 영역을 검출하는 객체 영역 검출 단계; 상기 반사 이미지, 상기 실제 이미지, 상기 모방 실제 이미지 및 상기 모방 반사 이미지 각각의 특징점을 추출하는 특징점 추출 단계; 및 상기 객체 영역 검출 단계에서 검출된 객체가 존재하는 영역의 정보 및 상기 특징점 추출 단계에서 추출된 특징점을 이용하여, 상기 카메라로부터 획득된 이미지에 존재하는 객체를 검출하는 객체 검출 단계;를 더 포함하는 것이 바람직하다.In addition, the object recognition method of the present invention includes an object region detection step of detecting an area in which an object exists from each of the reflected image, the real image, the imitation real image, and the imitation reflection image; a feature point extraction step of extracting feature points of each of the reflection image, the real image, the imitation real image, and the imitation reflection image; and an object detection step of detecting an object existing in the image obtained from the camera using information on a region in which the object detected in the object region detection step exists and the feature point extracted in the feature point extraction step; it is preferable
구체적으로, 상기 특징점 추출 단계에서는, 상기 반사 이미지의 특징점과 상기 모방 반사 이미지의 특징점을 서로 매칭하고, 상기 실제 이미지의 특징점과 상기 모방 실제 이미지의 특징점을 서로 매칭하는 것을 특징으로 한다. Specifically, in the feature point extraction step, the feature point of the reflective image and the feature point of the imitation reflection image are matched with each other, and the feature point of the real image and the feature point of the imitation real image are matched with each other.
아울러, 상기 객체 검출 단계에서는, 상기 객체 영역 검출 단계에 의해 객체가 존재하는 영역으로 검출된 영역에 대해, 상기 반사 이미지의 특징점과 상기 모방 반사 이미지의 특징점의 매칭 비율인 제 1 매칭 비율; 및 상기 실제 이미지의 특징점과 상기 모방 실제 이미지의 특징점의 매칭 비율인 제 2 매칭 비율;을 이용하여, 상기 제 1 매칭 비율 또는 상기 제 2 매칭 비율이 미리 설정된 제 1 비율 이상의 매칭된 특징점을 보유하는 영역을 제 1 객체군의 객체로 검출하는 것이 바람직하다.In addition, in the object detection step, a first matching ratio, which is a matching ratio between the feature points of the reflective image and the feature points of the imitation reflective image, with respect to the region detected as the region in which the object exists by the object region detection step; and a second matching ratio, which is a matching ratio between the feature points of the real image and the feature points of the imitation real image. It is preferable to detect the region as an object of the first object group.
또한, 상기 객체 검출 단계에서는, 상기 객체 영역 검출 단계에 의해 객체가 존재하는 영역으로 검출된 영역에 대해, 상기 반사 이미지의 특징점과 상기 모방 반사 이미지의 특징점의 매칭 비율인제 1 매칭 비율; 및 상기 실제 이미지의 특징점과 상기 모방 실제 이미지의 특징점의 매칭 비율인 제 2 매칭 비율;을 이용하여, 상기 제 1 매칭 비율 또는 상기 제 2 매칭 비율이 미리 설정된 제 2 비율 미만의 매칭된 특징점을 보유하는 영역을 제 2 객체군의 객체로 검출하는 것을 특징으로 한다.In addition, in the object detection step, a first matching ratio, which is a matching ratio between the feature points of the reflective image and the feature points of the imitation reflective image, with respect to the region detected as the region in which the object exists by the object region detection step; and a second matching ratio, which is a matching ratio between the feature points of the real image and the feature points of the imitation real image; using, the first matching ratio or the second matching ratio is less than a preset second ratio. It is characterized in that the region is detected as an object of the second object group.
바람직하게는, 상기 이미지 변환 단계에서는, 전체 반사 이미지 중, 일부 영역에 해당하는 N개의 일부 영역의 반사 이미지; 및 객체가 보관된 내부 공간의 전체 실제 이미지 중, 상기 N개의 일부 영역의 반사 이미지에 각각 대응하는 N개의 일부 영역의 실제 이미지;를 이용하여, 상기 N개의 일부 영역의 반사 이미지 각각을 모방 실제 이미지로 변환하고, 상기 N개의 일부 영역의 실제 이미지 각각을 모방 반사 이미지로 변환하되, 상기 N은, 2 이상인 정수인 것을 특징으로 한다.Preferably, in the image conversion step, a reflection image of N partial regions corresponding to a partial region among the total reflection images; and an actual image of N partial regions corresponding to the reflection images of the N partial regions, respectively, among the total real images of the internal space in which the object is stored; a real image imitation of each of the reflection images of the N partial regions and converts each of the actual images of the N partial regions into a imitation reflection image, wherein N is an integer of 2 or more.
아울러, 본 발명의 객체 인식 방법은, 상기 N개의 일부 영역의 반사 이미지 각각 및 상기 N개의 일부 영역의 실제 이미지 각각에 대해 검출된 제 1 객체군의 객체의 위치 정보 및 제 2 객체군의 객체의 위치 정보를 이용하여, 상기 N개의 일부 영역의 반사 이미지 모두 및 상기 N개의 일부 영역의 실제 이미지 모두에 대해 검출된 객체 중 중복적으로 검출된 객체를 단일화하여, 내부 공간에 실제 보관된 전체 객체를 확정하는 객체 확정 단계;를 더 포함하는 것이 바람직하다.In addition, in the object recognition method of the present invention, the position information of the object of the first object group and the object of the second object group detected for each of the reflected images of the N partial regions and the actual images of the N partial regions respectively By unifying the duplicated detected objects among the objects detected for all of the reflection images of the N partial areas and the actual images of the N partial areas by using the location information, the entire object actually stored in the internal space It is preferable to further include; an object determination step of confirming.
또한, 본 발명의 객체 인식 방법은, 객체를 보관할 수 있는 내부 공간 및 상기 내부 공간의 다수의 측벽에 설치된 다수의 거울의 이미지를 획득하는 이미지 획득 단계;를 더 포함하되, 상기 다수의 거울의 전면 유리는, 전기 신호의 인가에 의해, 투명 또는 불투명 상태로 될 수 있다.In addition, the object recognition method of the present invention, an image acquisition step of acquiring images of a plurality of mirrors installed on a plurality of sidewalls of an internal space that can store an object and the internal space; further comprising, the front surface of the plurality of mirrors The glass can be made transparent or opaque by application of an electrical signal.
본 발명의 딥러닝에 기반한 이미지의 객체 인식 시스템 및 그 인식 방법에 따르면, 냉장고나 자동 판매기와 같은 내부 공간에 상품이 보관된 경우, 거울을 이용한 반사 이미지에 의해 가려진 상품에 대한 이미지도 확보하여 해당 상품을 인식할 수 있다.According to the deep learning-based image object recognition system and the recognition method of the present invention, when a product is stored in an internal space such as a refrigerator or a vending machine, an image of the product obscured by a reflection image using a mirror is also secured and the corresponding image is obtained. product can be recognized.
도 1은 좁은 내부 공간에 대해 획득된 카메라 이미지의 예시도.
도 2는 본 발명의 바람직한 일실시예에 따른 딥러닝에 기반한 이미지의 객체 인식 시스템의 구성도.
도 3은 보관함의 내부 공간 측벽에 설치된 다수의 거울의 예시도.
도 4는 카메라에 의해 획득되는 이미지 영역의 예시도.
도 5는 다수의 거울의 전면 유리의 각각의 투명 상태를 제어하기 위한 전기신호의 타이밍도의 예시도.
도 6은 이미지 분리부에 의해 분리되는 이미지 영역의 예시도.
도 7은 이미지 변환부에 의한 이미지의 변환 설명도.
도 8은 객체 검출부에 의한 객체 검출 방법에 관한 설명도.
도 9는 객체 확정부에 의한 객체 확정 방법에 관한 설명도.1 is an exemplary view of a camera image obtained for a narrow interior space.
2 is a block diagram of an image object recognition system based on deep learning according to a preferred embodiment of the present invention.
Figure 3 is an exemplary view of a plurality of mirrors installed on the side wall of the inner space of the storage box.
4 is an exemplary diagram of an image area acquired by a camera;
5 is an exemplary diagram of a timing diagram of an electrical signal for controlling each transparent state of the windshield of a plurality of mirrors;
6 is an exemplary view of an image area separated by an image separator;
Fig. 7 is an explanatory diagram of image conversion by an image conversion unit;
Fig. 8 is an explanatory diagram of an object detection method by an object detection unit;
Fig. 9 is an explanatory diagram of a method for determining an object by an object determining unit;
이하, 첨부된 도면을 참조하면서 본 발명의 실시예에 따른 딥러닝에 기반한 이미지의 객체 인식 시스템 및 그 인식 방법에 대해 상세히 설명하기로 한다. 본 발명의 하기의 실시예는 본 발명을 구체화하기 위한 것일 뿐 본 발명의 권리 범위를 제한하거나 한정하는 것이 아님은 물론이다. 본 발명의 상세한 설명 및 실시예로부터 본 발명이 속하는 기술 분야의 전문가가 용이하게 유추할 수 있는 것은 본 발명의 권리 범위에 속하는 것으로 해석된다.Hereinafter, a system for recognizing an image based on deep learning and a method for recognizing the same according to an embodiment of the present invention will be described in detail with reference to the accompanying drawings. Of course, the following examples of the present invention are not intended to limit or limit the scope of the present invention only to embody the present invention. What can be easily inferred by an expert in the technical field to which the present invention pertains from the detailed description and examples of the present invention is construed as belonging to the scope of the present invention.
먼저, 도 2는 본 발명의 바람직한 일실시예에 따른 딥러닝에 기반한 이미지의 객체 인식 시스템(100)의 구성도를 나타낸다.First, FIG. 2 shows a configuration diagram of an image
도 2로부터 알 수 있는 바와 같이, 본 발명의 바람직한 일실시예에 따른 딥러닝에 기반한 이미지의 객체 인식 시스템(100)은, 이미지 획득부(10), 이미지 분리부(20), 이미지 변환부(30), 객체 영역 검출부(40), 특징점 추출부(50), 객체 검출부(60) 및 객체 확정부(70)를 포함한다.As can be seen from FIG. 2, the
이미지 획득부(10)를 제외한 이미지 분리부(20), 이미지 변환부(30), 객체 영역 검출부(40), 특징점 추출부(50), 객체 검출부(60) 및 객체 확정부(70)는, 컴퓨팅 장치의 일부로서 구현될 수 있다.The
이미지 획득부(10)는, 이미지를 획득하는 역할을 한다. 구체적으로, 이미지 획득부(10)는, 냉장고나 자동 판매기와 같은, 객체를 보관할 수 있는 보관함(S) 내부의 다수의 측벽에 설치된 다수의 거울; 및 보관함(S) 내부 및 다수의 거울의 이미지를 획득하는 카메라;를 포함하는 것이 바람직하다. 여기서 객체의 예로는, 다양한 상품을 예로 들 수 있다.The
도 3은 냉장고나 자동 판매기와 같은 보관함(S)의 내부 공간 측벽에 설치된 다수의 거울의 예시도이다. 아울러, 도 4는 카메라에 의해 획득되는 이미지 영역의 예시도이다.3 is an exemplary view of a plurality of mirrors installed on the side wall of the inner space of the storage box (S) such as a refrigerator or a vending machine. In addition, FIG. 4 is an exemplary diagram of an image area acquired by a camera.
전기 신호의 인가에 의해, 다수의 거울의 전면 유리는, 투명 또는 불투명 상태로 제어될 수 있다. 전면 유리는 PDLC 필름 등을 부착하여 투명 또는 불투명 상태의 천이를 가능하게 할 수 있다. 예를 들면, 해당 전면 유리의 필름에 전기 신호가 인가되면 전류가 흘러 불투명 상태로부터 투명 상태가 될 수 있다. 다만, 필름에 따라서는, 필름에 전기 신호가 인가될 경우, 투명 상태로부터 불투명 상태로 될 수도 있다.By application of an electrical signal, the front glass of the plurality of mirrors can be controlled to be transparent or opaque. The front glass may enable transition of a transparent or opaque state by attaching a PDLC film or the like. For example, when an electric signal is applied to the film of the corresponding windshield, an electric current may flow from the opaque state to the transparent state. However, depending on the film, when an electric signal is applied to the film, the film may be changed from a transparent state to an opaque state.
다수의 거울이 동시에 동작할 경우, 보관함(S) 내부의 이미지가 거울 각각에 반사될 뿐만 아니라, 다른 거울에 반사된 이미지도 반사되어, 실제 반사된 보관함(S) 내부의 이미지를 특정하는 것에 어려움이 있다. When a plurality of mirrors operate at the same time, the image inside the storage box (S) is not only reflected on each mirror, but also the image reflected on other mirrors is reflected, making it difficult to specify the actual reflected image inside the storage box (S) There is this.
이러한 문제를 해결하고자, 다수의 거울의 전면 유리 각각의 투명한 상태인 구간은, 서로 이시(異時)적인 것이 바람직하다.In order to solve this problem, it is preferable that the sections in the transparent state of each of the front glass of the plurality of mirrors are different from each other.
도 5는 다수의 거울의 전면 유리의 각각의 투명 상태를 제어하기 위한 전기 신호의 타이밍도의 예시도이다. 도 5로부터 알 수 있는 바와 같이, 전기 신호의 인가에 의해 각각의 거울은 순차적으로 투명한 상태가 되는 것이 바람직하다.5 is an exemplary diagram of a timing diagram of an electrical signal for controlling each transparent state of the windshield of a plurality of mirrors; As can be seen from FIG. 5, it is preferable that each mirror sequentially becomes transparent by the application of an electric signal.
도 5와 같이, 이시적으로 다수의 거울의 전면 유리 각각의 투명한 상태인 구간을 설정하는 것에 의해, 투명한 상태의 하나의 거울 이외의 거울은 불투명한 상태가 되어 이미지가 반사되지 않으므로, 불투명한 거울의 이미지가 투명한 거울에 반사되는 일 또한 발생하지 않는다.As shown in FIG. 5 , by temporarily setting a section in a transparent state of each of the front glasses of a plurality of mirrors, mirrors other than one mirror in a transparent state become opaque and the image is not reflected, so the opaque mirror There is also no reflection of the image of the transparent mirror.
도 6은 이미지 분리부(20)에 의해 분리되는 이미지 영역의 예시도이다.6 is an exemplary view of an image region separated by the
이미지 분리부(20)는, 카메라로부터 획득된 이미지를 거울에 반사된 반사 이미지와 실제 객체가 보관된 내부 공간의 실제 이미지로 분리하는 역할을 한다.The
구체적으로 이미지 분리부(20)는, 다수의 거울이 순차적이고 이시적으로 동작 시에 획득된 다수의 이미지를, 다음과 같이 서로 대응하는 이미지를 선택하여 분리하는 것이 바람직하다.Specifically, it is preferable that the
(1) 제 1 거울의 영역 중 일부 영역인 제 1 반사 영역과 제 1 거울이 설치된 측벽과 인접한 보관함(S) 내부 공간의 제 1 내부 영역.(1) a first reflection area, which is a partial area of the area of the first mirror, and a first inner area of the inner space of the storage box (S) adjacent to the side wall where the first mirror is installed.
(2) 제 2 거울의 영역 중 일부 영역인 제 2 반사 영역과 제 2 거울이 설치된 측벽과 인접한 보관함(S) 내부 공간의 제 2 내부 영역.(2) a second reflection area, which is a partial area of the area of the second mirror, and a second inner area of the inner space of the storage box (S) adjacent to the side wall where the second mirror is installed.
(3) 제 3 거울의 영역 중 일부 영역인 제 3 반사 영역과 제 3 거울이 설치된 측벽과 인접한 보관함(S) 내부 공간의 제 3 내부 영역.(3) a third reflection area, which is a part of the area of the third mirror, and a third inner area of the inner space of the storage box (S) adjacent to the side wall where the third mirror is installed.
(4) 제 4 거울의 영역 중 일부 영역인 제 4 반사 영역과 제 4 거울이 설치된 측벽과 인접한 보관함(S) 내부 공간의 제 4 내부 영역.(4) a fourth reflection area, which is a partial area of the area of the fourth mirror, and a fourth inner area of the inner space of the storage box (S) adjacent to the side wall where the fourth mirror is installed.
본 발명에서는 제 1 반사 영역 내지 제 4 반사 영역은 해당 거울의 모든 영역이 아니라, 객체인 상품의 반사되는 일부 영역으로 제한되어, 비교하기 위한 이미지 영역을 최적화하였다. 마찬가지로, 보관함(S) 내부 공간에 대해서도 해당 거울과 인접한 영역만으로 비교 영역을 최적화하였다.In the present invention, the first to fourth reflective regions are not all regions of the corresponding mirror, but are limited to a part of the reflected region of the product, which is an object, to optimize the image region for comparison. Similarly, the comparison area was optimized only for the area adjacent to the mirror for the inner space of the storage box (S).
아울러, 제 1 반사 영역과 제 1 내부 영역;을 비교하기 위한 제 1 이미지, 제 2 반사 영역과 제 2 내부 영역;을 비교하기 위한 제 2 이미지, 제 3 반사 영역과 제 3 내부 영역;을 비교하기 위한 제 3 이미지 및 제 4 반사 영역과 제 4 내부 영역;을 비교하기 위한 제 4 이미지는, 서로 이시적으로 카메라로부터 획득된 것을 특징으로 한다. In addition, a first image for comparing the first reflective region and the first internal region, a second image for comparing the second reflective region and the second internal region, and the third reflective region and the third internal region are compared The third image and the fourth reflective region and the fourth inner region for comparison are obtained from a camera visually with each other.
즉, 해당 거울이 투명한 상태가 되어 보관함(S) 내부 공간의 이미지를 반사하는 경우에만, 해당 반사 영역과 내부 공간의 비교가 의미가 있는 까닭이다.That is, only when the mirror becomes transparent and reflects the image of the internal space of the storage box (S), the comparison of the reflective area with the internal space is meaningful.
도 7은 이미지 변환부(30)에 의한 이미지의 변환 설명도이다.7 is an explanatory diagram of image conversion by the
이미지 변환부(30)는, 인공 지능에 의해, 이미지 분리부(20)에 의해 분리된 반사 이미지는 실제 이미지를 모방한 모방 실제 이미지로 변환하고, 이미지 분리부(20)에 의해 분리된 실제 이미지는 반사 이미지를 모방한 모방 반사 이미지로 변환하는 역할을 한다.The
거울의 반사로 인해 얻어진 이미지의 경우, 기울기나 반사각 등을 고려해보면 바로 위에서 촬영한 것과는 전혀 다르게 찍히기 때문에 같은 객체라고 판단하기가 쉽지 않다. 만약 거울에서 이미지를 동일한 객체라고 인식하기 위해서는 반사각, 카메라 위치 등을 따져서 반사된 이미지에서의 좌표를 계산하고 그에 맞춰 이미지를 워핑 하는 등의 복잡한 계산이 필요하게 된다.In the case of an image obtained due to the reflection of a mirror, it is not easy to determine that it is the same object because it is taken completely different from the one taken from above when the tilt or reflection angle is taken into account. If the mirror recognizes the image as the same object, complex calculations such as calculating the coordinates in the reflected image by taking into account the angle of reflection and camera position, and warping the image accordingly are required.
이미지 변환부(30)에서는, 인공 지능, 구체적으로 딥러닝을 기반으로 이미지 변환하는 모델을 사용한다. 아울러, 이미지 변환부(30)로는, 딥러닝 모델로 cGAN(Conditional GAN)을 사용할 수 있다.In the
즉, 이미지 변환부(30)에 의한 학습 모델에 의해, 모방 실제 이미지는 반사 이미지가 실제 내부 공간에 위치한 경우를 가정하여 반사 이미지의 구도 등을 변환하여, 실제 내부 공간에 위치한 경우의 이미지를 흉내낸 것이다. 마찬가지로, 모방 반사 이미지는 실제 이미지가 실제 거울에 반사된 경우를 가정하여 실제 이미지의 구도 등을 변환하여, 거울에 반사된 경우의 이미지를 흉내낸 것이다.That is, by the learning model by the
이미지 분리부(20)에 대한 설명으로부터 알 수 있는 바와 같이, 이미지 변환부(30)에 의해 사용되는 변환 전 반사 이미지는 전체 반사 이미지 중 적어도 일부에 해당하고, 이미지 변환부(30)에 의해 사용되는 변환 전 실제 이미지는, 전체 실제 이미지 중 적어도 일부에 해당하는 것을 특징으로 한다.As can be seen from the description of the
즉, 이미지 변환부(30)는, 이미지 분리부(20)에 의해 분리된 전체 반사 이미지 중, 일부 영역에 해당하는 N개의 일부 영역의 반사 이미지; 및 객체가 보관된 내부 공간의 전체 실제 이미지 중, N개의 일부 영역의 반사 이미지에 각각 대응하는 N개의 일부 영역의 실제 이미지;를 이용한다. 이에 따라, 이미지 변환부(30)는, N개의 일부 영역의 반사 이미지 각각을 모방 실제 이미지로 변환하고, N개의 일부 영역의 실제 이미지 각각을 모방 반사 이미지로 변환한다. 여기서, N은, 2 이상인 정수인 것을 특징으로 한다. 예를 들어, 4개의 거울이 이미지 획득부(10)에서 사용된 경우, N은 4가 된다.That is, the
4개의 거울의 반사 이미지가 있는 경우, 이미지 변환부(30)는 다음 [표 1]과 같이 이미지를 변환한다.When there is a reflection image of four mirrors, the
반사 이미지before conversion
reflection image
모방 실제 이미지after conversion
imitation real image
실제 이미지before conversion
real image
모방 반사 이미지after conversion
imitation reflection image
이미지first reflective area
image
모방 이미지first inner region
imitation image
이미지first inner region
image
모방 이미지first reflective area
이미지second reflective area
image
모방 이미지second inner area
imitation image
이미지second inner area
image
모방 이미지second reflective area
이미지third reflective area
image
모방 이미지3rd inner area
imitation image
이미지3rd inner area
image
모방 이미지third reflective area
이미지fourth reflective area
image
모방 이미지4th inner area
imitation image
이미지4th inner area
image
모방 이미지fourth reflective area
imitation image
[표 1]에서 제 1 반사 영역 이미지를 이용하여, 제 1 내부 영역 이미지를 모방한 이미지가 제 1 내부 영역 모방 이미지이다. 마찬가지로, 제 1 내부 영역 이미지를 이용하여, 제 1 반사 영역 이미지를 모방한 이미지가 제 1 반사 영역 모방 이미지가 된다.In [Table 1], an image imitating the first internal region image using the first reflection region image is the first internal region imitation image. Similarly, by using the first inner region image, an image simulating the first reflective region image becomes the first reflective region imitation image.
객체 영역 검출부(40)는, 반사 이미지, 실제 이미지, 모방 실제 이미지 및 모방 반사 이미지 각각으로부터 객체가 존재하는 영역을 검출하는 역할을 한다. The object
즉, 객체 영역 검출부(40)는, N개의 반사 이미지, N개의 실제 이미지, N개의 모방 실제 이미지 및 N개의 모방 반사 이미지 각각으로부터 객체가 존재하는 영역을 검출한다.That is, the object
구체적으로 객체 영역 검출부(40)는, 컨벌루션 뉴럴 네트워크 및 앵커를 포함하는 딥러닝 학습 모델에 의해 객체가 존재하는 영역을 검출할 수 있다.Specifically, the object
컨벌루션 뉴럴 네트워크는, 다층으로 구성되며, 특징맵(Feature Map)을 출력한다. 앵커는 컨벌루션 뉴럴 네트워크의 출력인 특징맵을 이용하여 객체의 영역 검출하는 역할을 한다.The convolutional neural network is composed of multiple layers and outputs a feature map. The anchor serves to detect the area of an object using the feature map that is the output of the convolutional neural network.
특징점 추출부(50)는, 반사 이미지, 실제 이미지, 모방 실제 이미지 및 모방 반사 이미지 각각의 특징점을 추출하는 역할을 한다. 즉, 특징점 추출부(50)는, N개의 반사 이미지, N개의 실제 이미지, N개의 모방 실제 이미지 및 N개의 모방 반사 이미지 각각으로부터 특징점을 추출한다. The feature
예를 들면, 거울이 4개인 경우, 제 1 내지 제 4 반사 영역 이미지, 제 1 내지 제 4 내부 영역 이미지, 제 1 내지 제 4 내부 영역 모방 이미지, 제 1 내지 제 4 반사 영역 모방 이미지 각각으로부터 특징점을 추출하게 된다.For example, when there are 4 mirrors, the feature points from each of the first to fourth reflective region images, the first to fourth internal region images, the first to fourth internal region imitation images, and the first to fourth reflective region imitation images will extract
아울러, 특징점 추출부(50)는, 반사 이미지의 특징점과 대응하는 모방 반사 이미지의 특징점을 서로 매칭하고, 실제 이미지의 특징점과 대응하는 모방 실제 이미지의 특징점을 서로 매칭한다.In addition, the feature
예를 들면, 특징점 추출부(50)는, 제 1 반사 영역 이미지의 특징점과 제 1 내부 영역 모방 이미지의 특징점을 서로 매칭하고, 제 1 내부 영역 이미지의 특징점과 제 1 내부 영역 모방 이미지를 서로 매칭하게 된다. 아울러, 이 매칭 비율에 의해 두(2) 이미지 사이의 유사도를 알 수 있다.For example, the feature
특징점 추출부(50)는, SURF(Speed Up Robust Features)를 사용할 수 있다. The feature
도 8은 객체 검출부(60)에 의한 객체 검출 방법에 관한 설명도이다.8 is an explanatory diagram of an object detection method by the
객체 검출부(60)는, 객체 영역 검출부(40)에서 검출된 객체가 존재하는 영역의 정보 및 특징점 추출부(50)에서 추출된 특징점을 이용하여, 카메라로부터 획득된 이미지에 존재하는 객체를 검출하는 역할을 한다.The
구체적으로, 객체 검출부(60)는, 객체 영역 검출부(40)에 의해 객체가 존재하는 영역으로 검출된 영역에 대해, 반사 이미지의 특징점과 모방 반사 이미지의 특징점의 매칭 비율인 제 1 매칭 비율; 및 실제 이미지의 특징점과 모방 실제 이미지의 특징점의 매칭 비율인 제 2 매칭 비율;을 이용하여, 제 1 매칭 비율 또는 제 2 매칭 비율이 미리 설정된 제 1 비율 이상의 매칭된 특징점을 보유하는 영역을 제 1 객체군의 객체로 검출한다. 즉, 유사도가 제 1 비율 이상인 경우에는, 반사 이미지 및 실제 이미지 모두에 나타나는 제 1 객체군의 객체로서 검출되게 된다.Specifically, the
아울러, 객체 검출부(60)는, 객체 영역 검출부(40)에 의해 객체가 존재하는 영역으로 검출된 영역에 대해, 반사 이미지의 특징점과 모방 반사 이미지의 특징점의 매칭 비율인 제 1 매칭 비율; 및 실제 이미지의 특징점과 모방 실제 이미지의 특징점의 매칭 비율;을 이용하여, 제 1 매칭 비율 또는 제 2 매칭 비율이 미리 설정된 제 2 비율 미만의 매칭된 특징점을 보유하는 영역을 제 2 객체군의 객체로 검출한다. 즉, 유사도가 제 2 비율 미만인 경우에는, 반사 이미지 및 실제 이미지 중 하나에만 나타나는 제 2 객체군의 객체로서 검출되게 된다.In addition, the
도 9는 객체 확정부(70)에 의한 객체 확정 방법에 관한 설명도이다.9 is an explanatory diagram of a method for determining an object by the
다만, 도 9는 설명을 위해 각각의 이미지를 간략화 및 과장하여 도시하였다.However, in FIG. 9 , each image is simplified and exaggerated for explanation.
도 9와 같이 하나의 큰 객체 'C'에 가려진 작은 객체 'D'가 있는 경우, 2개의 반사 이미지인 제 1 반사 영역 이미지와 제 3 반사 영역 이미지에 해당 객체 'D'가 나타나서, 객체 검출부(60)에 의해 제 1 반사 영역 이미지를 이용한 객체의 검출시에도 객체 'C' 및 객체 'D'가 검출되고, 제 3 반사 영역 이미지를 이용한 객체의 검출시에도 객체 'C' 및 객체 'D'가 검출되게 된다. 즉, 이 경우, 객체 'C'는 제 1 객체군의 객체이고, 객체 'D'는 제 2 객체군의 객체이다.As shown in FIG. 9, when there is a small object 'D' hidden by one large object 'C', the corresponding object 'D' appears in the first reflection area image and the third reflection area image, which are two reflection images, so that the object detection unit ( 60), the object 'C' and the object 'D' are detected even when the object is detected using the first reflective region image, and the object 'C' and the object 'D' are detected even when the object is detected using the third reflective region image. will be detected. That is, in this case, object 'C' is an object of the first object group, and object 'D' is an object of the second object group.
따라서, 객체 확정부(70)는, N개의 일부 영역의 반사 이미지 각각 및 N개의 일부 영역의 실제 이미지 각각에 대해 검출된 제 1 객체군의 객체의 위치 정보 및 제 2 객체군의 객체의 위치 정보를 이용하여, N개의 일부 영역의 반사 이미지 모두 및 N개의 일부 영역의 실제 이미지 모두에 대해 검출된 객체 중 중복적으로 검출된 객체를 단일화하여, 내부 공간에 실제 보관된 전체 객체를 확정하는 역할을 한다. 즉, 중복적으로 검출된 객체 'C' 및 객체 'D'는 각각 하나로 단일화하여, 객체 'C' 및 객체 'D'로 검출된다.Accordingly, the
중복된 객체를 단일화하는 것에 의해, 객체 확정부(70)는, 하나의 보관함(S)의 내부 공간에 보관된 전체 객체를 중복없이 확정할 수 있다.By unifying the duplicated object, the
하기에 본 발명의 바람직한 일실시예에 따른 딥러닝에 기반한 이미지의 객체 인식 방법에 대해 설명하기로 한다.Hereinafter, an image object recognition method based on deep learning according to a preferred embodiment of the present invention will be described.
본 발명의 이미지의 객체 인식 방법은, 상술한 이미지의 객체 인식 시스템(100)을 이용하므로 별도의 설명이 없더라도 상술한 이미지 객체 인식 시스템(100)의 모든 특징을 포함하고 있다. 아울러, 본 발명의 이미지의 객체 인식 방법의 적어도 일부는, 컴퓨팅 장치에 의해 실시되는 컴퓨터 프로그램의 형태로 구현될 수 있다.Since the method for recognizing an object of an image of the present invention uses the above-described image
본 발명의 이미지의 객체 인식 방법은, 이미지 획득 단계(S10), 이미지 분리 단계(S20), 이미지 변환 단계(S30), 객체 영역 검출 단계(S40), 특징점 추출 단계(S50), 객체 검출 단계(S60) 및 객체 확정 단계(S70)를 포함한다.The image object recognition method of the present invention includes an image acquisition step (S10), an image separation step (S20), an image conversion step (S30), an object region detection step (S40), a feature point extraction step (S50), an object detection step ( S60) and an object determination step (S70).
구체적으로 이미지 획득 단계(S10)에서는, 객체를 보관할 수 있는 내부 공간 및 내부 공간의 다수의 측벽에 설치된 다수의 거울의 이미지를 획득한다.Specifically, in the image acquisition step ( S10 ), an image of a plurality of mirrors installed on a plurality of sidewalls of an internal space and an internal space capable of storing an object is acquired.
아울러, 이미지 분리 단계(S20)에서는, 카메라로부터 획득된 이미지를 거울에 반사된 반사 이미지와 실제 객체가 보관된 내부 공간의 실제 이미지로 분리한다.In addition, in the image separation step (S20), the image obtained from the camera is separated into a reflection image reflected by the mirror and an actual image of the internal space in which the real object is stored.
예를 들면, 이미지 분리 단계(S20)에서는, 다수의 거울 중 제 1 거울의 영역 중 일부 영역인 제 1 반사 영역;을 선택하고, 제 1 거울이 설치된 측벽과 인접한 실제 객체가 보관된 내부 공간의 제 1 내부 영역;을 제 1 반사 영역에 대응하는 영역으로 선택하고, 다수의 거울 중 제 2 거울의 영역 중 일부 영역인 제 2 반사 영역;을 선택하고, 제 2 거울이 설치된 측벽과 인접한 실제 객체가 보관된 내부 공간의 제 2 내부 영역;을 제 2 반사 영역에 대응하는 영역으로 선택한다.For example, in the image separation step (S20), a first reflection area, which is a partial area of the area of the first mirror among the plurality of mirrors, is selected, and the sidewall on which the first mirror is installed and the adjacent real object are stored. A first inner region is selected as an region corresponding to the first reflective region, a second reflective region that is a partial region of the second mirror among the plurality of mirrors is selected, and a real object adjacent to the sidewall on which the second mirror is installed A second inner area of the inner space in which is stored is selected as an area corresponding to the second reflection area.
다음으로, 이미지 변환 단계(S30)에서는, 인공 지능에 의해, 이미지 분리 단계(S20)에 의해 분리된 반사 이미지는 실제 이미지를 모방한 모방 실제 이미지로 변환하고, 이미지 분리 단계(S20)에 의해 분리된 실제 이미지는 반사 이미지를 모방한 모방 반사 이미지로 변환한다. 아울러, 이미지 변환 단계(S30)에서 사용되는 변환 전 반사 이미지는, 전체 반사 이미지 중 적어도 일부에 해당한다. 마찬가지로, 이미지 변환 단계(S30)에서 사용되는 변환 전 실제 이미지는, 전체 실제 이미지 중 적어도 일부에 해당한다.Next, in the image conversion step (S30), the reflected image separated by the image separation step (S20) by artificial intelligence is converted into an imitation real image that imitates the real image, and separated by the image separation step (S20) The resulting real image is converted into a imitation reflection image that mimics the reflection image. In addition, the reflection image before conversion used in the image conversion step S30 corresponds to at least a part of the total reflection image. Similarly, the real image before conversion used in the image conversion step S30 corresponds to at least a part of the entire real image.
구체적으로, 이미지 변환 단계(S30)에서는, 이미지 분리 단계(S20)에 의해 분리된 전체 반사 이미지 중, 일부 영역에 해당하는 N개의 일부 영역의 반사 이미지; 및 객체가 보관된 내부 공간의 전체 실제 이미지 중, N개의 일부 영역의 반사 이미지에 각각 대응하는 N개의 일부 영역의 실제 이미지;를 이용한다. 아울러, 이미지 변환 단계(S30)에서는, N개의 일부 영역의 반사 이미지 각각을 모방 실제 이미지로 변환하고, N개의 일부 영역의 실제 이미지 각각을 모방 반사 이미지로 변환한다. 여기서, N은, 2 이상인 정수인 것이 바람직하다.Specifically, in the image conversion step ( S30 ), among the total reflection images separated by the image separation step ( S20 ), the reflection images of N partial areas corresponding to the partial areas; and N real images of the N partial regions, respectively, corresponding to the reflection images of the N partial regions among the total real images of the internal space in which the object is stored. In addition, in the image conversion step ( S30 ), each of the reflection images of the N partial regions is converted into an imitation real image, and each of the real images of the N partial regions is converted into a imitation reflection image. Here, it is preferable that N is an integer of 2 or more.
또한, 객체 영역 검출 단계(S40)에서는, 반사 이미지, 실제 이미지, 모방 실제 이미지 및 모방 반사 이미지 각각으로부터 객체가 존재하는 영역을 검출한다.In addition, in the object region detection step S40, a region in which an object exists is detected from each of the reflective image, the real image, the imitation real image, and the imitation reflective image.
특징점 추출 단계(S50)에서는, 반사 이미지, 실제 이미지, 모방 실제 이미지 및 모방 반사 이미지 각각의 특징점을 추출한다.In the feature point extraction step ( S50 ), each feature point of the reflection image, the real image, the imitation real image, and the imitation reflection image is extracted.
아울러, 특징점 추출 단계(S50)에서는, 반사 이미지의 특징점과 모방 반사 이미지의 특징점을 서로 매칭하고, 실제 이미지의 특징점과 모방 실제 이미지의 특징점을 서로 매칭한다.In addition, in the feature point extraction step ( S50 ), the feature points of the reflective image and the feature points of the imitation reflection image are matched with each other, and the feature points of the real image and the feature points of the imitation real image are matched with each other.
객체 검출 단계(S60)에서는, 객체 영역 검출 단계(S40)에서 검출된 객체가 존재하는 영역의 정보 및 특징점 추출 단계(S50)에서 추출된 특징점을 이용하여, 카메라로부터 획득된 이미지에 존재하는 객체를 검출하는 역할을 한다.In the object detection step S60, the object existing in the image acquired from the camera is identified using the information on the area in which the object detected in the object area detection step S40 exists and the feature point extracted in the feature point extraction step S50. serves to detect.
구체적으로, 객체 검출 단계(S60)에서는, 객체 영역 검출 단계(S40)에 의해 객체가 존재하는 영역으로 검출된 영역에 대해, 반사 이미지의 특징점과 모방 반사 이미지의 특징점의 매칭 비율인 제 1 매칭 비율; 및 실제 이미지의 특징점과 모방 실제 이미지의 특징점의 매칭 비율인 제 2 매칭 비율;을 이용하여, 제 1 매칭 비율 또는 제 2 매칭 비율이 미리 설정된 제 1 비율 이상의 매칭된 특징점을 보유하는 영역을 제 1 객체군의 객체로 검출한다.Specifically, in the object detection step S60, the first matching ratio, which is the matching ratio between the feature points of the reflective image and the feature points of the imitation reflective image, with respect to the region detected as the region where the object exists by the object region detection step S40. ; and a second matching ratio, which is a matching ratio between the feature points of the real image and the feature points of the imitation real image; using a first matching ratio or a second matching ratio, an area having a matched feature point equal to or greater than a preset first ratio It is detected as an object of a group of objects.
아울러, 객체 검출 단계(S60)에서는, 객체 영역 검출 단계(S40)에 의해 객체가 존재하는 영역으로 검출된 영역에 대해, 반사 이미지의 특징점과 모방 반사 이미지의 특징점의 매칭 비율인 제 1 매칭 비율; 및 실제 이미지의 특징점과 모방 실제 이미지의 특징점의 매칭 비율인 제 2 매칭 비율;을 이용하여, 제 1 매칭 비율 또는 제 2 매칭 비율이 미리 설정된 제 2 비율 미만의 매칭된 특징점을 보유하는 영역을 제 2 객체군의 객체로 검출한다.In addition, in the object detection step S60, the first matching ratio, which is the matching ratio between the feature points of the reflective image and the feature points of the imitation reflective image, with respect to the region detected as the region where the object exists by the object region detection step S40; and a second matching ratio, which is a matching ratio between the feature points of the real image and the feature points of the imitation real image; using the first matching ratio or the second matching ratio to generate a region having a matched feature point that is less than a preset second ratio It is detected as an object of the 2 object group.
객체 확정 단계(S70)에서는, N개의 일부 영역의 반사 이미지 각각 및 N개의 일부 영역의 실제 이미지 각각에 대해 검출된 제 1 객체군의 객체의 위치 정보 및 제 2 객체군의 객체의 위치 정보를 이용하여, N개의 일부 영역의 반사 이미지 모두 및 N개의 일부 영역의 실제 이미지 모두에 대해 검출된 객체 중 중복적으로 검출된 객체를 단일화하여, 내부 공간에 실제 보관된 전체 객체를 확정한다. In the object determination step (S70), the position information of the object of the first object group and the position information of the object of the second object group detected for each of the reflection images of the N partial regions and each of the actual images of the N partial regions are used. Accordingly, by unifying the duplicated objects among the objects detected for all of the reflection images of the N partial regions and the actual images of the N partial regions, the entire object actually stored in the internal space is determined.
상술한 바와 같이, 본 발명의 딥러닝에 기반한 이미지의 객체 인식 시스템(100) 및 그 인식 방법에 따르면, 냉장고나 자동 판매기와 같은 내부 공간에 상품이 보관된 경우, 거울을 이용한 반사 이미지에 의해 가려진 상품에 대한 이미지도 확보하여 해당 상품을 인식할 수 있음을 알 수 있다.As described above, according to the deep learning-based image
100 : 객체 인식 시스템
10 : 이미지 획득부
20 : 이미지 분리부
30 : 이미지 변환부
40 : 객체 영역 검출부
50 : 특징점 추출부
60 : 객체 검출부
70 : 객체 확정부
S : 보관함
M : 거울100: object recognition system
10: image acquisition unit
20: image separator
30: image conversion unit
40: object area detection unit
50: feature point extraction unit
60: object detection unit
70: object confirmation part
S : storage box
M: mirror
Claims (18)
카메라로부터 획득된 이미지로부터 분리된 반사 이미지는 실제 이미지를 모방한 모방 실제 이미지로 변환하고, 상기 카메라로부터 획득된 이미지로부터 분리된 실제 이미지는 반사 이미지를 모방한 모방 반사 이미지로 변환하는 이미지 변환부;
상기 반사 이미지, 상기 실제 이미지, 상기 모방 실제 이미지 및 상기 모방 반사 이미지 각각으로부터 객체가 존재하는 영역을 검출하는 객체 영역 검출부;
상기 반사 이미지, 상기 실제 이미지, 상기 모방 실제 이미지 및 상기 모방 반사 이미지 각각의 특징점을 추출하는 특징점 추출부; 및
상기 객체 영역 검출부에서 검출된 객체가 존재하는 영역의 정보 및 상기 특징점 추출부에서 추출된 특징점을 이용하여, 상기 카메라로부터 획득된 이미지에 존재하는 객체를 검출하는 객체 검출부;를 포함하고,
상기 이미지 변환부에 의해 사용되는 변환 전 반사 이미지는, 전체 반사 이미지 중 적어도 일부에 해당하고,
상기 이미지 변환부에 의해 사용되는 변환 전 실제 이미지는, 전체 실제 이미지 중 적어도 일부에 해당하는 것을 특징으로 하는 객체 인식 시스템.An object recognition system comprising:
an image conversion unit that converts the reflected image separated from the image acquired from the camera into a imitation real image that imitates the real image, and converts the real image separated from the image acquired from the camera into a imitation reflective image that mimics the reflection image;
an object region detection unit configured to detect a region in which an object exists from each of the reflection image, the real image, the imitation real image, and the imitation reflection image;
a feature point extraction unit for extracting feature points of each of the reflection image, the real image, the imitation real image, and the imitation reflection image; and
an object detection unit configured to detect an object present in the image obtained from the camera using information on a region in which the object detected by the object region detection unit exists and the characteristic point extracted by the characteristic point extraction unit;
The reflection image before conversion used by the image conversion unit corresponds to at least a part of the total reflection image,
The real image before conversion used by the image conversion unit corresponds to at least a part of the entire real image.
상기 특징점 추출부는,
상기 반사 이미지의 특징점과 상기 모방 반사 이미지의 특징점을 서로 매칭하고, 상기 실제 이미지의 특징점과 상기 모방 실제 이미지의 특징점을 서로 매칭하는 것을 특징으로 하는 객체 인식 시스템.According to claim 1,
The feature point extraction unit,
The object recognition system, characterized in that the feature points of the reflected image and the feature points of the imitation reflection image are matched with each other, and the feature points of the real image and the feature points of the imitation real image are matched with each other.
상기 객체 검출부는,
상기 객체 영역 검출부에 의해 객체가 존재하는 영역으로 검출된 영역에 대해, 상기 반사 이미지의 특징점과 상기 모방 반사 이미지의 특징점의 매칭 비율인 제 1 매칭 비율; 및 상기 실제 이미지의 특징점과 상기 모방 실제 이미지의 특징점의 매칭 비율인 제 2 매칭 비율;을 이용하여, 상기 제 1 매칭 비율 또는 상기 제 2 매칭 비율이 미리 설정된 제 1 비율 이상의 매칭된 특징점을 보유하는 영역을 제 1 객체군의 객체로 검출하는 것을 특징으로 하는 객체 인식 시스템.4. The method of claim 3,
The object detection unit,
a first matching ratio, which is a matching ratio between the feature points of the reflective image and the feature points of the imitation reflective image, with respect to the region detected as the region in which the object exists by the object region detection unit; and a second matching ratio, which is a matching ratio between the feature points of the real image and the feature points of the imitation real image. An object recognition system, characterized in that the region is detected as an object of the first object group.
상기 객체 검출부는,
상기 객체 영역 검출부에 의해 객체가 존재하는 영역으로 검출된 영역에 대해, 상기 반사 이미지의 특징점과 상기 모방 반사 이미지의 특징점의 매칭 비율인제 1 매칭 비율; 및 상기 실제 이미지의 특징점과 상기 모방 실제 이미지의 특징점의 매칭 비율인 제 2 매칭 비율;을 이용하여, 상기 제 1 매칭 비율 또는 상기 제 2 매칭 비율이 미리 설정된 제 2 비율 미만의 매칭된 특징점을 보유하는 영역을 제 2 객체군의 객체로 검출하는 것을 특징으로 하는 객체 인식 시스템.5. The method of claim 4,
The object detection unit,
a first matching ratio, which is a matching ratio between the feature points of the reflective image and the feature points of the imitation reflective image with respect to the region detected by the object region detection unit as a region in which an object exists; and a second matching ratio, which is a matching ratio between the feature points of the real image and the feature points of the imitation real image; using, the first matching ratio or the second matching ratio is less than a preset second ratio. An object recognition system, characterized in that the region is detected as an object of the second object group.
상기 이미지 변환부는,
전체 반사 이미지 중, 일부 영역에 해당하는 N개의 일부 영역의 반사 이미지; 및 객체가 보관된 내부 공간의 전체 실제 이미지 중, 상기 N개의 일부 영역의 반사 이미지에 각각 대응하는 N개의 일부 영역의 실제 이미지;를 이용하여,
상기 N개의 일부 영역의 반사 이미지 각각을 모방 실제 이미지로 변환하고, 상기 N개의 일부 영역의 실제 이미지 각각을 모방 반사 이미지로 변환하되,
상기 N은, 2 이상인 정수인 것을 특징으로 하는 객체 인식 시스템.6. The method of claim 5,
The image conversion unit,
reflection images of N partial regions corresponding to partial regions among the total reflection images; and N real images of the N partial regions respectively corresponding to the reflection images of the N partial regions among the total real images of the internal space in which the object is stored.
Converting each of the reflection images of the N partial regions into a imitation real image, and converting each of the real images of the N partial regions into a imitation reflection image,
The object recognition system, characterized in that N is an integer of 2 or more.
상기 객체 인식 시스템은,
상기 N개의 일부 영역의 반사 이미지 각각 및 상기 N개의 일부 영역의 실제 이미지 각각에 대해 검출된 제 1 객체군의 객체의 위치 정보 및 제 2 객체군의 객체의 위치 정보를 이용하여, 상기 N개의 일부 영역의 반사 이미지 모두 및 상기 N개의 일부 영역의 실제 이미지 모두에 대해 검출된 객체 중 중복적으로 검출된 객체를 단일화하여, 내부 공간에 실제 보관된 전체 객체를 확정하는 객체 확정부;를 더 포함하는 것을 특징으로 하는 객체 인식 시스템.7. The method of claim 6,
The object recognition system,
Using the position information of the object of the first object group and the position information of the object of the second object group detected for each of the reflection images of the N partial regions and the actual images of the N partial regions, respectively, the N parts An object determining unit for unifying the duplicated detected objects among all the reflected images of the region and for all of the actual images of the N partial regions to determine the entire object actually stored in the internal space; further comprising Object recognition system, characterized in that.
상기 객체 인식 시스템은,
이미지를 획득하는 이미지 획득부;를 더 포함하되,
상기 이미지 획득부는,
객체를 보관할 수 있는 내부 공간의 다수의 측벽에 설치된 다수의 거울; 및
상기 내부 공간 및 상기 다수의 거울의 이미지를 획득하는 카메라;를 포함하는 것을 특징으로 하는 객체 인식 시스템.According to claim 1,
The object recognition system,
An image acquisition unit for acquiring an image; further comprising,
The image acquisition unit,
a plurality of mirrors installed on a plurality of side walls of an interior space capable of storing objects; and
and a camera for acquiring images of the interior space and the plurality of mirrors.
상기 다수의 거울의 전면 유리는,
전기 신호의 인가에 의해, 투명 또는 불투명 상태로 되는 것을 특징으로 하는 객체 인식 시스템.9. The method of claim 8,
The front glass of the plurality of mirrors,
An object recognition system, characterized in that it becomes transparent or opaque by application of an electrical signal.
카메라로부터 획득된 이미지로부터 분리된 반사 이미지는 실제 이미지를 모방한 모방 실제 이미지로 변환하고, 상기 카메라로부터 획득된 이미지로부터 분리된 실제 이미지는 반사 이미지를 모방한 모방 반사 이미지로 변환하는 이미지 변환 단계;
상기 반사 이미지, 상기 실제 이미지, 상기 모방 실제 이미지 및 상기 모방 반사 이미지 각각으로부터 객체가 존재하는 영역을 검출하는 객체 영역 검출 단계;
상기 반사 이미지, 상기 실제 이미지, 상기 모방 실제 이미지 및 상기 모방 반사 이미지 각각의 특징점을 추출하는 특징점 추출 단계; 및
상기 객체 영역 검출 단계에서 검출된 객체가 존재하는 영역의 정보 및 상기 특징점 추출 단계에서 추출된 특징점을 이용하여, 상기 카메라로부터 획득된 이미지에 존재하는 객체를 검출하는 객체 검출 단계;를 포함하고,
상기 이미지 변환 단계에 의해 사용되는 변환 전 반사 이미지는, 전체 반사 이미지 중 적어도 일부에 해당하고,
상기 이미지 변환 단계에 의해 사용되는 변환 전 실제 이미지는, 전체 실제 이미지 중 적어도 일부에 해당하는 것을 특징으로 하는 객체 인식 방법.In the object recognition method,
an image conversion step of converting the reflected image separated from the image acquired from the camera into a imitation real image that imitates the real image, and converting the real image separated from the image acquired from the camera into a imitation reflective image that mimics the reflection image;
an object region detection step of detecting a region in which an object exists from each of the reflection image, the real image, the imitation real image, and the imitation reflection image;
a feature point extraction step of extracting feature points of each of the reflection image, the real image, the imitation real image, and the imitation reflection image; and
an object detection step of detecting an object existing in the image obtained from the camera using information on a region in which the object detected in the object region detection step exists and the feature point extracted in the feature point extraction step;
The reflection image before conversion used by the image conversion step corresponds to at least a part of the total reflection image,
The real image before conversion used by the image conversion step corresponds to at least a part of the entire real image.
상기 특징점 추출 단계에서는,
상기 반사 이미지의 특징점과 상기 모방 반사 이미지의 특징점을 서로 매칭하고, 상기 실제 이미지의 특징점과 상기 모방 실제 이미지의 특징점을 서로 매칭하는 것을 특징으로 하는 객체 인식 방법.11. The method of claim 10,
In the feature point extraction step,
An object recognition method, characterized in that the feature points of the reflected image and the feature points of the imitation reflection image are matched with each other, and the feature points of the real image and the feature points of the imitation real image are matched with each other.
상기 객체 검출 단계에서는,
상기 객체 영역 검출 단계에 의해 객체가 존재하는 영역으로 검출된 영역에 대해, 상기 반사 이미지의 특징점과 상기 모방 반사 이미지의 특징점의 매칭 비율인 제 1 매칭 비율; 및 상기 실제 이미지의 특징점과 상기 모방 실제 이미지의 특징점의 매칭 비율인 제 2 매칭 비율;을 이용하여, 상기 제 1 매칭 비율 또는 상기 제 2 매칭 비율이 미리 설정된 제 1 비율 이상의 매칭된 특징점을 보유하는 영역을 제 1 객체군의 객체로 검출하는 것을 특징으로 하는 객체 인식 방법.13. The method of claim 12,
In the object detection step,
a first matching ratio, which is a matching ratio between the feature points of the reflective image and the feature points of the imitation reflective image, with respect to the region detected as a region in which an object exists by the object region detection step; and a second matching ratio, which is a matching ratio between the feature points of the real image and the feature points of the imitation real image. An object recognition method, characterized in that the region is detected as an object of the first object group.
상기 객체 검출 단계에서는,
상기 객체 영역 검출 단계에 의해 객체가 존재하는 영역으로 검출된 영역에 대해, 상기 반사 이미지의 특징점과 상기 모방 반사 이미지의 특징점의 매칭 비율인제 1 매칭 비율; 및 상기 실제 이미지의 특징점과 상기 모방 실제 이미지의 특징점의 매칭 비율인 제 2 매칭 비율;을 이용하여, 상기 제 1 매칭 비율 또는 상기 제 2 매칭 비율이 미리 설정된 제 2 비율 미만의 매칭된 특징점을 보유하는 영역을 제 2 객체군의 객체로 검출하는 것을 특징으로 하는 객체 인식 방법.14. The method of claim 13,
In the object detection step,
a first matching ratio, which is a matching ratio between the feature points of the reflective image and the feature points of the imitation reflective image with respect to the region detected as the region in which the object exists by the object region detecting step; and a second matching ratio, which is a matching ratio between the feature points of the real image and the feature points of the imitation real image; using, the first matching ratio or the second matching ratio is less than a preset second ratio. An object recognition method, characterized in that the region is detected as an object of the second object group.
상기 이미지 변환 단계에서는,
전체 반사 이미지 중, 일부 영역에 해당하는 N개의 일부 영역의 반사 이미지; 및 객체가 보관된 내부 공간의 전체 실제 이미지 중, 상기 N개의 일부 영역의 반사 이미지에 각각 대응하는 N개의 일부 영역의 실제 이미지;를 이용하여,
상기 N개의 일부 영역의 반사 이미지 각각을 모방 실제 이미지로 변환하고, 상기 N개의 일부 영역의 실제 이미지 각각을 모방 반사 이미지로 변환하되,
상기 N은, 2 이상인 정수인 것을 특징으로 하는 객체 인식 방법.11. The method of claim 10,
In the image conversion step,
reflection images of N partial regions corresponding to partial regions among the total reflection images; and N real images of the N partial regions respectively corresponding to the reflection images of the N partial regions among the total real images of the internal space in which the object is stored.
Converting each of the reflection images of the N partial regions into a imitation real image, and converting each of the real images of the N partial regions into a imitation reflection image,
The N is an object recognition method, characterized in that it is an integer of 2 or more.
상기 객체 인식 방법은,
상기 N개의 일부 영역의 반사 이미지 각각 및 상기 N개의 일부 영역의 실제 이미지 각각에 대해 검출된 제 1 객체군의 객체의 위치 정보 및 제 2 객체군의 객체의 위치 정보를 이용하여, 상기 N개의 일부 영역의 반사 이미지 모두 및 상기 N개의 일부 영역의 실제 이미지 모두에 대해 검출된 객체 중 중복적으로 검출된 객체를 단일화하여, 내부 공간에 실제 보관된 전체 객체를 확정하는 객체 확정 단계;를 더 포함하는 것을 특징으로 하는 객체 인식 방법.16. The method of claim 15,
The object recognition method comprises:
Using the position information of the object of the first object group and the position information of the object of the second object group detected for each of the reflection images of the N partial regions and the actual images of the N partial regions, respectively, the N parts Object determination step of unifying the duplicately detected objects among the objects detected for all of the reflected images of the region and the actual images of the N partial regions to determine all objects actually stored in the internal space; further comprising: Object recognition method, characterized in that.
상기 객체 인식 방법은,
객체를 보관할 수 있는 내부 공간 및 상기 내부 공간의 다수의 측벽에 설치된 다수의 거울의 이미지를 획득하는 이미지 획득 단계;를 더 포함하는 것을 특징으로 하는 객체 인식 방법.11. The method of claim 10,
The object recognition method comprises:
An image acquisition step of acquiring images of an internal space capable of storing an object and images of a plurality of mirrors installed on a plurality of sidewalls of the internal space;
상기 다수의 거울의 전면 유리는,
전기 신호의 인가에 의해, 투명 또는 불투명 상태로 되는 것을 특징으로 하는 객체 인식 방법.18. The method of claim 17,
The front glass of the plurality of mirrors,
An object recognition method, characterized in that it becomes transparent or opaque by application of an electrical signal.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
KR1020190134385A KR102283904B1 (en) | 2019-10-28 | 2019-10-28 | Object recognition systen of image based on deep learning and recognition method therefor |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
KR1020190134385A KR102283904B1 (en) | 2019-10-28 | 2019-10-28 | Object recognition systen of image based on deep learning and recognition method therefor |
Publications (2)
Publication Number | Publication Date |
---|---|
KR20210050138A KR20210050138A (en) | 2021-05-07 |
KR102283904B1 true KR102283904B1 (en) | 2021-08-02 |
Family
ID=75916641
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
KR1020190134385A KR102283904B1 (en) | 2019-10-28 | 2019-10-28 | Object recognition systen of image based on deep learning and recognition method therefor |
Country Status (1)
Country | Link |
---|---|
KR (1) | KR102283904B1 (en) |
Citations (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN208781326U (en) * | 2018-08-07 | 2019-04-23 | 上海韬林机械有限公司 | A kind of Vending Machine of visual identity commodity |
KR101991424B1 (en) * | 2018-02-09 | 2019-06-20 | 충북대학교 산학협력단 | Refrigerator with visible device for inner side |
Family Cites Families (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN110609617B (en) | 2013-08-04 | 2023-09-26 | 艾斯适配有限公司 | Apparatus, system and method for virtual mirror |
-
2019
- 2019-10-28 KR KR1020190134385A patent/KR102283904B1/en active IP Right Grant
Patent Citations (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR101991424B1 (en) * | 2018-02-09 | 2019-06-20 | 충북대학교 산학협력단 | Refrigerator with visible device for inner side |
CN208781326U (en) * | 2018-08-07 | 2019-04-23 | 上海韬林机械有限公司 | A kind of Vending Machine of visual identity commodity |
Also Published As
Publication number | Publication date |
---|---|
KR20210050138A (en) | 2021-05-07 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US11288492B2 (en) | Method and device for acquiring 3D information of object | |
US7822267B2 (en) | Enhanced object reconstruction | |
CN106909911B (en) | Image processing method, image processing apparatus, and electronic apparatus | |
Klank et al. | Transparent object detection and reconstruction on a mobile platform | |
JP4451307B2 (en) | How to classify objects in a scene | |
Filliat et al. | RGBD object recognition and visual texture classification for indoor semantic mapping | |
CN105740910A (en) | Vehicle object detection method and device | |
JP4313758B2 (en) | How to chain edges in stereo images together | |
CN106997457B (en) | Figure limb identification method, figure limb identification device and electronic device | |
EP3553468A1 (en) | Method and apparatus for generating 3d map of indoor space | |
WO2020130070A1 (en) | Detecting device, information processing device, detecting method, and information processing program | |
US11257287B2 (en) | System, device and method for creating three-dimensional models | |
KR102283904B1 (en) | Object recognition systen of image based on deep learning and recognition method therefor | |
US20140218477A1 (en) | Method and system for creating a three dimensional representation of an object | |
Majdi et al. | 3d modeling of indoor environments using kinect sensor | |
KR20140120527A (en) | Apparatus and method for matchong stereo image | |
CN111246623B (en) | Gesture control method and control system based on embedded binocular intelligent mirror front lamp | |
CN110008918B (en) | Method for identifying posture of motorcycle simulator driver | |
JPH05173644A (en) | Three-dimensional body recording device | |
CN111383340A (en) | Background filtering method, device and system based on 3D image | |
US20240054765A1 (en) | Information processing method and apparatus | |
Shin et al. | Object proposal using 3D point cloud for DRC-HUBO+ | |
KR20180055305A (en) | Method and apparatus for controlling movement of electronic equipment | |
JP2002259968A (en) | Color extracting method and color extracting device | |
Iannizzotto et al. | Real-time object tracking with movels and affine transformations |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PA0109 | Patent application |
Patent event code: PA01091R01D Comment text: Patent Application Patent event date: 20191028 |
|
PA0201 | Request for examination | ||
PE0902 | Notice of grounds for rejection |
Comment text: Notification of reason for refusal Patent event date: 20210122 Patent event code: PE09021S01D |
|
PG1501 | Laying open of application | ||
E701 | Decision to grant or registration of patent right | ||
PE0701 | Decision of registration |
Patent event code: PE07011S01D Comment text: Decision to Grant Registration Patent event date: 20210715 |
|
GRNT | Written decision to grant | ||
PR0701 | Registration of establishment |
Comment text: Registration of Establishment Patent event date: 20210726 Patent event code: PR07011E01D |
|
PR1002 | Payment of registration fee |
Payment date: 20210726 End annual number: 3 Start annual number: 1 |
|
PG1601 | Publication of registration | ||
PR1001 | Payment of annual fee |
Payment date: 20240502 Start annual number: 4 End annual number: 4 |