KR20240120823A - Apparatus and method for distinguishing colors of oven hinges by applying AI-based machine vision technology - Google Patents
Apparatus and method for distinguishing colors of oven hinges by applying AI-based machine vision technology Download PDFInfo
- Publication number
- KR20240120823A KR20240120823A KR1020230013165A KR20230013165A KR20240120823A KR 20240120823 A KR20240120823 A KR 20240120823A KR 1020230013165 A KR1020230013165 A KR 1020230013165A KR 20230013165 A KR20230013165 A KR 20230013165A KR 20240120823 A KR20240120823 A KR 20240120823A
- Authority
- KR
- South Korea
- Prior art keywords
- oven
- unit
- vision image
- model name
- straight line
- Prior art date
Links
- 238000000034 method Methods 0.000 title claims description 25
- 239000003086 colorant Substances 0.000 title description 2
- 238000004458 analytical method Methods 0.000 claims abstract description 5
- 238000004364 calculation method Methods 0.000 claims description 25
- 238000001514 detection method Methods 0.000 claims description 13
- 238000000605 extraction Methods 0.000 claims description 11
- 238000000926 separation method Methods 0.000 claims description 2
- 238000010586 diagram Methods 0.000 description 10
- 230000008569 process Effects 0.000 description 8
- 238000004519 manufacturing process Methods 0.000 description 5
- 230000006870 function Effects 0.000 description 4
- 239000003550 marker Substances 0.000 description 4
- 230000007547 defect Effects 0.000 description 3
- 238000006243 chemical reaction Methods 0.000 description 2
- 230000014509 gene expression Effects 0.000 description 2
- 238000007689 inspection Methods 0.000 description 2
- 230000003287 optical effect Effects 0.000 description 2
- 238000007639 printing Methods 0.000 description 2
- 230000009466 transformation Effects 0.000 description 2
- 239000002253 acid Substances 0.000 description 1
- 230000000694 effects Effects 0.000 description 1
- 238000010801 machine learning Methods 0.000 description 1
- 238000012986 modification Methods 0.000 description 1
- 230000004048 modification Effects 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V20/00—Scenes; Scene-specific elements
- G06V20/60—Type of objects
- G06V20/64—Three-dimensional objects
-
- E—FIXED CONSTRUCTIONS
- E05—LOCKS; KEYS; WINDOW OR DOOR FITTINGS; SAFES
- E05D—HINGES OR SUSPENSION DEVICES FOR DOORS, WINDOWS OR WINGS
- E05D11/00—Additional features or accessories of hinges
-
- F—MECHANICAL ENGINEERING; LIGHTING; HEATING; WEAPONS; BLASTING
- F24—HEATING; RANGES; VENTILATING
- F24C—DOMESTIC STOVES OR RANGES ; DETAILS OF DOMESTIC STOVES OR RANGES, OF GENERAL APPLICATION
- F24C15/00—Details
- F24C15/02—Doors specially adapted for stoves or ranges
- F24C15/022—Latches
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N20/00—Machine learning
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/60—Analysis of geometric attributes
- G06T7/62—Analysis of geometric attributes of area, perimeter, diameter or volume
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/70—Determining position or orientation of objects or cameras
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/20—Image preprocessing
- G06V10/25—Determination of region of interest [ROI] or a volume of interest [VOI]
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/20—Image preprocessing
- G06V10/30—Noise filtering
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/40—Extraction of image or video features
- G06V10/44—Local feature extraction by analysis of parts of the pattern, e.g. by detecting edges, contours, loops, corners, strokes or intersections; Connectivity analysis, e.g. of connected components
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/40—Extraction of image or video features
- G06V10/56—Extraction of image or video features relating to colour
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/70—Arrangements for image or video recognition or understanding using pattern recognition or machine learning
- G06V10/762—Arrangements for image or video recognition or understanding using pattern recognition or machine learning using clustering, e.g. of similar faces in social networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/70—Arrangements for image or video recognition or understanding using pattern recognition or machine learning
- G06V10/764—Arrangements for image or video recognition or understanding using pattern recognition or machine learning using classification, e.g. of video objects
-
- E—FIXED CONSTRUCTIONS
- E05—LOCKS; KEYS; WINDOW OR DOOR FITTINGS; SAFES
- E05Y—INDEXING SCHEME ASSOCIATED WITH SUBCLASSES E05D AND E05F, RELATING TO CONSTRUCTION ELEMENTS, ELECTRIC CONTROL, POWER SUPPLY, POWER SIGNAL OR TRANSMISSION, USER INTERFACES, MOUNTING OR COUPLING, DETAILS, ACCESSORIES, AUXILIARY OPERATIONS NOT OTHERWISE PROVIDED FOR, APPLICATION THEREOF
- E05Y2900/00—Application of doors, windows, wings or fittings thereof
- E05Y2900/30—Application of doors, windows, wings or fittings thereof for domestic appliances
- E05Y2900/308—Application of doors, windows, wings or fittings thereof for domestic appliances for ovens
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Multimedia (AREA)
- Software Systems (AREA)
- Evolutionary Computation (AREA)
- Medical Informatics (AREA)
- Artificial Intelligence (AREA)
- General Engineering & Computer Science (AREA)
- Computing Systems (AREA)
- Mechanical Engineering (AREA)
- Combustion & Propulsion (AREA)
- Mathematical Physics (AREA)
- Chemical & Material Sciences (AREA)
- Geometry (AREA)
- Data Mining & Analysis (AREA)
- Health & Medical Sciences (AREA)
- Databases & Information Systems (AREA)
- General Health & Medical Sciences (AREA)
- Length Measuring Devices By Optical Means (AREA)
Abstract
구분 장치가 제공된다. 상기 구분 장치는 오븐의 도어 힌지의 3차원 비전 이미지를 획득하는 획득부; 상기 비전 이미지의 분석을 통해 상기 오븐의 모델명을 판별하는 판별부;를 포함할 수 있다.A distinguishing device is provided. The distinguishing device may include an acquisition unit that acquires a three-dimensional vision image of a door hinge of an oven; and a determination unit that determines the model name of the oven through analysis of the vision image.
Description
본 발명은 오븐의 종류를 파악, 구분하고 파악된 종류에 부합되는 라벨의 정위치를 산정하는 구분 장치 및 방법에 관한 것이다. The present invention relates to a classification device and method for identifying and distinguishing the type of oven and calculating the correct position of a label corresponding to the identified type.
동일한 생산 라인에서 다양한 종류의 오븐이 생산될 수 있다.Different types of ovens can be produced on the same production line.
이 경우, 각 오븐의 모델명을 파악하고, 모델명마다 달라지는 위치에 해당 모델명을 나타내는 라벨을 부착, 인쇄하는 작업이 수행될 수 있다.In this case, the model name of each oven can be identified, and a label indicating the model name can be attached and printed in a location that varies for each model name.
이들 작업은 수작업에 의해 이루어지며, 제조자의 숙련도, 피로도, 집중도에 따라 불량이 발생될 수 있다.These tasks are done manually and defects may occur depending on the skill, fatigue, and concentration of the manufacturer.
한국등록특허공보 제0674728호에는 스프링이 마련된 오븐의 도어 힌지가 나타나 있다.Korean Patent Publication No. 0674728 discloses a door hinge for an oven equipped with a spring.
본 발명은 오븐의 모델명을 자동으로 파악하고 파악된 모델명에 부합되는 라벨의 부착 위치를 산정하는 구분 장치 및 방법을 제공하기 위한 것이다.The present invention provides a classification device and method that automatically identifies the model name of an oven and calculates the attachment position of a label corresponding to the identified model name.
본 발명의 구분 장치는 오븐의 도어 힌지의 3차원 비전 이미지를 획득하는 획득부; 상기 비전 이미지의 분석을 통해 상기 오븐의 모델명을 판별하는 판별부;를 포함할 수 있다.The distinguishing device of the present invention may include an acquisition unit that acquires a three-dimensional vision image of a door hinge of an oven; and a determination unit that determines the model name of the oven through analysis of the vision image.
본 발명의 구분 방법은 오븐의 도어 힌지의 3차원 비전 이미지를 획득하는 획득 단계; 상기 비전 이미지에 포함된 힌지의 스프링의 색상 및 크기에 매칭되는 상기 오븐의 모델명을 판별하는 판별 단계; 상기 비전 이미지에 포함된 상기 오븐 외곽의 직선 성분 복수개가 서로 만나는 지점을 상기 오븐의 모서리로 추출하고, 상기 모델명과 상기 모서리를 기준으로 상기 오븐의 라벨 부착 위치를 산정하는 산정 단계;를 포함할 수 있다.The classification method of the present invention may include an acquisition step of acquiring a three-dimensional vision image of a door hinge of an oven; a determination step of determining a model name of the oven that matches a color and size of a spring of the hinge included in the vision image; and a calculation step of extracting a point where a plurality of straight line components of the outer periphery of the oven included in the vision image meet each other as a corner of the oven, and calculating a label attachment position of the oven based on the model name and the corner.
본 발명의 구분 장치 및 방법에 따르면, 오븐의 도어 힌지를 촬영한 3차원 비전 이미지를 이용하여 오븐의 모델명을 판별하고 라벨 부착 위치를 산정할 수 있다.According to the classification device and method of the present invention, the model name of the oven can be determined and the label attachment position can be calculated using a three-dimensional vision image captured of the door hinge of the oven.
비전 인식이 적용된 검사 방법에 따르면, 불량 검출 속도 및 정확도가 개선될 수 있다.According to the inspection method applied with vision recognition, the speed and accuracy of defect detection can be improved.
구분 장치 및 방법에 해당되는 머신 비전 제품 검사 솔루션은 품질에 대한 다양한 고민이 있는 제조 기업에게 좋은 효과를 가져다줄 수 있다. 해당 솔루션을 바탕으로 제조 기업에서는 양질의 제품을 생산 및 납품하여 품질 경쟁력, 기업 성장력을 기대할 수 있다.Machine vision product inspection solutions corresponding to the classification device and method can bring good effects to manufacturing companies with various concerns about quality. Based on the solution, manufacturing companies can expect quality competitiveness and corporate growth by producing and delivering high-quality products.
본 발명의 구분 장치는 비전 이미지의 분석을 통해 오븐의 도어 힌지에 형성된 스프링의 크기와 색상을 구분하고 파악할 수 있다. 구분 장치는 스프링의 크기와 색상을 통해 해당 오븐의 모델명을 특정할 수 있다.The distinguishing device of the present invention can distinguish and identify the size and color of a spring formed on a door hinge of an oven through analysis of a vision image. The distinguishing device can specify the model name of the corresponding oven through the size and color of the spring.
구분 장치는 모델명에 매칭되는 라벨을 선택할 수 있다. 또한, 구분 장치는 오븐의 외곽 모서리를 기준으로 라벨 부착 위치를 산정할 수 있다.The sorting device can select a label matching the model name. Additionally, the sorting device can calculate the label attachment position based on the outer edge of the oven.
구분 장치는 비전 이미지를 생성한 카메라와 다른 위치에 배치된 부착 로봇의 관점에서 레벨 부착 위치를 캘리브레이션할 수 있다.The separation device can calibrate the level attachment position from the perspective of the attachment robot placed at a different location from the camera that generated the vision image.
구분 장치는 부착 로봇의 라벨의 선택 정보, 라벨 부착 위치를 제공하고, 이를 통해 부착 로봇은 타겟으로 하는 오븐에 맞는 라벨을 가져와서 적절한 위치에 부착할 수 있다.The sorting device provides label selection information and label attachment location to the attachment robot, so that the attachment robot can retrieve a label suitable for the target oven and attach it to the appropriate location.
본 발명의 구분 장치에 따르면, 다양한 모델명의 오븐이 동일한 생산 라인에서 제조되는 환경에서 라벨의 선택과 라벨의 부착 위치 제어가 자동으로 이루어질 수 있다. 이에 따라, 오븐의 전체 제조 시간이 단축되는 것은 물론 라벨 부착과 관련된 불량율이 크기 감소될 수 있다.According to the sorting device of the present invention, in an environment where ovens of various model names are manufactured on the same production line, selection of labels and control of the attachment position of labels can be performed automatically. Accordingly, not only can the overall manufacturing time of the oven be shortened, but the defect rate related to label attachment can also be greatly reduced.
도 1은 본 발명의 구분 장치를 나타낸 블록도이다.
도 2는 오븐의 도어, 도어 힌지를 나타낸 사진이다.
도 3은 구분 장치의 동작을 나타낸 개략도이다.
도 4는 라벨의 부착 공정이 완료된 오븐을 나타낸 개략도이다.
도 5는 라벨의 부착 공정과 관련된 구분 장치의 동작을 나타낸 개략도이다.
도 6은 본 발명의 구분 방법을 나타낸 흐름도이다.
도 7은 본 발명의 실시예에 따른, 컴퓨팅 장치를 나타내는 도면이다.Figure 1 is a block diagram showing a classification device of the present invention.
Figure 2 is a photo showing the oven door and door hinge.
Figure 3 is a schematic diagram showing the operation of the separating device.
Figure 4 is a schematic diagram showing an oven in which the label attachment process has been completed.
Figure 5 is a schematic diagram showing the operation of a sorting device related to the label attachment process.
Figure 6 is a flow chart showing the classification method of the present invention.
FIG. 7 is a diagram illustrating a computing device according to an embodiment of the present invention.
아래에서는 첨부한 도면을 참고로 하여 본 발명의 실시예에 대하여 본 발명이 속하는 기술 분야에서 통상의 지식을 가진 자가 용이하게 실시할 수 있도록 상세히 설명한다. 그러나 본 발명은 여러 가지 상이한 형태로 구현될 수 있으며 여기에서 설명하는 실시예에 한정되지 않는다. 그리고 도면에서 본 발명을 명확하게 설명하기 위해서 설명과 관계없는 부분은 생략하였으며, 명세서 전체를 통하여 유사한 부분에 대해서는 유사한 도면 부호를 붙였다. Hereinafter, with reference to the attached drawings, embodiments of the present invention will be described in detail so that those skilled in the art can easily practice the present invention. However, the present invention may be implemented in various different forms and is not limited to the embodiments described herein. In addition, in order to clearly describe the present invention in the drawings, parts that are not related to the description are omitted, and similar parts are assigned similar drawing reference numerals throughout the specification.
본 명세서에서, 동일한 구성요소에 대해서 중복된 설명은 생략한다.In this specification, duplicate descriptions of identical components are omitted.
또한 본 명세서에서, 어떤 구성요소가 다른 구성요소에 '연결되어' 있다거나 '접속되어' 있다고 언급된 때에는, 그 다른 구성요소에 직접적으로 연결되어 있거나 또는 접속되어 있을 수도 있지만, 중간에 다른 구성요소가 존재할 수도 있다고 이해되어야 할 것이다. 반면에 본 명세서에서, 어떤 구성요소가 다른 구성요소에 '직접 연결되어' 있다거나 '직접 접속되어' 있다고 언급된 때에는, 중간에 다른 구성요소가 존재하지 않는 것으로 이해되어야 할 것이다.Also, in this specification, when it is mentioned that a component is 'connected' or 'connected' to another component, it should be understood that it may be directly connected or connected to that other component, but that there may be other components in between. On the other hand, in this specification, when it is mentioned that a component is 'directly connected' or 'directly connected' to another component, it should be understood that there are no other components in between.
또한, 본 명세서에서 사용되는 용어는 단지 특정한 실시예를 설명하기 위해 사용되는 것으로써, 본 발명을 한정하려는 의도로 사용되는 것이 아니다.Additionally, the terms used herein are only used to describe particular embodiments and are not intended to limit the present invention.
또한 본 명세서에서, 단수의 표현은 문맥상 명백하게 다르게 뜻하지 않는 한, 복수의 표현을 포함할 수 있다. Also, in this specification, singular expressions may include plural expressions unless the context clearly indicates otherwise.
또한 본 명세서에서, '포함하다' 또는 '가지다' 등의 용어는 명세서에 기재된 특징, 숫자, 단계, 동작, 구성요소, 부품, 또는 이들을 조합한 것이 존재함을 지정하려는 것일 뿐, 하나 또는 그 이상의 다른 특징, 숫자, 단계, 동작, 구성요소, 부품 또는 이들을 조합한 것의 존재 또는 부가 가능성을 미리 배제하지 않는 것으로 이해되어야 할 것이다.In addition, in this specification, it should be understood that terms such as “include” or “have” only specify the presence of a feature, number, step, operation, component, part, or combination thereof described in the specification, and do not exclude in advance the possibility of the presence or addition of one or more other features, numbers, steps, operations, components, parts, or combinations thereof.
또한 본 명세서에서, '및/또는' 이라는 용어는 복수의 기재된 항목들의 조합 또는 복수의 기재된 항목들 중의 어느 항목을 포함한다. 본 명세서에서, 'A 또는 B'는, 'A', 'B', 또는 'A와 B 모두'를 포함할 수 있다.Also, in this specification, the term 'and/or' includes a combination of multiple listed items or any one of multiple listed items. In this specification, 'A or B' can include 'A', 'B', or 'both A and B'.
또한 본 명세서에서, 본 발명의 요지를 흐리게 할 수 있는 공지 기능 및 구성에 대한 상세한 설명은 생략될 것이다.Additionally, in this specification, detailed descriptions of well-known functions and configurations that may obscure the gist of the present invention will be omitted.
도 1은 본 발명의 구분 장치를 나타낸 블록도이다. 도 2는 오븐의 도어, 도어 힌지(50)를 나타낸 사진이다. 도 3은 구분 장치의 동작을 나타낸 개략도이다.Fig. 1 is a block diagram showing the sorting device of the present invention. Fig. 2 is a photograph showing the door and door hinge (50) of the oven. Fig. 3 is a schematic diagram showing the operation of the sorting device.
도 1에 도시된 구분 장치는 획득부(110), 검출부(120), 구분부(130), 판별부(140), 변환부(150), 탐색부(160), 추출부(170), 산정부(180)를 포함할 수 있다.The classification device illustrated in Fig. 1 may include an acquisition unit (110), a detection unit (120), a classification unit (130), a determination unit (140), a conversion unit (150), a search unit (160), an extraction unit (170), and a calculation unit (180).
오븐(10)의 도어(30)는 내열성 등의 이유로 일반 가전 제품의 도어보다 무겁게 형성될 수 있다. 무거운 도어를 지지하기 위해 오븐의 도어 힌지(50)(hinge)에는 탄성력을 제공하는 스프링(70)이 적용될 수 있다. 스프링(70)은 문을 폐쇄하는 방향으로 탄성력이 인가되도록 힌지(50)에 설치될 수 있다. 스프링(70)으로 인해 문의 개방시 도어가 자중에 의해 한꺼번에 열리는 상황이 방지될 수 있다. 또한, 도어를 들어올려 오븐을 폐쇄할 때에도 사용자는 탄성력의 도움을 받아 적은 힘으로도 도어를 들어올릴 수 있다.The door (30) of the oven (10) may be formed heavier than the door of a general home appliance for reasons such as heat resistance. In order to support the heavy door, a spring (70) providing elasticity may be applied to the door hinge (50) of the oven. The spring (70) may be installed on the hinge (50) so that the elasticity is applied in the direction of closing the door. Due to the spring (70), the door may be prevented from being opened all at once by its own weight when it is opened. In addition, when lifting the door to close the oven, the user may lift the door with less force with the help of the elasticity.
이때, 오브의 도어 힌지(50)에 포함된 스프링(70)은 모델명마다 그 크기와 색상이 모두 다를 수 있다. 본 발명의 구분 장치는 이러한 특정을 이용하여 스프링(70)을 모델명을 구분하는 식별자로 사용할 수 있다.At this time, the spring (70) included in the door hinge (50) of the orb may have different sizes and colors depending on the model name. The distinguishing device of the present invention can use the spring (70) as an identifier to distinguish the model name by utilizing this specificity.
획득부(110)는 오븐을 촬영하는 카메라 또는 비전(vision)로부터 오븐의 도어 힌지(50)의 3차원 비전 이미지를 획득할 수 있다.The acquisition unit (110) can acquire a three-dimensional vision image of the door hinge (50) of the oven from a camera or vision that photographs the oven.
일 예로, 비전 이미지는 서로 이격된 2대의 카메라로 촬영한 영상에 기초할 수 있다. 비전 이미지는 카메라의 광축에 수직한 xy 평면에 평행한 2차원 RGB(Red-Green-Blue) 이미지, 광축에 평행한 방향의 위치 정보가 포함된 깊이 정보를 포함할 수 있다.For example, a vision image may be based on images captured by two cameras spaced apart from each other. The vision image may include a two-dimensional RGB (Red-Green-Blue) image parallel to the xy plane perpendicular to the optical axis of the cameras, and depth information including position information in the direction parallel to the optical axis.
획득부(110)는 카메라와 유무선 통신하고, 카메라로부터 비전 이미지를 실시간으로 수신할 수 있다. 경우에 따라, 획득부(110)는 비전 이미지를 생성하는 카메라와 일체로 형성될 수 있다. 이 경우, 획득부(110)는 직접 비전 이미지를 생성하고 획득할 수 있다.The acquisition unit (110) can communicate with the camera wirelessly and receive vision images from the camera in real time. In some cases, the acquisition unit (110) can be formed integrally with the camera that generates the vision images. In this case, the acquisition unit (110) can directly generate and acquire the vision images.
검출부(120)는 비전 이미지에 포함된 힌지(50)의 스프링(70)을 추출할 수 있다.The detection unit (120) can extract the spring (70) of the hinge (50) included in the vision image.
일 예로, 검출부(120)는 객체 검출 알고리즘을 이용하여 비전 이미지에 포함된 스프링(70)의 이미지를 추출할 수 있다.For example, the detection unit (120) can extract an image of a spring (70) included in a vision image using an object detection algorithm.
일 예로, 검출부(120)는 기계 학습된 검출 모델을 이용하여 스프링(70)의 이미지를 추출할 수 있다.For example, the detection unit (120) can extract an image of a spring (70) using a machine-learned detection model.
검출 모델은 비전 이미지에 해당되는 오븐의 도어 이미지를 문제로 하고, 비전 이미지에 포함된 스프링(70)의 이미지를 정답으로 하는 데이터셋을 이용하여 기계 학습될 수 있다. 기계 학습이 완료된 검출 모델은 오븐의 도어 이미지가 입력되면, 도어 이미지에 포함된 스프링(70)의 이미지만을 추출해서 출력할 수 있다.The detection model can be machine-learned using a dataset that uses the door image of an oven corresponding to the vision image as a problem and the image of the spring (70) included in the vision image as an answer. When the door image of the oven is input, the detection model that has completed machine learning can extract and output only the image of the spring (70) included in the door image.
구분부(130)는 색상 클러스터링을 통해 스프링(70)을 제외한 노이즈를 제거할 수 있다. 구분부(130)는 색의 군집화를 통해 빛 반사 등에 의해 발생되는 왜곡 정보를 제거할 수 있다.The classification unit (130) can remove noise except for the spring (70) through color clustering. The classification unit (130) can remove distortion information caused by light reflection, etc. through color clustering.
판별부(140)는 비전 이미지의 분석을 통해 상기 오븐의 모델명을 판별할 수 있다.The determination unit (140) can determine the model name of the oven by analyzing the vision image.
판별부(140)는 노이즈가 제거된 스프링(70)의 이미지 분석을 통해 스프링(70)의 색상 및 크기를 파악할 수 있다.The determination unit (140) can identify the color and size of the spring (70) by analyzing the image of the spring (70) from which noise has been removed.
판별부(140)는 비전 이미지에 포함된 깊이 정보가 추가로 입력된 객체 검출 알고리즘을 통해 스프링(70)의 크기를 파악할 수 있다.The judgment unit (140) can determine the size of the spring (70) through an object detection algorithm with additional depth information included in the vision image.
판별부(140)는 클러스터링된 이미지를 기반으로 RGB 관련 히스토그램을 획득하고, 히스토그램의 분석을 통해 주요 색상 범위를 추출할 수 있다. 이렇게 추출된 주요 색상 범위가 본 명세서의 '색상'에 해당될 수 있다.The judgment unit (140) can obtain an RGB-related histogram based on the clustered image and extract a main color range through analysis of the histogram. The main color range extracted in this way can correspond to the 'color' of this specification.
판별부(140)는 스프링(70)의 색상 및 크기에 매칭되는 오븐의 모델명을 판별할 수 있다. 이를 위해, 모델명에 따른 스프링(70)의 색상 정보, 크기 정보가 미리 등록된 데이터베이스가 마련될 수 있다. 판별부(140)는 비전 이미지를 통해 파악된 스프링(70)의 색상 및 크기에 매칭되는 정보를 데이터베이스에서 추출하고, 추출된 정보에 매칭되어 데이터베이스에 등록된 모델명을 해당 비전 이미지가 타겟으로 하는 오븐의 모델명으로 판별할 수 있다.The determination unit (140) can determine the model name of the oven that matches the color and size of the spring (70). To this end, a database in which color information and size information of the spring (70) according to the model name are pre-registered can be prepared. The determination unit (140) can extract information matching the color and size of the spring (70) identified through the vision image from the database, and determine the model name registered in the database that matches the extracted information as the model name of the oven targeted by the corresponding vision image.
이상의 검출부(120), 구분부(130), 판별부(140)에 따르면, 모델명을 식별할 수 있는 라벨 등이 인쇄되거나 부착되지 않은 조립 상태로 존재하는 오븐의 모델명이 판별될 수 있다. 판별부(140)에 의해 판별된 오븐의 모델명은 도 4와 같이 해당 모델명에 매칭되는 라벨의 인쇄 또는 부착 공정에 사용될 수 있다.According to the above detection unit (120), classification unit (130), and determination unit (140), the model name of an oven that exists in an assembled state without a label or the like that can identify the model name being printed or attached can be determined. The model name of the oven determined by the determination unit (140) can be used in a process of printing or attaching a label matching the corresponding model name, as shown in FIG. 4.
도 4는 라벨의 부착 공정이 완료된 오븐을 나타낸 개략도이다. 도 5는 라벨의 부착 공정과 관련된 구분 장치의 동작을 나타낸 개략도이다.Figure 4 is a schematic diagram showing an oven in which the label attachment process has been completed. Figure 5 is a schematic diagram showing the operation of a sorting device related to the label attachment process.
라벨 m의 부착 공정(인쇄 및 부착 포함)은 비전 얼라인을 통해 수행될 수 있다. 비전 얼라인은 카메라를 통해 제품의 특정 포인트를 인식하고, 특정 포인트를 기준으로 제품의 정위치 오차, 회전 오차를 자동으로 계산할 수 있다. 이를 통해 라벨 m의 부착 공정을 수행하는 부착 로봇의 타겟 포인트가 정밀하게 지정될 수 있다.The label m attachment process (including printing and attachment) can be performed through vision alignment. Vision alignment can recognize specific points on the product through a camera and automatically calculate the product's positioning error and rotation error based on the specific points. Through this, the target point of the attachment robot performing the label m attachment process can be precisely specified.
비전 얼라인을 위해 변환부(150), 탐색부(160), 추출부(170), 산정부(180)가 이용될 수 있다.A transformation unit (150), an exploration unit (160), an extraction unit (170), and a calculation unit (180) can be used for vision alignment.
변환부(150)는 비전 이미지, 특히, 2차원 RGB 이미지를 그레이 스케일의 흑백 이미지 t로 변환할 수 있다.The conversion unit (150) can convert a vision image, particularly a two-dimensional RGB image, into a gray-scale black-and-white image t.
탐색부(160)는 비전 이미지의 분석을 통해 오븐 외곽의 직선 성분을 탐색할 수 있다.The exploration unit (160) can explore straight line components around the oven by analyzing the vision image.
추출부(170)는 복수의 직선 성분이 서로 만나는 지점을 오븐의 모서리로 추출할 수 있다.The extraction unit (170) can extract the point where multiple straight line components meet each other to the corner of the oven.
일 예로, 탐색부(160)는 이미지 처리를 통해 주변과 구분되는 오븐의 외곽선을 특정하고 추출할 수 있다. 탐색부(160)는 추출된 외곽선 중에서 설정 길이 이상의 직선 성분을 추출할 수 있다.For example, the search unit (160) can identify and extract the outline of an oven that is distinct from its surroundings through image processing. The search unit (160) can extract straight line components longer than a set length from among the extracted outlines.
추출부(170)는 추출된 직선 성분을 따라 연장되는 직선 형태의 제1 가상선 k1, 제2 가상선 k2를 생성할 수 있다. 추출부(170)는 제1 가상선 k1과 제2 가상선 k2가 서로 교차하거나 만나는 지점을 오븐의 모서리로 추출, 선정할 수 있다.The extraction unit (170) can generate a first virtual line k1 and a second virtual line k2 in the form of straight lines extending along the extracted straight line components. The extraction unit (170) can extract and select a point where the first virtual line k1 and the second virtual line k2 intersect or meet each other as a corner of the oven.
산정부(180)는 추출부(170)에 의해 추출된 모서리를 기준으로 오븐의 라벨 부착 위치를 산정할 수 있다. 라벨의 부착 위치는 오븐의 특정 지점을 기준으로 설정될 수 있으며, 산정부(180)는 해당 기준으로 추출부(170)에서 추출한 모서리를 적용할 수 있다.The calculation unit (180) can calculate the label attachment location of the oven based on the corner extracted by the extraction unit (170). The label attachment location can be set based on a specific point of the oven, and the calculation unit (180) can apply the corner extracted by the extraction unit (170) as the corresponding standard.
모델명에 따라 라벨의 부착 위치는 모두 다를 수 있다. 이를 고려하여, 산정부(180)는 판별부(140)로부터 오븐의 모델명을 입수할 수 있다.The label attachment location may vary depending on the model name. Taking this into consideration, the calculation unit (180) can obtain the oven model name from the determination unit (140).
산정부(180)는 모델명에 따라 달라지는 라벨 부착 위치를 모델명에 맞춰 산정할 수 있다.The calculation department (180) can calculate the label attachment location according to the model name, which varies depending on the model name.
산정부(180)는 라벨을 부착하는 부착 로봇과 비전 이미지를 촬영 생성하는 카메라의 위치 관계를 정의하는 연계 데이터를 생성할 수 있다. 산정부(180)는 연계 데이터를 이용하여 부착 로봇의 인식 좌표를 캘리브레이션할 수 있다.The mountain government (180) can generate linkage data that defines the positional relationship between the attachment robot that attaches the label and the camera that captures and generates the vision image. The mountain government (180) can calibrate the recognition coordinates of the attachment robot using the linkage data.
예를 들어, 오븐과 카메라가 2m 간격으로 이격되고, 둘 사이에 부착 로봇이 배치된 상태를 가정한다. 이때, 부착 로봇은 오븐으로부터 1m 이격된 위치에 배치된 것으로 가정한다.For example, assume that the oven and the camera are spaced 2 m apart and that an attachment robot is placed between them. In this case, it is assumed that the attachment robot is placed 1 m away from the oven.
카메라에 의해 촬영된 비전 이미지에 포함된 깊이 정보는 2m이고, 해당 깊이 정보에 기초하여 라벨 부착 위치가 산정될 수 있다. 하지만, 이렇게 산정된 라벨 부착 위치는 카메라를 기준으로 한 것으로, 해당 라벨 부착 위치가 그대로 부착 로봇에 적용된다면 거리차로 인해 로봇은 엉뚱한 곳에 라벨을 붙일 수 있다. 이러한 상황을 방지하기 위해, 깊이 정보 2m에 대해 산정된 라벨 부착 위치는 깊이 정보 1m를 기준으로 하는 값으로 변경되어야 하며, 이 과정이 캘리브레이션에 해당될 수 있다. 깊이 정보가 변동되면 이미지에 포함된 2차원 RGB 이미지의 크기도 확대, 축소, 변경되므로 라벨 부착 위치의 평면 좌표 역시 적절하게 변경, 캘리브레이션 될 수 있다.The depth information included in the vision image captured by the camera is 2m, and the label attachment position can be calculated based on the depth information. However, the label attachment position calculated in this way is based on the camera, and if the label attachment position is applied to the attachment robot as it is, the robot may attach the label to an incorrect location due to the distance difference. To prevent this situation, the label attachment position calculated for the depth information of 2m must be changed to a value based on the depth information of 1m, and this process may correspond to calibration. When the depth information changes, the size of the 2D RGB image included in the image is also enlarged, reduced, or changed, so the plane coordinates of the label attachment position can also be appropriately changed and calibrated.
다시 말해, 깊이 정보 2m에 대해 산정된 라벨 부착 위치가 깊이 정보 1m에 대한 것으로 변환하는데 필요한 함수, 연산이 연산 데이터에 해당될 수 있다. 깊이 정보 2m에 대해 산정된 라벨 부착 위치를 연산 데이터에 적용하면, 라벨 부착 위치가 깊이 정보 1m에 대한 값으로 캘리브레이션 될 수 있다.In other words, the function or operation required to convert the label attachment location calculated for depth information of 2m to that for depth information of 1m may correspond to the operation data. By applying the label attachment location calculated for depth information of 2m to the operation data, the label attachment location can be calibrated to the value for depth information of 1m.
산정부(180)는 캘리브레이션이 완료된 부착 로봇에 라벨 부착 위치를 전송할 수 있다. 캘리브레이션이 완료된 라벨 부착 위치는 부착 로봇에서 사용하는 좌표계로 변환된 상태일 수 있다. 부착 로봇은 캘리브레이션이 완료된 라벨 부착 위치에 기파악된 모델명에 대응되는 라벨을 선택해서 부착, 인쇄할 수 있다.The mountain government (180) can transmit the label attachment location to the attachment robot for which calibration has been completed. The label attachment location for which calibration has been completed may be converted to the coordinate system used by the attachment robot. The attachment robot can select and attach and print a label corresponding to the identified model name to the label attachment location for which calibration has been completed.
도 6은 본 발명의 구분 방법을 나타낸 흐름도이다.Figure 6 is a flow chart showing the classification method of the present invention.
도 6의 구분 방법은 도 1의 구분 장치에 의해 수행될 수 있다.The classification method of Fig. 6 can be performed by the classification device of Fig. 1.
구분 방법은 획득단계(S 510), 판별 단계(S 520), 산정 단계(S 530)를 포함할 수 있다.The classification method may include an acquisition step (S 510), a determination step (S 520), and a calculation step (S 530).
획득 단계(S 510)는 오븐의 도어 힌지(50)의 3차원 비전 이미지를 획득할 수 있다. 획득 단계(S 510)는 획득부(110)에 의해 수행될 수 있다.The acquisition step (S 510) can acquire a three-dimensional vision image of the door hinge (50) of the oven. The acquisition step (S 510) can be performed by the acquisition unit (110).
판별 단계(S 520)는 비전 이미지에 포함된 힌지(50)의 스프링(70)의 색상 및 크기에 매칭되는 오븐의 모델명을 판별할 수 있다. 판별 단계(S 520)는 판별부(140)에 의해 수행될 수 있다.The determination step (S 520) can determine the model name of the oven that matches the color and size of the spring (70) of the hinge (50) included in the vision image. The determination step (S 520) can be performed by the determination unit (140).
산정 단계(S 530)는 비전 이미지에 포함된 오븐 외곽의 직선 성분 복수개가 서로 만나는 지점을 오븐의 모서리로 추출할 수 있다. 해당 동작은 추출부(170)에 의해 수행될 수 있다.The calculation step (S 530) can extract the point where multiple straight line components of the oven periphery included in the vision image meet each other as the corner of the oven. This operation can be performed by the extraction unit (170).
산정 단계(S 530)는 모델명과 모서리를 기준으로 오븐의 라벨 부착 위치를 산정할 수 있다. 해당 동작은 산정부(180)에 의해 수행될 수 있다.The calculation step (S 530) can calculate the label attachment position of the oven based on the model name and corner. This operation can be performed by the calculation unit (180).
예를 들어, 탐색부(160)는 비전 이미지의 관심 영역(ROI, Region Of Interest)에서 오븐 상부 외곽의 직선 성분, 오븐 측부 외곽의 직선 성분을 탐색할 수 있다.For example, the search unit (160) can search for a straight line component of the upper outer periphery of an oven and a straight line component of the side outer periphery of an oven in a region of interest (ROI) of a vision image.
추출부(170)는 오븐 상부 외곽의 직선 성분과 오븐 측부 외곽의 직선 성분의 교차점을 비전 이미지 상에서 설정할 수 있다.The extraction unit (170) can set the intersection point of the straight line component of the upper outer periphery of the oven and the straight line component of the side outer periphery of the oven on the vision image.
산정부(180)는 비전 이미지의 픽셀당 실제 길이를 파악할 수 있다. 예를 들어, 카메라에 의해 촬영된 ROI 내에 설정 길이의 마커가 형성될 수 있다. 해당 마커는 오븐 상에 인쇄되거나 착탈될 수 있다. 산정부(180)는 마커의 내에 몇 개의 픽셀이 포함되는지 계수하고, 계수된 픽셀의 개수로 마커의 길이를 나누는 방식을 통해 픽셀당 실제 길이를 파악할 수 있다.The calculation unit (180) can determine the actual length per pixel of the vision image. For example, a marker of a set length can be formed within the ROI captured by the camera. The marker can be printed or detached on the oven. The calculation unit (180) can determine the actual length per pixel by counting how many pixels are included within the marker and dividing the length of the marker by the number of counted pixels.
산정부(180)는 픽셀당 실제 길이를 이용하여 교차점의 실제 위치를 산정할 수 있다. 예를 들어, 비전 이미지의 특정 꼭지점이 기준 좌표로 설정될 수 있다. 기준 좌표로부터 교차점까지 존재하는 x축 픽셀의 개수에 픽셀당 실제 길이(x축 길이)를 곱한 값이 교차점의 x축 좌표로 설정될 수 있다. 기준 좌표로부터 교차점까지 존재하는 y축 픽셀의 개수에 픽셀당 실제 길이(y축 길이)를 곱한 값이 교차점의 y축 좌표로 설정될 수 있다. The calculation unit (180) can calculate the actual location of the intersection using the actual length per pixel. For example, a specific vertex of the vision image can be set as a reference coordinate. The number of x-axis pixels existing from the reference coordinate to the intersection multiplied by the actual length per pixel (x-axis length) can be set as the x-axis coordinate of the intersection. The number of y-axis pixels existing from the reference coordinate to the intersection multiplied by the actual length per pixel (y-axis length) can be set as the y-axis coordinate of the intersection.
산정부(180)는 모델명과 모서리의 실제 위치를 기준으로 오븐의 라벨 부착 위치를 산정할 수 있다. 예를 들어, a 모델명의 경우, 모서리로부터 측 방향으로 8cm 하 방향을 10cm가 라벨 부착 위치일 수 있다. 이때, 산정부(180)는 모서리의 실제 위치, 측 방향 8cm, 하 방향 10cm 정보를 모두 부착 로봇에 전송할 수 있다. 해당 정보를 전송받은 부착 로봇은 모서리의 실제 위치를 기준으로 측 방향 8cm, 하 방향 10cm 되는 위치에 해당 오븐의 모델명을 나타내는 바코드 등의 라벨을 부착할 수 있다.The calculation unit (180) can calculate the label attachment position of the oven based on the model name and the actual position of the corner. For example, in the case of model name a, the label attachment position can be 8 cm laterally and 10 cm downward from the corner. At this time, the calculation unit (180) can transmit all information on the actual position of the corner, 8 cm laterally, and 10 cm downward to the attachment robot. The attachment robot that receives the information can attach a label, such as a barcode, indicating the model name of the corresponding oven to a position that is 8 cm laterally and 10 cm downward based on the actual position of the corner.
도 7은 본 발명의 실시예에 따른, 컴퓨팅 장치를 나타내는 도면이다. 도 7의 컴퓨팅 장치(TN100)는 본 명세서에서 기술된 장치(예, 구분 장치 등) 일 수 있다. FIG. 7 is a diagram illustrating a computing device according to an embodiment of the present invention. The computing device (TN100) of FIG. 7 may be a device (e.g., a classification device, etc.) described in this specification.
도 7의 실시예에서, 컴퓨팅 장치(TN100)는 적어도 하나의 프로세서(TN110), 송수신 장치(TN120), 및 메모리(TN130)를 포함할 수 있다. 또한, 컴퓨팅 장치(TN100)는 저장 장치(TN140), 입력 인터페이스 장치(TN150), 출력 인터페이스 장치(TN160) 등을 더 포함할 수 있다. 컴퓨팅 장치(TN100)에 포함된 구성 요소들은 버스(bus)(TN170)에 의해 연결되어 서로 통신을 수행할 수 있다.In the embodiment of FIG. 7, the computing device (TN100) may include at least one processor (TN110), a transceiver (TN120), and a memory (TN130). In addition, the computing device (TN100) may further include a storage device (TN140), an input interface device (TN150), an output interface device (TN160), etc. The components included in the computing device (TN100) may be connected by a bus (TN170) to communicate with each other.
프로세서(TN110)는 메모리(TN130) 및 저장 장치(TN140) 중에서 적어도 하나에 저장된 프로그램 명령(program command)을 실행할 수 있다. 프로세서(TN110)는 중앙 처리 장치(CPU: central processing unit), 그래픽 처리 장치(GPU: graphics processing unit), 또는 본 발명의 실시예에 따른 방법들이 수행되는 전용의 프로세서를 의미할 수 있다. 프로세서(TN110)는 본 발명의 실시예와 관련하여 기술된 절차, 기능, 및 방법 등을 구현하도록 구성될 수 있다. 프로세서(TN110)는 컴퓨팅 장치(TN100)의 각 구성 요소를 제어할 수 있다.The processor (TN110) can execute a program command stored in at least one of the memory (TN130) and the storage device (TN140). The processor (TN110) may mean a central processing unit (CPU), a graphics processing unit (GPU), or a dedicated processor on which methods according to embodiments of the present invention are performed. The processor (TN110) may be configured to implement procedures, functions, methods, etc. described in relation to embodiments of the present invention. The processor (TN110) may control each component of the computing device (TN100).
메모리(TN130) 및 저장 장치(TN140) 각각은 프로세서(TN110)의 동작과 관련된 다양한 정보를 저장할 수 있다. 메모리(TN130) 및 저장 장치(TN140) 각각은 휘발성 저장 매체 및 비휘발성 저장 매체 중에서 적어도 하나로 구성될 수 있다. 예를 들어, 메모리(TN130)는 읽기 전용 메모리(ROM: read only memory) 및 랜덤 액세스 메모리(RAM: random access memory) 중에서 적어도 하나로 구성될 수 있다. Each of the memory (TN130) and the storage device (TN140) can store various information related to the operation of the processor (TN110). Each of the memory (TN130) and the storage device (TN140) can be configured with at least one of a volatile storage medium and a nonvolatile storage medium. For example, the memory (TN130) can be configured with at least one of a read-only memory (ROM) and a random access memory (RAM).
송수신 장치(TN120)는 유선 신호 또는 무선 신호를 송신 또는 수신할 수 있다. 송수신 장치(TN120)는 네트워크에 연결되어 통신을 수행할 수 있다.The transceiver (TN120) can transmit or receive wired or wireless signals. The transceiver (TN120) can be connected to a network and perform communications.
한편, 본 발명의 실시예는 지금까지 설명한 장치 및/또는 방법을 통해서만 구현되는 것은 아니며, 본 발명의 실시예의 구성에 대응하는 기능을 실현하는 프로그램 또는 그 프로그램이 기록된 기록 매체를 통해 구현될 수도 있으며, 이러한 구현은 상술한 실시예의 기재로부터 본 발명이 속하는 기술 분야의 통상의 기술자라면 쉽게 구현할 수 있는 것이다. Meanwhile, the embodiments of the present invention are not implemented only through the devices and/or methods described so far, but may also be implemented through a program that realizes a function corresponding to the configuration of the embodiments of the present invention or a recording medium on which the program is recorded, and such implementation can be easily implemented by a person skilled in the art in the technical field to which the present invention belongs from the description of the embodiments described above.
이상에서 본 발명의 실시예에 대하여 상세하게 설명하였지만 본 발명의 권리범위는 이에 한정되는 것은 아니고 다음의 청구범위에서 정의하고 있는 본 발명의 기본 개념을 이용한 통상의 기술자의 여러 변형 및 개량 형태 또한 본 발명의 권리범위에 속하는 것이다.Although the embodiments of the present invention have been described in detail above, the scope of the present invention is not limited thereto, and various modifications and improvements made by those skilled in the art using the basic concept of the present invention defined in the following claims also fall within the scope of the present invention.
10...오븐
30...도어
50...힌지
70...스프링
110...획득부
120...검출부
130...구분부
140...판별부
150...변환부
160...탐색부
170...추출부
180...산정부10...Oven 30...Door
50...Hinge 70...Spring
110...
130...
150...
170...
Claims (5)
상기 비전 이미지의 분석을 통해 상기 오븐의 모델명을 판별하는 판별부;
를 포함하는 구분 장치.
An acquisition unit for acquiring a three-dimensional vision image of the door hinge of an oven;
A determination unit that determines the model name of the oven by analyzing the above vision image;
A separating device including:
상기 비전 이미지에 포함된 힌지의 스프링을 추출하는 검출부가 마련되고,
색상 클러스터링을 통해 상기 스프링을 제외한 노이즈를 제거하는 구분부가 마련되며,
상기 판별부는 노이즈가 제거된 스프링의 이미지 분석을 통해 상기 스프링의 색상 및 크기를 파악하고,
상기 판별부는 상기 스프링의 색상 및 크기에 매칭되는 상기 오븐의 모델명을 판별하는 구분 장치.
In the first paragraph,
A detection unit is provided to extract the spring of the hinge included in the above vision image,
A separation section is provided to remove noise excluding the above springs through color clustering.
The above-mentioned determination unit determines the color and size of the spring by analyzing the image of the spring from which noise has been removed,
The above-mentioned determining unit is a distinguishing device that determines the model name of the oven that matches the color and size of the spring.
상기 비전 이미지의 분석을 통해 상기 오븐 외곽의 직선 성분을 탐색하는 탐색부가 마련되고,
복수의 상기 직선 성분이 서로 만나는 지점을 상기 오븐의 모서리로 추출하는 추출부가 마련되며,
상기 모서리를 기준으로 상기 오븐의 라벨 부착 위치를 산정하는 산정부가 마련되고,
상기 산정부는 상기 판별부로부터 상기 오븐의 모델명을 입수하며,
상기 산정부는 상기 모델명에 따라 달라지는 상기 라벨 부착 위치를 상기 모델명에 맞춰 산정하고,
상기 산정부는 상기 라벨을 부착하는 부착 로봇과 상기 비전 이미지를 촬영 생성하는 카메라의 위치 관계를 정의하는 연계 데이터를 생성하며,
상기 산정부는 상기 연계 데이터를 이용하여 상기 부착 로봇의 인식 좌표를 캘리브레이션하고,
상기 산정부는 캘리브레이션이 완료된 상기 부착 로봇에 상기 라벨 부착 위치를 전송하는 구분 장치.
In the first paragraph,
A search unit is provided to search for straight line components outside the oven through analysis of the above vision image,
An extraction unit is provided to extract the point where the plurality of straight line components meet each other to the corner of the oven,
A calculation unit is provided to calculate the label attachment position of the oven based on the above corner,
The above calculation unit obtains the model name of the oven from the above judgment unit,
The above calculation department calculates the label attachment location, which varies depending on the above model name, according to the above model name.
The above-mentioned calculation unit generates linked data that defines the positional relationship between the attachment robot that attaches the label and the camera that captures and generates the vision image.
The above-mentioned calculation unit calibrates the recognition coordinates of the above-mentioned attachment robot using the above-mentioned linked data,
The above-mentioned mountain government is a distinguishing device that transmits the label attachment position to the above-mentioned attachment robot for which calibration has been completed.
상기 비전 이미지의 관심 영역(ROI, Region Of Interest)에서 상기 오븐 상부 외곽의 직선 성분, 상기 오븐 측부 외곽의 직선 성분을 탐색하는 탐색부가 마련되고,
상기 오븐 상부 외곽의 직선 성분과 상기 오븐 측부 외곽의 직선 성분의 교차점을 상기 비전 이미지 상에서 설정하는 추출부가 마련되며,
상기 비전 이미지의 픽셀당 실제 길이를 파악하는 산정부가 마련되고,
상기 산정부는 상기 픽셀당 실제 길이를 이용하여 상기 교차점의 실제 위치를 산정하며,
상기 산정부는 상기 모델명과 상기 모서리의 실제 위치를 기준으로 상기 오븐의 라벨 부착 위치를 산정하는 구분 장치.
In the first paragraph,
A search unit is provided to search for a straight line component of the upper outer periphery of the oven and a straight line component of the outer periphery of the side of the oven in the region of interest (ROI) of the above vision image.
An extraction unit is provided to set the intersection point of the straight line component of the upper outer periphery of the oven and the straight line component of the side outer periphery of the oven on the vision image,
A calculation unit is provided to determine the actual length per pixel of the above vision image,
The above calculation unit calculates the actual location of the intersection using the actual length per pixel,
The above calculation unit is a distinguishing device that calculates the label attachment position of the oven based on the above model name and the actual position of the above corner.
오븐의 도어 힌지의 3차원 비전 이미지를 획득하는 획득 단계;
상기 비전 이미지에 포함된 힌지의 스프링의 색상 및 크기에 매칭되는 상기 오븐의 모델명을 판별하는 판별 단계;
상기 비전 이미지에 포함된 상기 오븐 외곽의 직선 성분 복수개가 서로 만나는 지점을 상기 오븐의 모서리로 추출하고, 상기 모델명과 상기 모서리를 기준으로 상기 오븐의 라벨 부착 위치를 산정하는 산정 단계;
를 포함하는 구분 방법.In a classification method performed by a classification device,
An acquisition step for acquiring a three-dimensional vision image of the door hinge of an oven;
A determination step of determining the model name of the oven matching the color and size of the spring of the hinge included in the above vision image;
A calculation step of extracting a point where a plurality of straight line components of the outer periphery of the oven included in the vision image meet each other as a corner of the oven, and calculating a label attachment position of the oven based on the model name and the corner;
A method of distinction that includes:
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
KR1020230013165A KR20240120823A (en) | 2023-01-31 | 2023-01-31 | Apparatus and method for distinguishing colors of oven hinges by applying AI-based machine vision technology |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
KR1020230013165A KR20240120823A (en) | 2023-01-31 | 2023-01-31 | Apparatus and method for distinguishing colors of oven hinges by applying AI-based machine vision technology |
Publications (1)
Publication Number | Publication Date |
---|---|
KR20240120823A true KR20240120823A (en) | 2024-08-08 |
Family
ID=92378082
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
KR1020230013165A KR20240120823A (en) | 2023-01-31 | 2023-01-31 | Apparatus and method for distinguishing colors of oven hinges by applying AI-based machine vision technology |
Country Status (1)
Country | Link |
---|---|
KR (1) | KR20240120823A (en) |
Citations (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR100674728B1 (en) | 2005-10-20 | 2007-01-25 | 엘지전자 주식회사 | Door hinge of oven |
-
2023
- 2023-01-31 KR KR1020230013165A patent/KR20240120823A/en unknown
Patent Citations (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR100674728B1 (en) | 2005-10-20 | 2007-01-25 | 엘지전자 주식회사 | Door hinge of oven |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
WO2021047232A1 (en) | Interaction behavior recognition method, apparatus, computer device, and storage medium | |
CN105574527B (en) | A kind of quick object detecting method based on local feature learning | |
JP6791864B2 (en) | Barcode tag detection in side view sample tube images for laboratory automation | |
CN111461133B (en) | Express delivery surface single item name identification method, device, equipment and storage medium | |
KR102043898B1 (en) | Auto picking system and method for automatically picking using the same | |
WO2020052352A1 (en) | Method and device for damage segmentation of vehicle damage image | |
CN111126393A (en) | Vehicle appearance refitting judgment method and device, computer equipment and storage medium | |
CN111178252A (en) | Multi-feature fusion identity recognition method | |
CN110599463B (en) | Tongue image detection and positioning algorithm based on lightweight cascade neural network | |
JP2023134688A (en) | System and method for detecting and classifying pattern in image with vision system | |
EP4189593A1 (en) | Identifying and grading system and related methods for collectable items | |
CN110619336B (en) | Goods identification algorithm based on image processing | |
CN111639629A (en) | Pig weight measuring method and device based on image processing and storage medium | |
CN115035092A (en) | Image-based bottle detection method, device, equipment and storage medium | |
CN113592839B (en) | Distribution network line typical defect diagnosis method and system based on improved fast RCNN | |
JP2023060515A (en) | Method for detecting defect, defect detection system, and defect detection program | |
CN111950556A (en) | A detection method of number plate printing quality based on deep learning | |
CN112150398B (en) | Image synthesis method, device and equipment | |
CN114359865A (en) | Obstacle detection method and related device | |
CN117474924B (en) | Label defect detection method based on machine vision | |
KR20240120823A (en) | Apparatus and method for distinguishing colors of oven hinges by applying AI-based machine vision technology | |
JP2019219901A (en) | Information processing system | |
CN110969135B (en) | Vehicle logo recognition method in natural scene | |
CN113269234A (en) | Connecting piece assembly detection method and system based on target detection | |
CN118135179A (en) | Cascade identification method and device for cutting plate, computer equipment and storage medium |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PA0109 | Patent application |
Patent event code: PA01091R01D Comment text: Patent Application Patent event date: 20230131 |
|
PA0201 | Request for examination |
Patent event code: PA02011R01I Patent event date: 20230131 Comment text: Patent Application |
|
PG1501 | Laying open of application |