KR101813223B1 - Method and apparatus for detecting and classifying surface defect of image - Google Patents
Method and apparatus for detecting and classifying surface defect of image Download PDFInfo
- Publication number
- KR101813223B1 KR101813223B1 KR1020160057685A KR20160057685A KR101813223B1 KR 101813223 B1 KR101813223 B1 KR 101813223B1 KR 1020160057685 A KR1020160057685 A KR 1020160057685A KR 20160057685 A KR20160057685 A KR 20160057685A KR 101813223 B1 KR101813223 B1 KR 101813223B1
- Authority
- KR
- South Korea
- Prior art keywords
- image data
- image
- region
- value
- pixel
- Prior art date
Links
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/0002—Inspection of images, e.g. flaw detection
- G06T7/0004—Industrial image inspection
- G06T7/001—Industrial image inspection using an image reference approach
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01N—INVESTIGATING OR ANALYSING MATERIALS BY DETERMINING THEIR CHEMICAL OR PHYSICAL PROPERTIES
- G01N21/00—Investigating or analysing materials by the use of optical means, i.e. using sub-millimetre waves, infrared, visible or ultraviolet light
- G01N21/84—Systems specially adapted for particular applications
- G01N21/88—Investigating the presence of flaws or contamination
- G01N21/8803—Visual inspection
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/0002—Inspection of images, e.g. flaw detection
- G06T7/0004—Industrial image inspection
- G06T7/0008—Industrial image inspection checking presence/absence
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/30—Determination of transform parameters for the alignment of images, i.e. image registration
- G06T7/33—Determination of transform parameters for the alignment of images, i.e. image registration using feature-based methods
Landscapes
- Engineering & Computer Science (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Theoretical Computer Science (AREA)
- Quality & Reliability (AREA)
- Chemical & Material Sciences (AREA)
- Life Sciences & Earth Sciences (AREA)
- Health & Medical Sciences (AREA)
- Analytical Chemistry (AREA)
- Biochemistry (AREA)
- General Health & Medical Sciences (AREA)
- Immunology (AREA)
- Pathology (AREA)
- Image Processing (AREA)
- Image Analysis (AREA)
- Investigating Materials By The Use Of Optical Means Adapted For Particular Applications (AREA)
Abstract
본 발명은 영상 데이터 표면의 결함을 검출하고 분류하는 방법에 관한 것으로, 특정 픽셀 영역에서 각 픽셀간의 차이점은 강조하고, 유사점은 제거하는 인접차이 필터를 이용한 필터링을 통해 영상 표면의 결함을 검출하고, 필터링된 영상의 결함을 알고리즘을 이용하여 각 특징별로 분류하는 방법을 개시한다.The present invention relates to a method of detecting and classifying defects on a surface of an image data, the method comprising the steps of: detecting a defect on an image surface through filtering using an adjacent difference filter for emphasizing differences between pixels in a specific pixel region, A method for classifying defects of a filtered image by each feature using an algorithm is disclosed.
Description
본 발명은 영상 표면의 결함을 검출하고 분류하는 방법 및 장치에 관한 것으로, 보다 구체적으로는 특정 픽셀 영역간의 차이점은 강조하고, 유사점은 제거하는 인접차이 필터로 필터링하여 결함을 검출하고, 필터링된 영상 데이터에서 특징 값을 추출하여 각 결함을 종류별로 분류하는 방법 및 장치에 관한 것이다.The present invention relates to a method and apparatus for detecting and classifying defects on an image surface and more particularly to detecting defects by filtering with an adjacent difference filter emphasizing differences between specific pixel regions and eliminating similarities, And a method and apparatus for extracting feature values from data and classifying the defects by type.
최근에, 모바일 디스플레이 산업이 급격히 성장하면서 디스플레이 패널 모듈과 그 생산 방법이 새로운 형태로 전개됨에 따라, 디스플레이 표면의 품질을 판단하는데 있어서도 고해상도 카메라 및 다양한 형태의 조명이 적용되고 있다. 그러나, 도 1에서 볼 수 있는 바와 같이 다양한 조명 위치 및 각도에 따른 카메라로 획득된 영상은 상호간에 편차가 발생하는 문제점 때문에 영역별로 검사 영역을 여러 개 설정하여 관련 파라미터들을 각각 달리 설정해야 했었다.Recently, with the rapid growth of the mobile display industry, a display panel module and a production method thereof have been developed in a new form, so that a high resolution camera and various types of illumination are being applied to judge the quality of a display surface. However, as can be seen from FIG. 1, the image obtained by the camera according to various illumination positions and angles has a problem that a deviation occurs between the images.
이로 인해, 조명이나 카메라 각도가 변할 때마다 기술자가 계속적으로 파라미터 설정에 개입하게 됨으로써 정확한 파라미터 설정이 어렵고, 생산성도 저하되는 문제점이 있었다.As a result, every time the illumination or the camera angle changes, the technician continuously intervenes in the parameter setting, making it difficult to accurately set the parameters and the productivity is lowered.
또한, 정확하게 파라미터가 설정되었다고 하더라도, 고집적 디스플레이 부품류의 경우에는 텍스처 패턴이 존재하고, 표면에 존재하는 결함을 검출하기 위해서는 텍스처 패턴과 결함을 구분할 수 있어야 하지만, 도 2에서 볼 수 있는 바와 같이 텍스처의 패턴과 결함의 유사성으로 인해 양품을 불량품으로 인식하는 문제점도 있었다.In addition, even if the parameters are correctly set, in the case of highly integrated display parts, there is a texture pattern, and in order to detect defects present on the surface, it is necessary to be able to distinguish the defect from the texture pattern. However, There is a problem that the good product is recognized as a defective product due to the similarity between the pattern and the defect.
본 발명은 상기와 같은 종래 기술의 문제점을 해결하기 위해 창안된 것으로, SUMMARY OF THE INVENTION The present invention has been made in view of the above problems,
텍스처 패턴과 결함을 구분하여 추출가능하고, 또한 국부적 조명차이, 상이한 조명 및 카메라 각도에서도 적용 영역을 구분하거나 추가 설정하지 않고 결함 영역만을 추출할 수 있는 인접차이 필터를 제안한다.We propose a neighboring difference filter which can extract the texture pattern and defects separately and extract only the defective area without distinguishing or adding the application areas even in local illumination difference, different illumination and camera angle.
또한, 상기 인접차이 필터로 필터링된 영상 표면 결함의 특징 값을 추출하여 결함의 종류를 쉽게 분류하는 방법을 제안한다. Also, a method of easily classifying types of defects by extracting characteristic values of image surface defects filtered by the adjacent difference filter is proposed.
상기 과제를 해결하기 위한 본 발명에 따른 영상 표면 결함 검출 및 분류 방법에 있어서,According to an aspect of the present invention, there is provided a method of detecting and classifying an image surface defect,
영상 센서에 의하여 획득된 영상 데이터를 수신하는 단계; 및 상기 영상 데이터의 픽셀 중 적어도 일부를 인접차이 필터(NDF: Neighboring Difference Filter)와 합성곱(convolution)을 수행하는 필터링 단계를 포함하되, 상기 인접차이 필터는, 상기 영상 데이터의 픽셀 중 특정 영역을 상기 특정 영역으로부터 소정의 거리만큼 이격된 영역과 비교하여, 그 픽셀 값의 차이가 강조되도록 하는 필터일 수 있다.Receiving image data obtained by an image sensor; And a filtering step of performing at least a part of the pixels of the image data with a Neighboring Difference Filter (NDF), wherein the neighboring difference filter is a filter for filtering a specific area of pixels of the image data And may be a filter that compares a difference in the pixel value with an area spaced from the specific area by a predetermined distance.
또한, 상기 필터링 단계는, 상기 영상 데이터의 각 픽셀이 복수의 서브 픽셀을 포함하는 경우, 동일한 종류의 서브 픽셀만을 가지도록, 상기 영상 데이터를 복수의 서브 영상 데이터로 구분하는 단계; 각각의 서브 영상 데이터의 픽셀 중 적어도 일부를 상기 인접차이 필터와 합성곱을 수행하는 단계; 및 합성곱을 수행한 각 서브 영상 데이터를 하나의 영상 데이터로 변환하는 단계를 더 포함할 수 있다.The filtering may further include dividing the image data into a plurality of sub image data so that each pixel of the image data includes a plurality of sub pixels, Performing at least a portion of pixels of each sub-image data with the adjacent difference filter; And converting each sub-image data obtained by performing the composite multiplication into one image data.
또한, 상기 필터링 단계는, 상기 영상 데이터의 각 픽셀이 복수의 서브 픽셀을 포함하는 경우, 각 픽셀에 포함된 복수의 서브 픽셀을 하나의 픽셀로 변환하는 단계; 및 상기 영상 데이터의 변환된 픽셀 중 적어도 일부를 상기 인접차이 필터와 합성곱을 수행하는 단계를 더 포함할 수 있다.The filtering may further include converting a plurality of subpixels included in each pixel into one pixel when each pixel of the image data includes a plurality of subpixels; And performing a synthesizing multiplication of at least a part of the converted pixels of the image data with the adjacent difference filter.
또한, 상기 영상 표면 결함 검출 및 분류 방법은, 소정의 임계값을 설정하여, 상기 영상 표면의 결함 중 상기 영상의 배경보다 명도가 낮은 영역 또는 명도가 높은 영역으로 구분하여 표시하는 단계를 더 포함할 수 있다.The image surface defect detection and classification method may further include the step of setting a predetermined threshold value to display a region having a lower brightness level or a higher brightness level than the background of the image among the defects of the image surface .
바람직하게는, 상기 영상 표면 결함 검출 및 분류 방법은, 필터링된 영상 데이터의 특징 값을 추출하는 특징 추출 단계; 및 추출된 특징 값을 결함 종류 DB와 비교하여 상기 영상 데이터의 결함을 분류하는 단계를 더 포함할 수 있다.Preferably, the image surface defect detection and classification method includes: a feature extraction step of extracting feature values of filtered image data; And comparing the extracted feature value with a defect type DB to classify the defect of the image data.
또한, 상기 특징 추출 단계는, 상기 필터링된 영상 데이터의 기하학적 특징, 통계적 특징, 강도(intensity) 특징 및 텍스처 특징 중 적어도 일부를 추출할 수 있다.In addition, the feature extraction step may extract at least a part of the geometric feature, the statistical feature, the intensity feature, and the texture feature of the filtered image data.
또한, 상기 특징 추출 단계는, 필터링된 영상 데이터의 각 픽셀로부터 동시발생 행렬(co-occurrence matrix)를 산출하는 단계; 및 산출된 동시발생 행렬을 이용하여 상기 필터링된 영상 데이터의 정량적 특징 값을 추출하는 단계를 더 포함할 수 있다.The feature extraction step may further include: calculating a co-occurrence matrix from each pixel of the filtered image data; And extracting a quantitative feature value of the filtered image data using the calculated concurrent matrices.
또한, 상기 영상 표면 결함 검출 및 분류 방법은, 상기 추출된 특징 값 및 분류된 결과를 이용하여 상기 결함 종류 DB를 업데이트하는 단계를 더 포함할 수도 있다.The image surface defect detection and classification method may further include updating the defect type DB using the extracted feature value and the classified result.
또한, 상기 인접차이 필터는, 제1 영역, 상기 제1 영역을 둘러싼 제2 영역, 상기 제2 영역을 둘러싼 제3 영역을 포함하는 정방형 행렬이며, 상기 제1 영역 내 원소의 값은 양의 값이고, 상기 제2 영역 내 원소의 값은 0이고, 상기 제3 영역 내 원소의 값은 음의 값일 수 있다.The adjacent difference filter is a square matrix including a first region, a second region surrounding the first region, and a third region surrounding the second region, and the value of the element in the first region is a positive value , The value of the element in the second region is 0, and the value of the element in the third region may be a negative value.
바람직하게는, 상기 인접차이 필터는, 상기 제1 영역의 크기는 L by L이고, 상기 제1 영역 및 제2 영역을 합한 영역의 크기는 (2M+L) by (2M+L)이고, 상기 제1 영역, 제2 영역 및 제3 영역을 합한 영역의 크기는 (2N+2M+L) by (2N+2M+L)이며, 상기 제1 영역 내 원소의 값은 1/(L^2)이고, 상기 제3 영역 내 원소의 값은 -1/(4N*(L+2M+N))일 수 있다.Preferably, the adjacent difference filter is a (2M + L) by (2M + L) size of the first region and a size of the first region and the second region is L by L, (2N + 2M + L) by (2N + 2M + L), the value of the element in the first region is 1 / (L ^ 2), and the size of the first region, the second region, , And the value of the element in the third region may be -1 / (4N * (L + 2M + N)).
상기 과제를 해결하기 위한 본 발명에 따른 영상 표면 결함 검출 및 분류 장치에 있어서,According to an aspect of the present invention, there is provided an image surface defect detection and classification apparatus,
영상 센서에 의하여 획득된 영상 데이터를 수신하는 영상 데이터 수신부; 상기 영상 데이터의 픽셀 중 적어도 일부를 인접차이 필터(NDF: Neighboring Difference Filter)와 합성곱(convolution)을 수행하는 필터링부; 필터링된 영상 데이터의 특징 값을 추출하고 추출된 특징 값을 결함 종류 DB와 비교하여 상기 영상 데이터의 결함을 분류하는 처리부; 및 상기 결함 정보 DB가 저장된 메모리부를 포함하되, 상기 인접차이 필터는, 상기 영상 데이터 픽셀 중 특정 영역을 상기 특정 영역으로부터 소정의 거리만큼 이격된 영역과 비교하여, 그 픽셀 값의 차이가 강조되도록 하는 필터일 수 있다.An image data receiving unit for receiving image data obtained by an image sensor; A filtering unit for performing at least a part of pixels of the image data with a Neighboring Difference Filter (NDF); A processor for extracting feature values of the filtered image data and comparing the extracted feature values with a defect type DB to classify defects of the image data; And a memory unit in which the defect information DB is stored, wherein the proximity difference filter compares a specific area of the image data pixels with a predetermined distance from the specific area to emphasize the difference of the pixel value Filter.
본 발명에 따른 인접차이 필터를 이용하여 텍스처 패턴을 제외한 영상 표면의 결함을 보다 정확하게 검출할 수 있고,The defect of the image surface excluding the texture pattern can be more accurately detected using the adjacent difference filter according to the present invention,
영상 표면 결함의 특징 값을 추출하여 결함의 종류를 쉽게 분류할 수 있다.It is possible to easily classify types of defects by extracting feature values of image surface defects.
본 발명에 관한 이해를 돕기 위해 상세한 설명의 일부로 포함되는, 첨부도면은 본 발명에 대한 실시예를 제공하고, 상세한 설명과 함께 본 발명의 기술적 사상을 설명한다.
도 1은 종래 디스플레이 표면 검사시, 조명의 위치 및 각도에 따라 편차가 발생하는 문제점을 도시한 것이다.
도 2는 종래 디스플레이의 텍스처 패턴과 결함을 구분하지 못하여, 양품을 불량품으로 인식하는 문제점의 일례를 도시한 것이다.
도 3은 본 발명에 따른 영상 표면의 결함 검출 및 분류 방법의 순서를 도시한 것이다.
도 4는 본 발명에 따른 인접차이 필터의 제작 원리를 설명하기 위한 것이다.
도 5는 본 발명에 따른 인접차이 필터(NDF)를 도시한 것이다.
도 6은 본 발명에 따른 인접차이 필터(NDF)의 구체적 제작 예를 도시한 것이다.
도 7은 명암에 따라 선택적으로 추출된 영상 표면 결함의 일례를 도시한 것이다.
도 8은 영상 표면 결함에 대한 샘플 영상이다.
도 9는 상기 도 8의 샘플 영상을 인접차이 필터로 필터링한 결과를 도시한 것이다.
도 10은 특징 값들의 수에 따른 상기 3-CV 데이터 세트의 피트니스 값(fitness values)과 임의 선택된 트레이닝 세트 및 테스트 세트의 정확성(accuracy) 값의 그래프를 도시한 것이다.
도 11은 종래 필터링 방법과 본 발명에 따른 필터링 방법의 성능을 비교한 것이다.
도 12는 영상 데이터에 PCA(Principal Components Analysis)를 적용한 결과를 도시한 것이다.
도 13은 random forest의 트리 수에 따른 성능 그래프를 도시한 것이다.
도 14는 본 발명에 따른 영상 표면 결함 검출 및 분류 장치의 구성을 도시한 것이다.BRIEF DESCRIPTION OF THE DRAWINGS The accompanying drawings, which are included to provide a further understanding of the invention and are incorporated in and constitute a part of the specification, illustrate embodiments of the invention and, together with the description, serve to explain the principles of the invention.
FIG. 1 shows a problem that a deviation occurs according to the position and angle of an illumination in the conventional display surface inspection.
FIG. 2 shows an example of a problem of recognizing a good product as a defective product because the defect can not be distinguished from the texture pattern of the conventional display.
FIG. 3 is a flowchart illustrating a method of detecting and classifying defects on an image surface according to the present invention.
4 is a view for explaining the manufacturing principle of an adjacent difference filter according to the present invention.
Figure 5 shows a proximity difference filter (NDF) according to the present invention.
6 shows a specific example of the production of an adjacent difference filter (NDF) according to the present invention.
FIG. 7 shows an example of image surface defects selectively extracted according to contrast.
8 is a sample image of an image surface defect.
FIG. 9 shows a result of filtering the sample image of FIG. 8 with an adjacent difference filter.
Figure 10 shows a graph of fitness values of the 3-CV data set according to the number of feature values and an accuracy value of an arbitrarily selected training set and test set.
11 compares the performance of the conventional filtering method and the filtering method according to the present invention.
FIG. 12 shows a result of applying PCA (Principal Components Analysis) to image data.
FIG. 13 shows a performance graph according to the number of trees of a random forest.
FIG. 14 shows a configuration of an image surface defect detection and classification apparatus according to the present invention.
본 발명은 다양한 변환을 가할 수 있고 여러 가지 실시예를 가질 수 있는 바, 이하에서는 특정 실시예들을 첨부된 도면을 기초로 상세히 설명하고자 한다.BRIEF DESCRIPTION OF THE DRAWINGS The present invention is capable of various modifications and various embodiments, and specific embodiments will be described in detail below with reference to the accompanying drawings.
이하의 실시예는 본 명세서에서 기술된 방법, 장치 및/또는 시스템에 대한 포괄적인 이해를 돕기 위해 제공된다. 그러나 이는 예시에 불과하며 본 발명은 이에 제한되지 않는다.The following examples are provided to aid in a comprehensive understanding of the methods, apparatus, and / or systems described herein. However, this is merely an example and the present invention is not limited thereto.
본 발명의 실시예들을 설명함에 있어서, 본 발명과 관련된 공지기술에 대한 구체적인 설명이 본 발명의 요지를 불필요하게 흐릴 수 있다고 판단되는 경우에는 그 상세한 설명을 생략하기로 한다. 그리고, 후술되는 용어들은 본 발명에서의 기능을 고려하여 정의된 용어들로서 이는 사용자, 운용자의 의도 또는 관례 등에 따라 달라질 수 있다. 그러므로 그 정의는 본 명세서 전반에 걸친 내용을 토대로 내려져야 할 것이다. 상세한 설명에서 사용되는 용어는 단지 본 발명의 실시 예들을 기술하기 위한 것이며, 결코 제한적이어서는 안 된다. 명확하게 달리 사용되지 않는 한, 단수 형태의 표현은 복수 형태의 의미를 포함한다. 본 설명에서, "포함" 또는 "구비"와 같은 표현은 어떤 특성들, 숫자들, 단계들, 동작들, 요소들, 이들의 일부 또는 조합을 가리키기 위한 것이며, 기술된 것 이외에 하나 또는 그 이상의 다른 특성, 숫자, 단계, 동작, 요소, 이들의 일부 또는 조합의 존재 또는 가능성을 배제하도록 해석되어서는 안 된다.DETAILED DESCRIPTION OF THE PREFERRED EMBODIMENTS Hereinafter, exemplary embodiments of the present invention will be described in detail with reference to the accompanying drawings. In the following description, well-known functions or constructions are not described in detail since they would obscure the invention in unnecessary detail. The following terms are defined in consideration of the functions of the present invention, and may be changed according to the intention or custom of the user, the operator, and the like. Therefore, the definition should be based on the contents throughout this specification. The terms used in the detailed description are intended only to describe embodiments of the invention and should in no way be limiting. Unless specifically stated otherwise, the singular forms of the expressions include plural forms of meanings. In this description, the expressions "comprising" or "comprising" are intended to indicate certain features, numbers, steps, operations, elements, parts or combinations thereof, Should not be construed to preclude the presence or possibility of other features, numbers, steps, operations, elements, portions or combinations thereof.
또한, 제1, 제2 등의 용어는 다양한 구성요소들을 설명하는데 사용될 수 있지만, 상기 구성요소들은 상기 용어들에 의해 한정되는 것은 아니며, 상기 용어들은 하나의 구성요소를 다른 구성요소로부터 구별하는 목적으로만 사용된다.It is also to be understood that the terms first, second, etc. may be used to describe various components, but the components are not limited by the terms, and the terms may be used to distinguish one component from another .
이하에서는, 본 발명에 따른 자기전기 힘 현미경의 예시적인 실시 형태들을 첨부된 도면을 참조하여 상세히 설명한다.Hereinafter, exemplary embodiments of a magneto-electric force microscope according to the present invention will be described in detail with reference to the accompanying drawings.
도 3은 본 발명에 따른 영상 표면의 결함 검출 및 분류 방법의 순서를 도시한 것이다.FIG. 3 is a flowchart illustrating a method of detecting and classifying defects on an image surface according to the present invention.
도 3에서 볼 수 있는 바와 같이, 본 발명에 따른 영상 표면의 결함 검출 및 분류 방법은 영상 데이터를 수신하는 단계(S310), 수신된 영상을 필터링하는 단계(S320) 및 영상 데이터의 결함 특징을 추출하는 단계(S330)를 포함할 수 있다.As shown in FIG. 3, the defect detection and classification method of the image surface according to the present invention includes a step S310 of receiving image data, a step S320 of filtering the received image, (Step S330).
먼저, S310 단계에서 영상 표면 결함 검출 및 분류 장치(100)는 카메라, 스캐너, 현미경 등의 영상 센서로부터 영상 데이터를 수신한다.First, in step S310, the image surface defect detection and
S320 단계에서는 수신된 영상 데이터에서 결함 검출이 용이하도록 필터링한다. 상기 필터링은 본 발명에 따른 인접차이 필터(NDF: Neighboring Difference Filter)를 이용하여 아래의 수학식 1과 같이 상기 영상 데이터의 픽셀 값을 합성곱(convolution)하는 방법으로 수행할 수 있다.In step S320, the image data is filtered to facilitate defect detection. The filtering may be performed by convoluting pixel values of the image data using a neighboring difference filter (NDF) according to the present invention as shown in
[수학식 1][Equation 1]
여기서, H x W는 영상 데이터의 크기이고, V(x, y)는 (x, y)지점을 기준으로 한 영상 패치를 의미한다.Here, H x W is the size of the image data, and V (x, y) is the image patch based on the (x, y) point.
또한, 영상 데이터 중 컬러영상에 대한 데이터는 하나의 픽셀에 복수의 서브 픽셀을 포함할 수 있다. 예를 들어, RGB 영상은 Red, Green, Blue의 서브 픽셀을 포함한다. 이러한 경우, 두 가지 방법으로 본 발명에 따른 필터링 단계를 수행할 수 있다. 설명의 편의를 위해, 서브 픽셀을 포함하는 영상은 RGB 영상으로 가정하고, 이하 설명한다In addition, the data for the color image among the image data may include a plurality of subpixels in one pixel. For example, an RGB image includes red, green, and blue subpixels. In this case, the filtering step according to the present invention can be performed in two ways. For convenience of explanation, it is assumed that an image including a sub-pixel is an RGB image, and is described below
첫 번째로, 영상 데이터를 각각 Red 서브 픽셀, Green 서브 픽셀, Blue 서브 픽셀만을 가지는 3개의 서브 영상 데이터로 구분하고, 각 서브 영상 데이터에 대하여 인접차이 필터로 필터링한 후, 필터링된 각각의 서브 영상 데이터를 다시 그레이 레벨로 변환할 수 있다.First, the image data is divided into three sub-image data having only Red sub-pixels, Green sub-pixels, and Blue sub-pixels, and each sub-image data is filtered with an adjacent difference filter. Then, Data can be converted back to gray level.
두 번째로, 영상 데이터의 각 픽셀의 Red 서브 픽셀, Green 서브 픽셀, Blue 서브 픽셀을 하나의 그레이 레벨 픽셀로 변환한 후, 인접차이 필터로 필터링할 수도 있다. 각각의 RGB 서브 픽셀을 그레이 레벨로 변환하는 방법은 예를 들어, 그레이 레벨 픽셀 값 = 0.299R+0.587G+0.114B 등의 식을 이용하여 변환할 수 있다.Secondly, the Red subpixel, the Green subpixel, and the Blue subpixel of each pixel of the image data may be converted into one gray-level pixel, and then filtered by the adjacent difference filter. A method of converting each RGB subpixel to a gray level can be performed using, for example, an equation such as gray level pixel value = 0.299R + 0.587G + 0.114B.
이하, 도 4 내지 도 6을 이용하여 본 발명에 따른 인접차이 필터를 보다 상세히 설명한다.Hereinafter, the neighborhood difference filter according to the present invention will be described in more detail with reference to FIGS. 4 to 6. FIG.
도 4는 본 발명에 따른 인접차이 필터의 제작 원리를 설명하기 위한 것이다.4 is a view for explaining the manufacturing principle of an adjacent difference filter according to the present invention.
본 발명에 따른 인접차이 필터의 핵심 아이디어는 영상 데이터의 각 픽셀간에 차이점은 강조하고 유사점은 제거하기 위해 전략적으로 특정 영역의 픽셀을 소정의 거리만큼 이격된 영역의 픽셀과 비교하는 방법이다.The key idea of the neighborhood difference filter according to the present invention is a method of strategically comparing pixels of a specific region with pixels of a region spaced by a predetermined distance in order to emphasize the difference between each pixel of the image data and remove similarities.
도 4(a)에서 볼 수 있는 바와 같이 인접한 영상 패치끼리는 상호간에 유사한 패턴을 나타낸다. 또한, 도 4(b)에서 볼 수 있는 바와 같이 레퍼런스 영상 패치와 유사하지 않은 픽셀 값을 갖는 영상 패치일수록 상기 레퍼런스 영상 패치로부터 멀리 떨어져 있음을 의미한다. 즉, 텍스처 패턴을 포함하는 영상에서 각각의 픽셀을 비교하는 경우, 픽셀 단위로는 그 특성을 파악하기 어려우나 영상 패치 단위로 비교할 경우 인접한 영역은 유사한 영상 패치가 반복된 것으로 볼 수 있다.As can be seen in FIG. 4 (a), adjacent image patches exhibit a similar pattern to each other. Also, as can be seen from FIG. 4 (b), an image patch having a pixel value that is not similar to the reference image patch is farther away from the reference image patch. That is, when each pixel is compared with an image including a texture pattern, it is difficult to grasp the characteristics of each pixel, but when compared with an image patch unit, it can be seen that a similar image patch is repeated in the adjacent region.
그러므로, 상기 영상 데이터 픽셀 중 특정 영역을 상기 특정 영역으로부터 소정의 픽셀 거리만큼 이격된 영역과 비교하여, 그 픽셀 값의 차이가 강조되도록 하는 본 발명에 따른 인접차이 필터를 설계하는 것을 목표로 할 수 있다.Therefore, it may be aimed to design an adjacent difference filter according to the present invention in which a specific area of the image data pixels is compared with an area spaced by a predetermined pixel distance from the specific area so that the difference of the pixel value is emphasized have.
여기서, 영상 패치라함은 영상 데이터의 전체 픽셀 영역 중 소정의 범위에 속한 픽셀 영역을 의미한다.Here, the image patch means a pixel region belonging to a predetermined range among the entire pixel regions of the image data.
도 5는 본 발명에 따른 인접차이 필터(NDF)의 일례를 도시한 것이다.5 shows an example of an adjacent difference filter (NDF) according to the present invention.
도 5에서 볼 수 있는 바와 같이, 본 발명에 따른 인접차이 필터는 정방형의 행렬로서, 원소 값이 인 제1 영역, 상기 제1 영역을 둘러싸고 원소 값이 0인 제2 영역, 상기 제2 영역을 둘러싸고 원소 값이 인 제3 영역으로 구분될 수 있다. 여기서,, , 로 정의된다.As can be seen in Figure 5, the neighborhood difference filter according to the present invention is a square matrix, A second region surrounding the first region and having an element value of 0, an element value surrounding the second region, And a third region, which is the second region. here, , , .
도 6은 본 발명에 따른 인접차이 필터(NDF)의 구체적 제작 예를 도시한 것이다.6 shows a specific example of the production of an adjacent difference filter (NDF) according to the present invention.
도 6(b)는 l=3, m=2, n=2로 결정하여 , , 인 인접차이 필터이다.6 (b), l = 3, m = 2 and n = 2 are determined , , Lt; / RTI >
추가적으로, 필터링된 영상 데이터는 아래의 수학식 2를 이용하여 영상 표면의 결함 중 상기 영상의 배경과 비교하여 상대적으로 어두운 영역 또는 밝은 영역을 구분하여 표시할 수도 있다.In addition, the filtered image data may be classified into a relatively dark region or a bright region by comparing the background of the image of the defects on the image surface using Equation (2) below.
[수학식 2]&Quot; (2) "
T는 threshold값이며 항상 0보다 크다. p∈{-1, 0, 1}는 영상 정규화 파라미터이며, 결함의 밝기가 주변영역보다 밝은 경우(p=1), 어두운 경우(p=-1) 또는 두 경우 모두(p=0)를 선택적으로 추출할 수 있다.T is the threshold value and is always greater than zero. p ∈ {-1, 0, 1} is the image normalization parameter, and if the brightness of the defect is greater than the surrounding area (p = 1), the dark case (p = -1) .
도 7은 [수학식 2]를 이용하여 명암에 따라 선택적으로 추출된 영상 데이터의 결함의 일례를 도시한 것이다.FIG. 7 illustrates an example of a defect of image data selectively extracted according to brightness and darkness using Equation (2).
인접차이 필터가 l=10, m=10, n=10, T=70인 조건에서, 도 7(a)는 실제 이미지이고, 도 7(b)는 영상 표면의 결함 중 배경보다 어두운 부분을 추출(p=-1)한 것이고, 도 7(c)는 영상 표면의 결함 중 배경보다 밝은 부분을 추출(p=1)한 것이고, 도 7(d)는 영상 표면의 결함 중 배경보다 밝은 부분과 어두운 부분을 모두 추출(p=0)한 것이다.7 (a) is an actual image, and FIG. 7 (b) is a view showing an example in which a shadow part of the image surface is darker than the background in the condition that the adjacent difference filter is l = 10, m = 10, n = 10 and T = (p = 1). Fig. 7 (c) shows the defect of the image surface which is brighter than the background, (P = 0).
도 8은 영상 표면 결함에 대한 샘플 영상이고, 도 9는 상기 도 8의 샘플 영상을 인접차이 필터로 필터링한 결과를 도시한 것이다.FIG. 8 is a sample image of an image surface defect, and FIG. 9 is a result of filtering the sample image of FIG. 8 with an adjacent difference filter.
인접차이 필터가 l=10, m=10, n=10, T=70, p=1인 조건에서, (a)는 scratch, (b)는 Long dust, (c)는 Pit, (d)는 Circle Dust, (e)는 Stain을 나타낸 것이다. 필터링 과정을 통해 영상 표면의 결함과 배경이 분명하게 구분됨을 확인할 수 있다.(A) is scratch, (b) is long dust, (c) is Pit, and (d) is a condition where the adjacent difference filter is l = 10, m = 10, n = 10, Circle Dust, (e) represents Stain. Through the filtering process, it can be seen that the defects of the image surface are clearly distinguished from the background.
본 발명에 따른 인접차이 필터는 몇 가지 이점이 존재한다. 첫 번째로, 도 9에서 볼 수 있는 바와 같이 결함 검출에 있어서, 종래의 다른 방법들과 비교하여 강력한 성능을 보여준다. 두 번째로, 영상의 각 위치에서 이웃 픽셀과의 차이 정보를 치환함으로써 반복되는 패턴을 제거하고, 결함을 분리해낼 수 있다. 이러한 치환은 결함을 분류하는 단계에서 특징 값을 정의하기 위해 효과적으로 이용될 수 있다. 세 번째로, 영상 표면 결함에서 배경보다 밝은 영역 또는 어두운 영역을 선택적으로 구분하여 추출할 수 있다.Adjacent difference filters according to the present invention have several advantages. First, it shows robust performance in defect detection as compared to other conventional methods, as can be seen in FIG. Secondly, by replacing the difference information with neighboring pixels at each position of the image, it is possible to remove the repetitive pattern and separate the defects. Such substitution can be effectively used to define feature values in the step of classifying defects. Third, it is possible to selectively distinguish a bright region or a dark region from a background in an image surface defect.
S330 단계에서, 필터링된 영상 데이터의 결함의 특징 값을 추출한다.In step S330, a feature value of a defect of the filtered image data is extracted.
구체적으로, 본 발명에서는 기하학적(geometrical) 특징, 강도(intensity) 특징, 통계적(statistical) 특징, 텍스처(textural) 특징으로 구성되는 특징 값 세트를 제안한다. 그 중에서도 텍스처 특징은 영상 표면에 나타난 것들을 구체적으로 정의하기 위한 가장 중요한 특징 중 하나이다.Specifically, the present invention proposes a set of feature values comprising a geometrical feature, an intensity feature, a statistical feature, and a textural feature. Among them, the texture feature is one of the most important features to define specifically what appears on the image surface.
본 발명에서는 영상에 대한 특징 값을 추출하기 위해 인접차이 필터에 의해 필터링된 영상으로부터 생성되는 동시발생 행렬(co-occurrence matrix)에 근거한 텍스처 특징을 이용한다. 상기 동시발생 행렬 Pkl은 벡터(k, l) 또는 (-k, -l)을 따라 각기 다른 방향으로 d만큼 떨어진 지점에 있는 특정한 값 i와 j를 가지는 두 픽셀의 joint probability의 추정값이다. 상기 동시발생 행렬은 특정 거리에 있는 픽셀간의 명암도 분포를 나타내는 행렬이다. 상기 동시발생 행렬로부터 영상의 질감 등을 대표할 수 있는 다양한 2차 통계치들을 계산할 수 있다.In the present invention, a texture feature based on a co-occurrence matrix generated from an image filtered by an adjacent difference filter is used to extract feature values for an image. The coincidence matrix P kl is an estimate of the joint probability of two pixels having a particular value i and j at a point d apart in different directions along the vector (k, l) or (-k, -l). The co-occurrence matrix is a matrix indicating the intensity distribution between pixels at a specific distance. Various secondary statistics that can represent the texture of the image and the like can be calculated from the co-occurrence matrix.
텍스처의 측정(measurement)은 상기 동시발생 행렬에 의하고, 상기 동시발생 행렬은 아래의 [표 1]을 이용하여 산출된다. 여기서, x, y, x and y 는 각각 동시발생 행렬의 행(row)의 합 및 열(column)의 합의 평균 및 표준 편차를 의미한다. Ng는 이산 강도 레벨(discrete intensity level)의 수를 의미하고, p(i, j) = Pkl(i, j)이다.The measurement of the texture is made by the coincidence matrix, and the coincidence matrix is calculated using the following Table 1. < tb >< TABLE > here, x , y , x and y means the mean and standard deviation of the sum of the rows and the sum of the columns of the co-occurrence matrix, respectively. N g is the number of discrete intensity levels, and p (i, j) = P kl (i, j).
[표 1][Table 1]
최적의 특징값 구성하기 위하여 우선, 기하학적, 통계적, 강도(intensity) 및 텍스처 특징으로 구성되는 44개의 특징을 모두 산출한 후, 그 중에서 중요한 특징 값을 취사 선택한다. 상기 인접차이 필터에 의해 필터링된 영상의 동시발생 행렬로부터 추출된 33개의 텍스처 특징 세트는 네 가지 방향((0°, 180°), (45°, 225°), (90°, 270°), (135°, -315°))을 따라 세 가지 거리(d=1, 2, 3)의 11 textural measurement(표 1 참조)로 구성된다. 아래의 [표 2]는 인접차이 필터에 의해 필터링 된 영상으로부터 추출된 기하학적 특징(F1 ~ F6), 통계적 특징(F7, F8), 강도 특징(F9 ~ F11)으로 구성된 11개의 특징 세트를 개시한다.In order to construct optimal feature values, first, all 44 features consisting of geometric, statistical, intensity and texture features are calculated, and then important feature values are selected from among them. The 33 texture feature sets extracted from the co-occurrence matrices of the image filtered by the neighborhood difference filter are divided into four directions (0, 180, 45, 225, 90, 270, (See Table 1) of three distances (d = 1, 2, 3) along the horizontal axis (135 °, -315 °). Table 2 below shows eleven feature sets composed of geometric features F1 to F6, statistical features F7 and F8, and intensity features F9 to F11 extracted from the image filtered by the adjacent difference filter .
[표 2][Table 2]
상기 [표 1] 및 [표 2]의 방법을 통해 정량화된 특징 값을 추출하는 것이 가능하고, 추출된 값을 기계 학습 기법의 입력으로 이용하는 것이 가능하게 된다.It is possible to extract the quantified characteristic values through the methods of Table 1 and Table 2, and it becomes possible to use the extracted values as input of the machine learning technique.
모든 변수 세트를 가지고 시작하며, 중요하지 않은 것들을 연속적으로 제거하는 역방향 제거(elimination backward)에 의한 threefold cross validation(3-CV) 방법은 중요한 정보를 결정짓고, 정보의 중복을 피하기 위해 이용될 수 있다. 데이터 세트를 3개로 나누고, 데이터의 3분의 2를 임의로 선택하고 트레이닝한다. 나머지 데이터는 확인용으로 이용된다.A three-fold cross validation (3-CV) method with elimination backward that starts with all variable sets and removes nonessential ones continuously can be used to determine important information and avoid duplication of information . The data set is divided into three, two-thirds of the data are arbitrarily selected and trained. The remaining data is used for verification.
그것들의 예측 능력을 따라 변수 집합을 평가하기 위해, 각각의 시퀀스 동안에 집합의 변수를 평가하기 위한 스코어로서 피트니스 값(fitness value)을 이용한다. 상기 피트니스 값은 상기 3-CV 데이터 세트에서 평균 정확성(mean accuracy) 값의 평균이다. To evaluate a set of variables along their predictive ability, a fitness value is used as a score for evaluating the variables of the set during each sequence. The fitness value is an average of mean accuracy values in the 3-CV data set.
도 10은 특징 값들의 수에 따른 상기 3-CV 데이터 세트의 피트니스 값(fitness values)과 임의 선택된 트레이닝 세트 및 테스트 세트의 정확성(accuracy) 값의 그래프를 도시한 것이다.Figure 10 shows a graph of fitness values of the 3-CV data set according to the number of feature values and an accuracy value of an arbitrarily selected training set and test set.
도 10에 도시된 상기 특징들의 수에 따르면, 상기 피트니스 값은 마지막 8개의 특징 값들에서 급격히 떨어지기 시작한다. 그러므로, 결과값을 일정하게 유지하기 위해서는 9개 이상의 특징 값이 선택되어야 함을 확인할 수 있다. 선택된 특징들은 3개의 기하학적 특징(F1, F2, F3), 1개의 통계적 특징(F7), 2개의 강도(intensity) 특징(F10, F11) 및 3개의 텍스처 특징(Tex2 for distance=1, Tex4 for distance=3, Tex11 for distance=2)이다.According to the number of features shown in FIG. 10, the fitness value begins to fall sharply in the last eight characteristic values. Therefore, it can be confirmed that more than 9 characteristic values should be selected in order to keep the result value constant. The selected features include three geometric features F1, F2, F3, one statistical feature F7, two intensity features F10, F11 and three texture features Tex2 for distance = 1, Tex4 for distance = 3, Tex11 for distance = 2).
여기서, 트레이닝 데이터는 데이터를 분류하는 알고리즘을 만드는데 사용하는 데이터이고, 테스트 데이터는 알고리즘을 테스트하는데 사용하기 위해 구체적으로 인정된 데이터를 의미한다.Here, training data is data used to create an algorithm for classifying data, and test data means data specifically recognized for use in testing an algorithm.
추가적으로, 영상 표면의 특징 값을 추출하여, 결함을 분류하는 것에서 나아가, 상기 결함을 분류하는데 이용되는 결함 정보 DB는 학습과정을 통해 업데이트될 수도 있다.In addition, the defect information DB used to classify defects may be updated through a learning process in addition to classifying defects by extracting feature values of the image surface.
본 발명에서는 앙상블(ensemble) 학습 방법 중 하나인 random forest를 이용하여 특징 값들을 트레이닝한다. random forest는 복수 결정 트리의 세트이다. 그것은 bootstrap aggregating(bagging) 및 특징 값 bagging 프로세스로 많은 다른 트리를 트레이닝한다. 상기 bagging은 전체 트레이닝 데이터 세트로부터 임의 선택된 데이터의 부분으로 각각의 트리가 트레이닝되도록 한다. 상기 bagging 프로세스는 상기 시스템에 대한 과도한 트레이닝을 피할 수 있도록 하고, 트레이닝된 트리가 그것들끼리 서로 상관되지 않도록 한다(uncorrelated). 특징 값 bagging 프로세스는 모든 트리 노드에서 입력 특징들 중 일부를 임의로 선택하기 위하여 사용된다. 이는 트레이닝 동안에 응답 변수에 강력한 영향을 미치는 특징들에 의한 반복 효과 및 상관(correlation)을 피하기 위한 것이다. random forest는 상기 특징들을 정량화하는 방법에 따라 다양한 효과를 보여준다. In the present invention, feature values are trained using random forest, which is one of ensemble learning methods. A random forest is a set of multiple decision trees. It trains many different trees with bootstrap aggregating (bagging) and feature value bagging processes. The bagging allows each tree to be trained from a whole set of training data to a portion of arbitrarily selected data. The bagging process avoids excessive training for the system, and the trained trees are uncorrelated with each other. The feature value bagging process is used to arbitrarily select some of the input features in all tree nodes. This is to avoid repetition effects and correlation by features that strongly affect response variables during training. The random forest shows various effects depending on how to quantify the features.
다만, 영상 표면 결함의 분류 결과를 이용하여 분류 방법을 업데이트하는 방법은 random forest에 의한 방법에 국한되는 것은 아니다.However, the method of updating the classification method using the classification result of the image surface defect is not limited to the method using the random forest.
이하, 본 발명에 따른 영상 표면 결함 검출 및 분류 방법에 대한 실험 결과를 개시한다.Experimental results on image surface defect detection and classification method according to the present invention will be described below.
A. 인접차이 필터(NDF) 처리 결과A. Adjacent Difference Filter (NDF) Processing Result
아래의 표 3과 도 11을 참조하면, 본 발명에 따른 인접차이 필터의 성능을 확인할 수 있다. 필터링된 영상의 품질은 단위 이미지 당 ratio of correctly classified pixels (RCCP)에 의해 결정될 수 있다. 표 3에서 볼 수 있는 바와 같이, 본 발명에 따른 인접차이 필터에서 가장 좋은 성능을 발휘함을 확인할 수 있다.Referring to Table 3 and FIG. 11, the performance of the adjacent difference filter according to the present invention can be confirmed. The quality of the filtered image can be determined by a ratio of correctly classified pixels (RCCP) per unit image. As shown in Table 3, it can be confirmed that the best performance is obtained in the adjacent difference filter according to the present invention.
[표 3][Table 3]
B. 분류 결과B. Classification Result
데이터 세트에서의 모든 결함 종류는 숙련된 기술자에 의해 확인되었다. 트레이닝 데이터는 전체 데이터의 50%로 설정하고, 나머지 데이터는 테스트 데이터로 설정한다. 아래의 [표 4]는 각 결함의 수를 나타낸다.All types of defects in the data set were identified by a skilled engineer. The training data is set to 50% of the total data, and the remaining data is set to the test data. Table 4 below shows the number of defects.
[표 4][Table 4]
본 실험에서는 세 종류의 입력을 사용하였다. 인접차이 필터는 모든 특징 값 추출 방법에서 전처리 과정으로서 적용되었다.Three types of inputs are used in this experiment. Adjacent difference filter was applied as a preprocessing process in all feature value extraction methods.
첫 번째 방법은, multi-resolution pyramid image를 적용하는 것이다. 상기 인접차이 필터에 의해 필터링된 각 영상의 결함의 경계 직사각형의 중앙이 정렬되고, 8x8, 16x16, 32x32, 64x64 픽셀인 4개의 피라미드 이미지가 특징 값 벡터로서 이용된다.The first method is to apply a multi-resolution pyramid image. The center of the boundary rectangle of the defects of each image filtered by the adjacent difference filter is aligned and four pyramid images of 8x8, 16x16, 32x32, and 64x64 pixels are used as feature value vectors.
두 번째 방법은, 인접차이 필터에 의해 필터링된 각 영상에 principal components analysis(PCA)를 적용하는 것이다. 상기 PCA를 적용함으로써, 입력의 중복을 감소시키는 것을 예상할 수 있다. 상기 PCA는 영상을 28x28 크기로 조정한 후에 적용되고, 도 12에서 볼 수 있는 바와 같이, 특징 값 벡터로서 트레이닝하기 위해 각각 10차원 및 20 차원의 PCA 공간에 조사된다.The second method is to apply principal components analysis (PCA) to each image filtered by the neighborhood difference filter. By applying the PCA, it can be expected to reduce the redundancy of the input. The PCA is applied after adjusting the image to 28x28 size, and is applied to the PCA space of 10-dimensional and 20-dimensional, respectively, for training as a feature value vector, as can be seen in Fig.
세 번째 방법은, 본 발명에서 개시된 기하학적 특징, 강도(intensity) 특징, 통계적 특징 및 텍스처 특징으로 구성되는 특징 조합을 이용한 것이다. random forest를 이용하여 아래 표 5의 6개의 테스트 방법을 수행하고 서로 비교한다. The third method utilizes a feature combination consisting of geometric features, intensity features, statistical features and texture features disclosed in the present invention. Using the random forest, perform the six test methods in Table 5 below and compare them.
[표 5][Table 5]
본 발명에 따른 분류 방법의 성능을 점검하기 위하여 각 결함의 종류에 대하여 Precision = TP/(TP + FP), Recall = TP/(TP +FN), and Accuracy = (TP + TN)/(TP + FP + FN + TN)을 정의한다. 여기서, TP(true positives) 및 TN(true negatives)은 옳은 분류를 의미하고, FP(false positives) 및 FT(false negatives)는 틀린 분류를 의미한다. In order to check the performance of the classification method according to the present invention, Precision = TP / (TP + FP), Recall = TP / (TP + FN), and Accuracy = FP + FN + TN). Here, true positives (TP) and true negatives (TN) denote the correct classification, and false positives (FP) and false negatives (FT) denote the wrong classification.
추가적으로, 상기 Precision은 양성인 것으로 예측된 샘플에서 실제로 양성인 샘플의 비율을 의미하며 적합률이라고도 한다. 또한, 상기 Recall은 실제로 양성인 샘플에서 양성이라고 판정된 샘플의 비율로 검출률이라고도 한다. 또한, 상기 Accuracy는 TP와 TN을 더하여, 전부의 합계로 나눈 값으로 정해율이라고도 한다.Additionally, the Precision refers to the proportion of samples that are actually positive in the sample that is expected to be positive and is also referred to as the fit rate. Further, the recall is also referred to as the detection rate in the ratio of the samples determined to be positive in the actually positive sample. Further, the Accuracy is also referred to as a determination rate by dividing TP and TN by the sum of all of them.
6 가지 실험의 평가 결과는 아래의 [표 6], [표 7] 및 [표 8]에 나타나 있고, 아래의 [표 9]는 각 실험의 트레이닝 시간 및 테스트 시간을 나타낸 것이다. 테스트 데이터에 대한 전체 실험 동안에 인접차이 필터의 파라미터는 l=10, m=10, n=10, T=70 및 p=1로 설정되었다. 또한, random forest는 트리 300개, 깊이 20으로 설정되었다. The evaluation results of the six experiments are shown in [Table 6], [Table 7] and [Table 8] below, and Table 9 below shows the training time and test time of each experiment. During the entire test on the test data the parameters of the adjacent difference filter were set to l = 10, m = 10, n = 10, T = 70 and p = 1. The random forest was set to 300 trees and a depth of 20.
[표 6][Table 6]
[표 7][Table 7]
[표 8][Table 8]
[표 9][Table 9]
도 13을 참조하면, random forest 트리 수에 따라 성능이 변화한다. 트리 수가 40정도까지는 급격히 성능이 증가하다가 이후에는 비슷한 수준으로 유지되는 것을 확인할 수 있다.Referring to FIG. 13, performance varies according to the number of random forest trees. The performance increases sharply until the number of trees is about 40, but it is maintained at a similar level thereafter.
결과적으로, T6에서 9개로 정의된 특징 값 입력 조건에서 트레이닝 시간, 분류 시간 및 모든 측면에서 최고 성능을 보인다. 아래의 표 10 및 표 11에서는 T5 및 T6의 혼동 행렬(confusion matrix) 통해 각 결함의 예측 결과를 나타낸다. As a result, it shows the best performance in terms of training time, classification time, and all aspects in the feature value input condition defined as nine at T6. Tables 10 and 11 below show the prediction results of each defect through the confusion matrix of T5 and T6.
도 14는 본 발명에 따른 영상 표면 결함 검출 및 분류 장치(100)의 구성을 도시한 것이다.FIG. 14 shows a configuration of an image surface defect detection and
도 14에서 볼 수 있는 바와 같이, 본 발명에 따른 영상 표면 결함 검출 및 분류 장치(100)는 영상데이터 수신부(110), 필터링부(120), 처리부(130)를 포함하여 구성될 수 있다. 추가적으로, 결함 분류를 위한 결함 정보 DB가 저장된 메모리부(140)를 더 포함할 수도 있다.14, the image defect detection and
상기 영상 데이터 수신부(110)는 카메라, 스캐너, 현미경 등의 영상 센서에 의해 획득된 영상 데이터를 상기 영상 센서로부터 수신할 수 있다.The image
상기 필터링부(120)는 본 발명에 따른 인접차이 필터(NDF: Neighboring Difference Filter)를 이용하여 영상 데이터를 필터링할 수 있다. 상기 인접차이 필터는 영상 데이터의 픽셀 중 특정 영역을 상기 특정 영역으로부터 소정의 거리만큼 이격된 영역과 비교하여, 그 픽셀 값의 차이가 강조되도록 할 수 있다. 즉, 필터링 과정을 통해 영상 표면 결함과 영상의 배경이 시각적으로 뚜렷하게 구분된다(도 8 및 도 9 참조).The
상기 처리부(130)는 필터링된 영상 데이터의 특징 값을 추출하고, 추출된 특징 값을 결함 종류 DB와 비교하여 상기 영상 데이터의 결함을 분류할 수 있다. 또한, 상기 처리부(130)는 학습과정을 통해 상기 결함 종류 DB를 업데이트 할 수도 있다.The
한편, 상술한 본 발명의 실시예들은 컴퓨터에서 실행될 수 있는 프로그램으로 작성가능하고, 작성된 프로그램은 매체에 저장될 수 있다.Meanwhile, the embodiments of the present invention described above can be written in a program that can be executed in a computer, and the created program can be stored in a medium.
상기 매체는 마그네틱 저장매체(예를 들면, 롬, 플로피 디스크, 하드디스크 등) 및 광학적 판독 매체(예를 들면, 시디롬, 디브이디 등)와 같은 저장매체를 포함할 수 있으나, 이에 한정되는 것은 아니다.The medium may include, but is not limited to, storage media such as magnetic storage media (e.g., ROM, floppy disks, hard disks, etc.) and optical reading media (e.g., CD ROMs,
이상의 설명은 본 발명의 기술 사상을 예시적으로 설명한 것에 불과한 것으로서, 본 발명이 속하는 기술 분야에서 통상의 지식을 가진 자라면 본 발명의 본질적인 특성에서 벗어나지 않는 범위에서 다양한 수정 및 변형이 가능할 것이다. 따라서 본 발명에 기재된 실시예는 본 발명의 기술 사상을 한정하기 위한 것이 아니라 설명하기 위한 것이고, 이러한 실시예에 한정되는 것은 아니다. 본 발명의 보호 범위는 아래의 청구범위에 의해서 해석되어야 하며, 그와 균등한 범위 내에 있는 모든 기술 사상은 본 발명의 권리범위에 포함되는 것으로 해석되어야 할 것이다.The foregoing description is merely illustrative of the technical idea of the present invention, and various changes and modifications may be made by those skilled in the art without departing from the essential characteristics of the present invention. Therefore, the embodiments described in the present invention are not intended to limit the technical spirit of the present invention, but are intended to be illustrative and not restrictive. The scope of protection of the present invention should be construed by the following claims, and all technical ideas within the scope of equivalents thereof should be construed as being included in the scope of the present invention.
100: 영상 표면 결함 검출 및 분류 장치
110: 영상데이터 수신부
120: 필터링부
130: 처리부
140: 메모리부100: image surface defect detection and classification device
110:
120: Filtering unit
130:
140:
Claims (12)
상기 영상 데이터의 픽셀 중 적어도 일부를 인접차이 필터(NDF: Neighboring Difference Filter)와 합성곱(convolution)을 수행하는 필터링 단계; 및
상기 필터링된 영상 데이터의 특징 값을 추출하는 특징 추출 단계를 포함하되,
상기 인접차이 필터는,
상기 영상 데이터의 픽셀 중 특정 영역을 상기 특정 영역으로부터 소정의 거리만큼 이격된 영역과 비교하여, 그 픽셀 값의 차이가 강조되도록 하는 필터인 것을 특징으로 하고,
상기 특징 추출 단계는,
필터링된 영상 데이터의 각 픽셀로부터 동시발생 행렬(co-occurrence matrix)을 산출하고 산출된 동시발생 행렬을 이용하여 상기 필터링된 영상 데이터의 정량적 특징 값을 추출하는 단계를 포함하는 것을 특징으로 하는 영상 표면 결함 검출 및 분류 방법.
Receiving image data obtained by an image sensor;
A filtering step of performing at least a part of pixels of the image data with a Neighboring Difference Filter (NDF); And
And a feature extraction step of extracting feature values of the filtered image data,
Wherein the adjacent difference filter comprises:
Wherein the image data is a filter that compares a specific area of pixels of the image data with an area spaced by a predetermined distance from the specific area and emphasizes a difference between the pixel values.
The feature extraction step may include:
Calculating a co-occurrence matrix from each pixel of the filtered image data and extracting a quantitative feature value of the filtered image data using the calculated co- occurrence matrix, Defect detection and classification method.
상기 필터링 단계는,
상기 영상 데이터의 각 픽셀이 복수의 서브 픽셀을 포함하는 경우,
동일한 종류의 서브 픽셀만을 가지도록, 상기 영상 데이터를 복수의 서브 영상 데이터로 구분하는 단계;
각각의 서브 영상 데이터의 픽셀 중 적어도 일부를 상기 인접차이 필터와 합성곱을 수행하는 단계; 및
합성곱을 수행한 각 서브 영상 데이터를 하나의 영상 데이터로 변환하는 단계를 더 포함하는 것을 특징으로 하는 영상 표면 결함 검출 및 분류 방법.
The method according to claim 1,
Wherein the filtering step comprises:
When each pixel of the image data includes a plurality of subpixels,
Dividing the image data into a plurality of sub-image data so as to have only sub-pixels of the same type;
Performing at least a portion of pixels of each sub-image data with the adjacent difference filter; And
Further comprising the step of converting each sub-image data subjected to the composite multiplication into one image data.
상기 필터링 단계는,
상기 영상 데이터의 각 픽셀이 복수의 서브 픽셀을 포함하는 경우,
각 픽셀에 포함된 복수의 서브 픽셀을 하나의 픽셀로 변환하는 단계; 및
상기 영상 데이터의 변환된 픽셀 중 적어도 일부를 상기 인접차이 필터와 합성곱을 수행하는 단계를 더 포함하는 것을 특징으로 하는 영상 표면 결함 검출 및 분류 방법.
The method according to claim 1,
Wherein the filtering step comprises:
When each pixel of the image data includes a plurality of subpixels,
Converting a plurality of subpixels contained in each pixel into one pixel; And
Further comprising the step of performing a synthetic product with at least some of the transformed pixels of the image data with the adjacent difference filter.
상기 영상 표면 결함 검출 및 분류 방법은,
소정의 임계값을 설정하여, 상기 영상 표면의 결함 중 상기 영상의 배경보다 명도가 낮은 영역 또는 명도가 높은 영역으로 구분하여 표시하는 단계를 더 포함하는 것을 특징으로 하는 영상 표면 결함 검출 및 분류 방법.
The method according to claim 1,
The image surface defect detection and classification method includes:
Further comprising the step of setting a predetermined threshold value and displaying the defective area on the image surface in a region having a lower brightness or a region having a higher brightness than the background of the image.
상기 영상 표면 결함 검출 및 분류 방법은,
추출된 특징 값을 결함 종류 DB와 비교하여 상기 영상 데이터의 결함을 분류하는 단계를 더 포함하는 것을 특징으로 하는 영상 표면 결함 검출 및 분류 방법.
The method according to claim 1,
The image surface defect detection and classification method includes:
And comparing the extracted feature value with a defect type DB to classify defects in the image data.
상기 특징 추출 단계는,
상기 필터링된 영상 데이터의 기하학적 특징, 통계적 특징, 강도(intensity) 특징 및 텍스처 특징 중 적어도 일부를 추출하는 것을 특징으로 하는 영상 표면 결함 검출 및 분류 방법.
The method according to claim 1,
The feature extraction step may include:
Wherein at least some of the geometric, statistical, intensity, and texture features of the filtered image data are extracted.
상기 영상 표면 결함 검출 및 분류 방법은,
상기 추출된 특징 값 및 분류된 결과를 이용하여 상기 결함 종류 DB를 업데이트하는 단계를 더 포함하는 것을 특징으로 하는 영상 표면 결함 검출 및 분류 방법.
6. The method of claim 5,
The image surface defect detection and classification method includes:
Further comprising the step of updating the defect type DB using the extracted feature value and the classified result.
상기 인접차이 필터는,
제1 영역, 상기 제1 영역을 둘러싼 제2 영역, 상기 제2 영역을 둘러싼 제3 영역을 포함하며,
상기 제1 영역 내 원소의 값은 양의 값이고, 상기 제2 영역 내 원소의 값은 0이고, 상기 제3 영역 내 원소의 값은 음의 값인 것을 특징으로 하는 영상 표면 결함 검출 및 분류 방법.
The method according to claim 1,
Wherein the adjacent difference filter comprises:
A first region, a second region surrounding the first region, and a third region surrounding the second region,
Wherein the value of the element in the first region is a positive value, the value of the element in the second region is 0, and the value of the element in the third region is a negative value.
상기 인접차이 필터는,
L, M 및 N이 자연수라고 할 때,
상기 제1 영역의 크기는 L by L이고, 상기 제1 영역 및 제2 영역을 합한 영역의 크기는 (2M+L) by (2M+L)이고, 상기 제1 영역, 제2 영역 및 제3 영역을 합한 영역의 크기는 (2N+2M+L) by (2N+2M+L)인 정방행렬이며,
상기 제1 영역 내 원소의 값은 1/(L^2)이고, 상기 제3 영역 내 원소의 값은 -1/(4N*(L+2M+N))인 것을 특징으로 하는 영상 표면 결함 검출 및 분류 방법.
10. The method of claim 9,
Wherein the adjacent difference filter comprises:
When L, M, and N are natural numbers,
Wherein the size of the first area is L by L and the size of the area including the first area and the second area is (2M + L) by (2M + L), and the size of the first area, (2N + 2M + L) by (2N + 2M + L), and the size of the sum of the regions is
Wherein the value of the element in the first region is 1 / (L ^ 2) and the value of the element in the third region is -1 / (4N * (L + 2M + N) And classification methods.
상기 영상 데이터의 픽셀 중 적어도 일부를 인접차이 필터(NDF: Neighboring Difference Filter)와 합성곱(convolution)을 수행하는 필터링부;
필터링된 영상 데이터의 특징 값을 추출하고 추출된 특징 값을 결함 종류 DB와 비교하여 상기 영상 데이터의 결함을 분류하는 처리부; 및
상기 결함 종류 DB가 저장된 메모리부를 포함하되,
상기 인접차이 필터는,
상기 영상 데이터 픽셀 중 특정 영역을 상기 특정 영역으로부터 소정의 거리만큼 이격된 영역과 비교하여, 그 픽셀 값의 차이가 강조되도록 하는 필터인 것을 특징으로 하고,
상기 처리부는,
상기 필터링된 영상 데이터의 각 픽셀로부터 동시발생 행렬(co-occurrence matrix)을 산출하고 산출된 동시발생 행렬을 이용하여 상기 필터링된 영상 데이터의 정량적 특징 값을 추출하는 것을 특징으로 하는 영상 표면 결함 검출 및 분류 장치.
An image data receiving unit for receiving image data obtained by an image sensor;
A filtering unit for performing at least a part of pixels of the image data with a Neighboring Difference Filter (NDF);
A processor for extracting feature values of the filtered image data and comparing the extracted feature values with a defect type DB to classify defects of the image data; And
And a memory unit in which the defect type DB is stored,
Wherein the adjacent difference filter comprises:
Wherein the image data pixel is a filter that compares a specific area of the image data pixels with an area spaced by a predetermined distance from the specific area and emphasizes a difference between the pixel values.
Wherein,
A co-occurrence matrix is calculated from each pixel of the filtered image data, and a quantitative feature value of the filtered image data is extracted using the calculated co- occurrence matrix. Classification device.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
KR1020160057685A KR101813223B1 (en) | 2016-05-11 | 2016-05-11 | Method and apparatus for detecting and classifying surface defect of image |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
KR1020160057685A KR101813223B1 (en) | 2016-05-11 | 2016-05-11 | Method and apparatus for detecting and classifying surface defect of image |
Publications (2)
Publication Number | Publication Date |
---|---|
KR20170127269A KR20170127269A (en) | 2017-11-21 |
KR101813223B1 true KR101813223B1 (en) | 2018-01-30 |
Family
ID=60808802
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
KR1020160057685A KR101813223B1 (en) | 2016-05-11 | 2016-05-11 | Method and apparatus for detecting and classifying surface defect of image |
Country Status (1)
Country | Link |
---|---|
KR (1) | KR101813223B1 (en) |
Families Citing this family (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN108846841A (en) | 2018-07-02 | 2018-11-20 | 北京百度网讯科技有限公司 | Display screen quality determining method, device, electronic equipment and storage medium |
CN112001909B (en) * | 2020-08-26 | 2023-11-24 | 北京科技大学 | Powder bed defect visual detection method based on image feature fusion |
CN114723647A (en) * | 2020-12-18 | 2022-07-08 | 东方晶源微电子科技(北京)有限公司 | Defect classification method and device, equipment and storage medium |
CN113379742B (en) * | 2021-08-12 | 2021-11-19 | 浙江华睿科技股份有限公司 | Structure detection method and device of device based on artificial intelligence and electronic equipment |
CN118265904A (en) * | 2021-11-25 | 2024-06-28 | 株式会社日本显示器 | Display device inspection method and information processing device |
KR102595182B1 (en) * | 2023-04-03 | 2023-10-30 | 주식회사 크로커스 | Image anomaly detection method |
Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2006242759A (en) | 2005-03-03 | 2006-09-14 | Toppan Printing Co Ltd | Method for inspecting unevenness in periodic pattern |
JP2006258713A (en) | 2005-03-18 | 2006-09-28 | Seiko Epson Corp | Method and apparatus for detecting stain defect |
JP2011008482A (en) * | 2009-06-25 | 2011-01-13 | Seiko Epson Corp | Defect detection method, defect detection device and defect detection program |
-
2016
- 2016-05-11 KR KR1020160057685A patent/KR101813223B1/en active IP Right Grant
Patent Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2006242759A (en) | 2005-03-03 | 2006-09-14 | Toppan Printing Co Ltd | Method for inspecting unevenness in periodic pattern |
JP2006258713A (en) | 2005-03-18 | 2006-09-28 | Seiko Epson Corp | Method and apparatus for detecting stain defect |
JP2011008482A (en) * | 2009-06-25 | 2011-01-13 | Seiko Epson Corp | Defect detection method, defect detection device and defect detection program |
Also Published As
Publication number | Publication date |
---|---|
KR20170127269A (en) | 2017-11-21 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
KR101813223B1 (en) | Method and apparatus for detecting and classifying surface defect of image | |
CN114549522B (en) | Textile quality detection method based on target detection | |
CN110349126B (en) | Convolutional neural network-based marked steel plate surface defect detection method | |
CN110852316B (en) | Image tampering detection and positioning method adopting convolution network with dense structure | |
US11605163B2 (en) | Automatic abnormal cell recognition method based on image splicing | |
JP5764238B2 (en) | Steel pipe internal corrosion analysis apparatus and steel pipe internal corrosion analysis method | |
CN111160301B (en) | Tunnel disease target intelligent identification and extraction method based on machine vision | |
CN110033040B (en) | Flame identification method, system, medium and equipment | |
CN110945337A (en) | Tire image recognition method and tire image recognition device | |
CN104794502A (en) | Image processing and mode recognition technology-based rice blast spore microscopic image recognition method | |
JP2004294202A (en) | Defect detection method and device of screen | |
JP5706647B2 (en) | Information processing apparatus and processing method thereof | |
CN111047655A (en) | High-definition camera cloth defect detection method based on convolutional neural network | |
CN115082451B (en) | Stainless steel soup ladle defect detection method based on image processing | |
KR101549495B1 (en) | An apparatus for extracting characters and the method thereof | |
CN109815870B (en) | High-throughput functional gene screening method and system for quantitative analysis of cell phenotype image | |
CN114782329A (en) | Bearing defect damage degree evaluation method and system based on image processing | |
CN115526889B (en) | Nondestructive testing method of boiler pressure pipeline based on image processing | |
Chowdhury et al. | Vegetables detection from the glossary shop for the blind | |
CN111161233A (en) | Method and system for detecting defects of punched leather | |
Dang-Ngoc et al. | Citrus leaf disease detection and classification using hierarchical support vector machine | |
CN115272350A (en) | Method for detecting production quality of computer PCB mainboard | |
TW202034421A (en) | Color filter inspection device, inspection device, color filter inspection method, and inspection method | |
CN108615039A (en) | Cartridge case defect automatic testing method based on computer vision | |
CN113822836B (en) | Method for marking an image |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A201 | Request for examination | ||
E902 | Notification of reason for refusal | ||
AMND | Amendment | ||
E601 | Decision to refuse application | ||
AMND | Amendment | ||
X701 | Decision to grant (after re-examination) | ||
GRNT | Written decision to grant |