KR101568590B1 - Image deinterlacing system the method using region-based back propagation artificial neural network - Google Patents
Image deinterlacing system the method using region-based back propagation artificial neural network Download PDFInfo
- Publication number
- KR101568590B1 KR101568590B1 KR1020140079652A KR20140079652A KR101568590B1 KR 101568590 B1 KR101568590 B1 KR 101568590B1 KR 1020140079652 A KR1020140079652 A KR 1020140079652A KR 20140079652 A KR20140079652 A KR 20140079652A KR 101568590 B1 KR101568590 B1 KR 101568590B1
- Authority
- KR
- South Korea
- Prior art keywords
- ann
- training
- image
- unit
- edge
- Prior art date
Links
- 238000000034 method Methods 0.000 title claims abstract description 46
- 238000013528 artificial neural network Methods 0.000 title claims abstract description 19
- 238000012549 training Methods 0.000 claims description 62
- 238000009499 grossing Methods 0.000 claims description 10
- 238000004364 calculation method Methods 0.000 claims description 7
- 238000010606 normalization Methods 0.000 claims description 5
- 230000000007 visual effect Effects 0.000 abstract description 6
- 238000004422 calculation algorithm Methods 0.000 description 17
- 210000002569 neuron Anatomy 0.000 description 13
- 230000006870 function Effects 0.000 description 10
- 238000002474 experimental method Methods 0.000 description 9
- 238000012546 transfer Methods 0.000 description 7
- 238000004088 simulation Methods 0.000 description 5
- 238000012360 testing method Methods 0.000 description 5
- 238000010586 diagram Methods 0.000 description 3
- 238000012545 processing Methods 0.000 description 3
- 238000007796 conventional method Methods 0.000 description 2
- 210000002364 input neuron Anatomy 0.000 description 2
- 238000013507 mapping Methods 0.000 description 2
- 238000012795 verification Methods 0.000 description 2
- 238000012935 Averaging Methods 0.000 description 1
- 235000002566 Capsicum Nutrition 0.000 description 1
- 241001504519 Papio ursinus Species 0.000 description 1
- 241000758706 Piperaceae Species 0.000 description 1
- 230000004913 activation Effects 0.000 description 1
- 230000015556 catabolic process Effects 0.000 description 1
- 230000000052 comparative effect Effects 0.000 description 1
- 238000012790 confirmation Methods 0.000 description 1
- 238000006731 degradation reaction Methods 0.000 description 1
- 230000001419 dependent effect Effects 0.000 description 1
- 238000013461 design Methods 0.000 description 1
- 230000004927 fusion Effects 0.000 description 1
- 230000001537 neural effect Effects 0.000 description 1
- 238000005457 optimization Methods 0.000 description 1
- 238000004321 preservation Methods 0.000 description 1
- 230000000750 progressive effect Effects 0.000 description 1
- 238000010200 validation analysis Methods 0.000 description 1
Images
Classifications
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N7/00—Television systems
- H04N7/01—Conversion of standards, e.g. involving analogue television standards or digital television standards processed at pixel level
- H04N7/0117—Conversion of standards, e.g. involving analogue television standards or digital television standards processed at pixel level involving conversion of the spatial resolution of the incoming video signal
- H04N7/012—Conversion between an interlaced and a progressive signal
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T3/00—Geometric image transformations in the plane of the image
- G06T3/40—Scaling of whole images or parts thereof, e.g. expanding or contracting
- G06T3/4007—Scaling of whole images or parts thereof, e.g. expanding or contracting based on interpolation, e.g. bilinear interpolation
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T3/00—Geometric image transformations in the plane of the image
- G06T3/40—Scaling of whole images or parts thereof, e.g. expanding or contracting
- G06T3/4046—Scaling of whole images or parts thereof, e.g. expanding or contracting using neural networks
Landscapes
- Engineering & Computer Science (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Theoretical Computer Science (AREA)
- Computer Graphics (AREA)
- Artificial Intelligence (AREA)
- Evolutionary Computation (AREA)
- Multimedia (AREA)
- Signal Processing (AREA)
- Image Processing (AREA)
Abstract
Description
본 발명은 디인터레이싱을 위한 영역 기반의 BP-ANN 기술에 관한 것으로, 더 상세하게는 인접한 필드 간의 선형 또는 비선형 관계에 관계없이 좋은 성능을 발휘하고, 디인터레이싱 작업에 있어서 시간 소비와 시각적 품질 간의 균형을 이루는 영상 디인터레이싱 시스템 및 그 방법에 관한 것이다.
The present invention relates to a domain-based BP-ANN technique for deinterlacing, and more particularly to a domain-based BP-ANN technique for deinterlacing that provides good performance regardless of the linear or nonlinear relationship between adjacent fields, To an image deinterlacing system and a method thereof.
인터레이스된 스캐닝은 오랫동안 널리 National Television Systems Committee, Phase Alternation by Line, Sequential Color with Memory, HDTV(high definition television) 포맷을 포함한 TV 방송 표준에 적용되었다. 점진적 스캔과 비교할 때, 인터레이스된 스캔은 동일한 대역폭을 사용하면서, 수신 프레임 속도가 두 배이다. 그러나 이러한 인터레이스된 스캐닝 포맷은 jagged patterns, edge flickering, line twitters 와 같이 단점이 있다[1]. 이러한 단점은 비디오의 시각적 품질을 저하시킨다. 나아가, 인터레이스된 스캐닝은 최근 개발되어, 진보된 포맷을 요구하는 LCD-TV, HDTV, PC 등의 디스플레이 장치에는 부적합하다. Interlaced scanning has long been widely applied to TV broadcasting standards including the National Television Systems Committee, Phase Alternation by Line, Sequential Color with Memory, and HDTV (high definition television) formats. When compared to progressive scan, the interlaced scan uses the same bandwidth, and the received frame rate is twice. However, these interlaced scanning formats have disadvantages such as jagged patterns, edge flickering, and line twitters [1]. This disadvantage lowers the visual quality of the video. Furthermore, interlaced scanning has recently been developed and is unsuitable for display devices such as LCD-TV, HDTV, and PC, which require advanced formats.
이러한 문제를 해소하기 위해 많은 기술들이 제안되었다. 이러한 기법은 일반적으로 인트라필드 기법과 인터필드 기법의 두 가지 카테고리로 구분된다. 인터필드 기법은 공간적-시간적 보간을 이용하여, 누락된 라인을 채우는 기법이며, 이러한 이유로 이웃 프레임을 검색하여 얻어진 모션 벡터를 주로 이용한다. 이러한 기법이 인트라 기법과 비교하여, 성능 개선을 제공하지만 높은 연산적 복잡도를 요구하는 단점이 있다. 더구나 부적합한 모션 추정은 심각한 이미지와 대응하는 부분의 심각한 품질 저하를 야기시킬 수 있다.Many techniques have been proposed to solve this problem. These techniques are generally divided into two categories: intra-field techniques and inter-field techniques. The interfield technique uses spatial-temporal interpolation to fill missing lines. For this reason, the motion vector obtained by searching neighboring frames is mainly used. Compared with the intra method, this technique provides performance improvement but requires a high computational complexity. Moreover, inadequate motion estimation can lead to serious degradation of serious image and corresponding parts.
인트라필드 디인터레이싱 기술은 메모리와 컴퓨팅 파워에 대한 관리 요구가 있는 실시간 어플리케이션에 널리 적용된다. 인트라필드 디인터레이싱은 line average(LA), edge-based line average(ELA), efficient ELA 등과 같이, 다양한 선형 알고리즘으로 제안된 바 있다. 이러한 종래 기술은 일부 추정 방향을 위해 선형 공간적 평균을 이용하여 누락 픽셀을 보간함에 따라 고정된 파라미터 필터로 간주되는 존재하는 라인(existing line)과 누락된 라인(missing line) 간의 선형 관계를 산출하는 것으로 누락 픽셀을 추정한다. Intra-field de-interlacing technology is widely applied to real-time applications that require management of memory and computing power. Intra-field deinterlacing has been proposed in various linear algorithms such as line average (LA), edge-based line average (ELA), and efficient ELA. This conventional technique is to calculate a linear relationship between an existing line and a missing line, which is regarded as a fixed parameter filter by interpolating missing pixels using linear spatial averaging for some estimation directions And estimates missing pixels.
그러나 누락된 픽셀과 존재하는 픽셀 간의 관계는 대부분 비선형이며, 비선형 기법은 가파른 수직 방향의 고정된 엣지에 대한 더 나은 결과를 제공한다[2]. 적용된 기법이 특정 영역에 대응하는 요구사항을 충족할 때 최상의 결과를 얻을 수 있다.However, the relationship between missing pixels and existing pixels is mostly nonlinear, and nonlinear techniques provide better results for steep vertical fixed edges [2]. The best results can be obtained when the applied technique meets the requirements corresponding to the specific area.
최근 신경망(NN-neural network) 디인터레이싱 기법은 누락된 라인과 존재하는 라인 간의 숨겨진 규칙적 패턴을 드러내는 기법으로 제안되고 있다[3, 4]. Plaziac의 결과는 비록 노이즈 컨디션 하에서도 선형 및 중간값의 필터에서 PB 알고리즘이 더 나은 결과를 나타냄을 보여준다. 게다가 신경망에서는 활성화 함수는 하드웨어 설계에서 프로세싱 시간과 하드웨어 복잡도를 줄이기 위해 다항함수로 대체된다[5]. 그러나 디인터레이싱을 위한 BP-NN 구조는 종래의 연구에서는 논의된 바가 없다. 모듈식의 NN은 인터 및 인트라 모드 각각에서의 디인터레이싱 알고리즘을 수행하는데 이용되었으며, 이는 성능 개선을 이끌어냈다[4]. 그러나 NN을 사용하는 디인터레이싱 프로세스는 연산 복잡도가 높으므로 단순화된 디인터레이싱 프로세스가 요구된다.
Recently, the de-interlacing technique of NN-neural network has been proposed as a technique to reveal the hidden regular pattern between the missing line and the existing line [3, 4]. Plaziac's results show that the PB algorithm produces better results in linear and median filters, even under noisy conditions. In addition, in neural networks, the activation function is replaced by a polynomial function to reduce processing time and hardware complexity in hardware design [5]. However, the BP-NN architecture for de-interlacing has not been discussed in the prior art. Modular NN was used to perform deinterlacing algorithms in both inter and intra modes, which led to performance improvements [4]. However, the deinterlacing process using NN requires a simple deinterlacing process because of its high computational complexity.
본 발명은 상기와 같은 종래의 문제점을 해결하기 위하여 제안된 것으로, 최적의 입력 모델을 생성하고, 디인터레이싱 프로세스를 단순화할 수 있는 구조의 영역 기반의 역전달 인공 신경망을 이용한 영상 디인터레이싱 시스템 및 그 방법을 제공하는데 있다.
Disclosure of Invention Technical Problem [8] The present invention has been proposed in order to solve the above problems, and it is an object of the present invention to provide an image deinterlacing system using an area-based reverse transfer artificial neural network and a method of generating an optimal input model and simplifying a deinterlacing process. .
본 발명에 따른 영역 기반의 역전달 인공 신경망을 이용한 영상 디인터레이싱 시스템은 타겟 픽셀이 속하는 영역을 에지 데이터 세트(edge dataset)와 스무스 데이터 세트(smooth dataset)로 구분하여, 에지 BP-ANN(back propagation artificial neural network) 과 스무스 BP-ANN의 아키텍처와 파라미터로 훈련하는 모델링부 및 상기 모델링부에서 훈련된 BP-ANN을 이용하여 이미지를 디인터레이싱하는 디인터레이싱부를 포함하는 것을 특징으로 한다.The image deinterlacing system using the area-based back-propagation artificial neural network divides an area to which a target pixel belongs into an edge dataset and a smooth data set, and performs a back propagation artificial (BP-ANN) neural network), a modeling unit for training with the architecture and parameters of the smooth BP-ANN, and a de-interlacing unit for de-interlacing the image using the BP-ANN trained in the modeling unit.
또한, 본 발명에 따른 영상 디인터레이싱 시스템에 있어서, 모델링부는 타겟 픽셀이 속하는 스무스 영역과 에지 영역을 구분하여, 훈련 이미지를 이진화하는 훈련 이미지 산출부, 이진화된 이미지와 픽셀을 기반으로 훈련 포인트를 임의로 선택하는 훈련 포인트 선택부, BP-ANN에 제시된 훈련 데이터세트의 모든 픽셀은 0-255으로부터 0-1까지 선형적으로 정규화하는 데이터세트 정규화부 및 스무스 BP-ANN와 에지 BP-ANN의 아키텍터와 파라미터를 이용하여 훈련 실행부를 포함하는 것을 특징으로 한다.Also, in the image deinterlacing system according to the present invention, the modeling unit may include a training image calculation unit for classifying the smooth region and the edge region to which the target pixel belongs and binarizing the training image, a training image calculation unit for randomly selecting training points based on the binarized image and pixels All pixels of the training data set presented in the BP-ANN are data set normalization units linearly normalizing from 0-255 to 0-1 and smoothness BP-ANN and edge BP-ANN architectures and parameters And a training execution unit using the training execution unit.
또한, 본 발명에 따른 영상 디인터레이싱 시스템에 있어서, 디인터레이싱부는 상기 모델링부에서 훈련된 BP-ANN을 적용하여 입력되는 이미지를 훈련하는 BP-ANN 적용부 및 상기 이미지의 PSNR의 산출로 성능을 평가하는 성능확인부를 포함하는 것을 특징으로 한다.
Further, in the image de-interlacing system according to the present invention, the de-interlacing unit may include a BP-ANN applying unit for training an input image by applying the BP-ANN trained by the modeling unit, and a performance evaluating unit And a confirmation unit.
본 발명에 따른 영상 디인터레이싱 방법은 (a) 모델링부를 이용하여, 타겟 픽셀이 속하는 영역을 에지 데이터 세트(edge dataset)와 스무스 데이터 세트(smooth dataset)로 구분하여, 에지 BP-ANN(back propagation artificial neural network) 과 스무스 BP-ANN의 아키텍처와 파라미터로 훈련하는 단계 및 (b) 디인터레이싱부를 이용하여, 상기 (a) 단계에서 훈련된 BP-ANN을 이용하여 이미지를 디인터레이싱하는 단계를 포함하는 것을 특징으로 한다.
The image de-interlacing method according to the present invention comprises the steps of: (a) dividing an area to which a target pixel belongs into an edge dataset and a smooth dataset using a modeling unit, and performing a back propagation artificial neural network and the smooth BP-ANN, and (b) deinterlacing the image using the BP-ANN trained in step (a) using a de-interlacing unit .
이상에서 설명한 바와 같이, 본 발명에 따른 영역 기반의 역전달 인공 신경망을 이용한 영상 디인터레이싱 시스템은 인접 필드에서 입력 패턴을 에지 영역과 스무스 영역으로 구분함으로써, 누락 픽셀의 선형/비선형 특성을 구분할 수 있으며, NN의 최적 구조로 단순화할 수 있는 효과가 있다.
As described above, the image-based deinterlacing system using the area-based back-propagation artificial neural network according to the present invention can classify the linear / non-linear characteristics of the missing pixels by dividing the input pattern into the edge area and the smooth area in the adjacent field, It is possible to simplify the structure with the optimum structure of NN.
도 1은 일반적인 n-m-1 구조의 BP-ANN의 토폴로지를 나타내는 개념도.
도 2는 본 발명에 있어서, 영역 분류에 따른 픽셀 구성을 나타내는 도면.
도 3은 본 발명에 따른 영상 디인터레이싱 시스템의 전체 구성을 나타내는 구성도.
도 4는 본 발명에 따른 영상 디인터레이싱 방법의 전체 흐름을 나타내는 흐름도.
도 5는 본 발명에 있어서의 다양한 입력의 영역 기반의 BP-ANN 디인터레이싱의 픽셀을 나타내는 도면.
도 6은 본 발명에 있어서, BP-ANN의 에러-epoch 그래프.
도 7은 종래 기법과 본 발명에 따른 영상 디인터레이싱 방법 간의 주관적인 품질 비교 영상.1 is a conceptual diagram showing a topology of a BP-ANN having a general nm-1 structure.
2 is a diagram showing a pixel configuration according to a region classification in the present invention;
3 is a block diagram showing the overall configuration of a video deinterlacing system according to the present invention;
4 is a flowchart illustrating an overall flow of a video deinterlacing method according to the present invention.
5 illustrates pixels of a region-based BP-ANN de-interlacing of various inputs in the present invention.
6 is an error-epoch graph of the BP-ANN in the present invention.
7 is a subjective quality comparison image between the conventional technique and the image deinterlacing method according to the present invention.
이하, 본 발명에 따른 영역 기반의 역전달 인공 신경망을 이용한 영상 디인터레이싱 시스템 및 그 방법을 실시하기 위한 구체적인 내용을 설명하면 다음과 같다.DETAILED DESCRIPTION OF THE PREFERRED EMBODIMENTS Hereinafter, an image deinterlacing system and an image deinterlacing system using an area-based reverse transfer artificial neural network according to the present invention will be described in detail.
1. BP-NN의 아키텍처1. Architecture of BP-NN
BP 알고리즘은 자기 적응성(self-adaptation), 자기 학습(self-learning), 건장함(robustness) 및 일반화 가능성(generalizability) 때문에 가장 많이 연구되는 NN 알고리즘이다. 3계층의 토폴로지를 갖는 BP-ANN은 어떤 정밀함을 갖는 비선형 함수에도 접근할 수 있다. n-m-1 타입의 BP-ANN 구조는 도 1에 도시된 바와 같다.BP algorithm is the most studied NN algorithm because of self-adaptation, self-learning, robustness and generalizability. A BP-ANN with a three-layer topology can access nonlinear functions with some precision. The BP-ANN structure of n-m-1 type is as shown in Fig.
BP-ANN에서는 입력 n과 하나의 출력이 있으며, 히든 레이어(hidden layer)에는 뉴런 m이 있다. 히든 레이어의 출력은 Ij, 히든 레이어의 임계값은 θj 이며, 히든 레이어의 전달 함수는 f1 이다. 한편, 출력 계층의 임계값은 θk 이고, 출력 계층의 전달 함수는 f2 이다. 또한, 입력 레이어로부터 히든 레이어로의 가중치는 Wij 이고, 히든 레이어로부터 출력 레이어의 가중치는 Wjk 이다. 다음 수학식 1은 히든 뉴런의 입력과 출력 사이의 관계를 보여준다. 전체 네트워크의 출력은 y 이고, 원하는 출력은 y'이고, 에러 함수는 e=y'-y로 정의된다.In BP-ANN, there is input n and one output, and hidden layer has neuron m. The output of the hidden layer is I j , the threshold of the hidden layer is θ j , and the transfer function of the hidden layer is f 1 . On the other hand, the threshold of the output layer is θ k, and the transfer function of the output layer is f 2 . The weight from the input layer to the hidden layer is W ij , and the weight of the output layer from the hidden layer is W jk .
BP-ANN의 학습 프로세싱은 네트워크 에러를 최소화하기 위해 가중치와 임계값을 지속적으로 조절한다. 본 발명에서 히든 레이어를 위한 전달 함수는 수학식 3과 같이 "tansig"이며, 그 출력 레이어는 수학식 4와 같이 "purelin"이며, 여기서 Pj, Q, Ij, y는 각각 입력과 출력의 전달 함수 이다.BP-ANN's learning processing continuously adjusts the weights and thresholds to minimize network errors. The transfer function for the hidden layer in the present invention is a "tansig" as shown in the equation (3), of the output layer is "purelin" as shown in
종래 Levenberg-Marquardt 최적화 알고리즘은 BP-ANN의 수렴과 입력-출력 맵핑의 속도를 높이기 위해 가중치와 임계값을 업데이트하는데 이용한다. 그 결과 네트워크는 훈련 프로세스 동안 수집된 입출력 패턴 쌍에서 내재된 맵핑을 캡처하고, 동시에 시뮬레이션은 데이터의 새로운 또는 훈련되지 않은 데이터 세트에 대해 만들어질 수 있는 함수로부터 알려지지 않은 시스템을 모델링하도록 훈련될 수 있다.
The conventional Levenberg-Marquardt optimization algorithm is used to update the weights and thresholds to speed up the convergence and input-output mapping of the BP-ANN. The result is that the network captures the inherent mappings from the input / output pattern pairs collected during the training process, and at the same time the simulation can be trained to model unknown systems from functions that can be created for new or untrained data sets of data .
2. 디인터레이싱용 영역 기반의 BP-ANN 시스템 및 그 방법2. BP-ANN system based on domain for deinterlacing and its method
누락 픽셀을 계산 시, 누락 픽셀의 다른 영역은 다른 패턴을 가진다. 본 발명에 있어서, 보간된 픽셀 x를 스무스 영역 S와 엣지 영역 E로 구분하고, 이는 다음 수학식 5와 같이 표현한다. When calculating missing pixels, other areas of missing pixels have different patterns. In the present invention, the interpolated pixel x is divided into the smoothing area S and the edge area E, which is expressed by the following equation (5).
여기서 T는 임계값이며, F(x)는 다음 수학식 6으로 기재된 함수이다.Here, T is a threshold value, and F (x) is a function described by the following equation (6).
여기서, 는 벡터 X의 평균값이며, xd는 도 2에 도시된 바와 같이, 보간된 픽셀 주변의 6개의 존재하는 픽셀 중 하나이다. BP-ANN의 훈련 전에 그것이 속한 영역을 결정하기 위해 보간된 픽셀은 수학식 5에 따라 분류해야 한다. 따라서 에지 BP-ANN는 E 영역에 배정되는 반면 스무스 BP-ANN는 S 영역에 배정된다. here, Is the mean value of the vector X, and x d is one of the six existing pixels around the interpolated pixel, as shown in FIG. Prior to the training of the BP-ANN, the interpolated pixels should be classified according to equation (5) to determine the area to which it belongs. Thus, the edge BP-ANN is assigned to the E-domain while the smooth BP-ANN is assigned to the S-domain.
본 발명에 따른 영상 디인터레이싱 시스템은 도 3에 도시된 바와 같이, 타겟 픽셀이 속하는 영역을 에지 데이터 세트(edge dataset)와 스무스 데이터 세트(smooth dataset)로 구분하여, 에지 BP-ANN(back propagation artificial neural network) 과 스무스 BP-ANN의 아키텍처와 파라미터로 훈련하는 모델링부(10) 및 상기 모델링부(10)에서 훈련된 BP-ANN을 이용하여 이미지를 디인터레이싱하는 디인터레이싱부(20)를 포함한다.As shown in FIG. 3, the image de-interlacing system according to the present invention divides an area to which a target pixel belongs into an edge dataset and a smooth dataset, and generates a back propagation artificial neural (BP-ANN) and a
본 발명에 따른 상기 모델링부(10)는 타겟 픽셀이 속하는 스무스 영역과 에지 영역을 구분하여, 상기 수학식 5와 수학식 6을 적용하여 훈련 이미지를 이진화하는 훈련 이미지 산출부(11), 이진화된 이미지와 픽셀을 기반으로 훈련 포인트를 임의로 선택하는 훈련 포인트 선택부(12), BP-ANN에 제시된 훈련 데이터세트의 모든 픽셀은 0-255으로부터 0-1까지 선형적으로 정규화하는 데이터세트 정규화부(13) 및 스무스 BP-ANN와 에지 BP-ANN의 아키텍터와 파라미터를 이용하여 훈련 실행부(14)를 포함한다.The
또한, 본 발명에 따른 상기 디인터레이싱부(20)는 상기 모델링부에서 훈련된 BP-ANN을 적용하여 입력되는 이미지를 훈련하는 BP-ANN 적용부(21) 및 상기 이미지의 PSNR(Peak Signal-to-noise ratio)의 산출로 성능을 평가하는 성능확인부(22)를 포함한다.The
도 4는 본 발명에 따른 영역 기반의 역전달 인공 신경망을 이용한 영상 디인터레이싱 방법의 전체 흐름을 나타내는 도면으로, 상기 모델링부(10)를 이용하여, 타겟 픽셀이 속하는 영역을 에지 데이터 세트(edge dataset)와 스무스 데이터 세트(smooth dataset)로 구분하여, 에지 BP-ANN(back propagation artificial neural network) 과 스무스 BP-ANN의 아키텍처와 파라미터로 훈련하는 (a) 단계 및 상기 디인터레이싱부(10)를 이용하여, 상기 (a) 단계에서 훈련된 BP-ANN을 이용하여 이미지를 디인터레이싱하는 (b) 단계를 포함한다.FIG. 4 is a flowchart illustrating an overall process of an image deinterlacing method using an area-based reverse transfer artificial neural network according to the present invention. Referring to FIG. 4, an edge data set (edge dataset) (A) training with the architecture and parameters of a back-propagation artificial neural network (BP-ANN) and a smooth BP-ANN, by using a
본 발명에 있어서, 상기 (a) 단계는 훈련 이미지 산출부(11)를 이용하여, 수학식 5 및 수학식 6을 적용하여, 타겟 픽셀이 속하는 스무스 영역과 에지 영역을 구분하여, 훈련 이미지를 이진화하는 단계(S10), 상기 훈련 포인트 선택부(12)를 이용하여, 이진화된 이미지와 픽셀을 기반으로 훈련 포인트를 임의로 선택하는 단계(S20), 상기 데이터세트 정규화부(13)를 이용하여, BP-ANN에 제시된 훈련 데이터세트의 모든 픽셀은 0-255으로부터 0-1까지 선형적으로 정규화하는 단계(S30) 및 상기 훈련 실행부(14)를 이용하여, 스무스 BP-ANN와 에지 BP-ANN의 아키텍터와 파라미터를 이용하여 훈련하는 단계(S40)를 포함한다.In the step (a) of the present invention, the training
또한 본 발명에 있어서, 상기 (b) 단계는 (b-1) BP-ANN 적용부(21)를 이용하여 상기 모델링부에서 훈련된 BP-ANN을 적용하여 입력되는 이미지를 훈련하는 단계(S50), 훈련된 BP-ANN에서 생성된 에지 포인트와 스무스 포인트를 결합하는 단계(S55) 및 상기 성능확인부(22)를 이용하여, 상기 이미지의 PSNR의 산출로 성능을 평가하는 단계(S60)를 포함한다.In step (b), the step (b) includes the steps of training the input image by applying the BP-ANN trained by the modeling unit using the BP-ANN application unit 21 (S50) , Combining the edge points and smoothing points generated in the trained BP-ANN (S55), and evaluating the performance (S60) by calculating the PSNR of the image using the performance verifying section do.
본 발명의 실시예에서 매트랩 NNs 툴박스는 영역 기반의 BP-ANN를 사용하여 디인터레이싱을 수행하기 위해 선택되었다. 훈련 알고리즘(S40)을 위한 파라미터 값은 다음과 같다. epoch = 500, learning rate = 0.05, maximum number of iterations = 20, error tolerance = 10-10이다. 한편 Levenberg-Marquardt BP 기법은 네트워크의 가중치와 바이어스 값 업데이트하기 위해 선택되었다.
In an embodiment of the present invention, the MATLAB NNs toolbox was selected to perform de-interlacing using region-based BP-ANN. The parameter values for the training algorithm (S40) are as follows. epoch = 500, learning rate = 0.05, maximum number of iterations = 20, and error tolerance = 10 -10 . On the other hand, the Levenberg-Marquardt BP technique was chosen to update the weights and biases of the network.
3. 실험 결과3. Experimental Results
다음 3개의 실험은 본 발명에 따른 디인터레이싱 알고리즘의 성능을 평가하기 위해 실행되었다. 본 발명의 성능 비교를 위해 LA, CASA, LABI, LCID, MCAD 및 MELA 기법을 사용하였다. LA법은 상부와 하부의 존재하는 픽셀의 평균으로 누락된 픽셀을 보간하는 단순한 선형 방법이다. LA는 그 단순함과 모션 아티펙트가 존재하지 않은 덕분에 사용되었다. 지난 5년간 제안된 다른 다섯 개의 알고리즘은 LA보다 더 나은 성능을 보였다. 본 발명에 따른 알고리즘 성능을 입증하기 위해 3.16GHz에서 인텔 코어 2 듀오 CPU E8500 프로세서와 MATLAB을 이용하여, 시뮬레이션을 실행하였다. The following three experiments were conducted to evaluate the performance of the deinterlacing algorithm according to the present invention. LA, CASA, LABI, LCID, MCAD and MELA techniques were used to compare the performance of the present invention. The LA method is a simple linear method of interpolating missing pixels as an average of existing pixels at the top and bottom. LA was used because of its simplicity and lack of motion artifacts. The other five algorithms proposed over the last five years showed better performance than LA. To demonstrate the performance of the algorithm according to the present invention, simulations were performed using an
3.1 실험1 : 히든 레이어 뉴런과 훈련 세트의 최적의 수 3.1 Experiment 1: optimal number of hidden layer neurons and training set
히든 레이어의 뉴런 수 결정은 영역 기반의 BP-ANN용 아키텍쳐를 선택하는 부분에 있어서 매우 중요한 것이다. 너무 적은 뉴런은 언더피팅(underfitting)의 결과가 발생하는 반면 히든 레이어에서의 너무 많은 뉴런은 오버피팅(overfitting)과 중앙 프로세스 유닛(CPU) 시간 소비와 같은 몇몇 문제점이 발생하는 결과가 발생할 수 있다. The determination of the number of neurons in the hidden layer is crucial in choosing an architecture for domain-based BP-ANN. Too much neurons result in underfitting, while too many neurons in the hidden layer may result in some problems such as overfitting and central processing unit (CPU) time consumption.
첫 번째 실험에서 사용된 영역 기반 BP-ANN은 도 5에 정의된 입력 픽셀과 동등한 6개의 입력 뉴런을 가진다. 히든 레이어 뉴런의 수는 4, 8, 12, 16, 20을 선택하고, 각 훈련 데이터 세트는 E 영역과 S 영역에서 50,000픽셀을 가진다. 시뮬레이션의 PSNR과 CPU 시간은 표 1에 기재된 바와 같다. The region-based BP-ANN used in the first experiment has six input neurons equal to the input pixels defined in Fig. The number of hidden layer neurons is selected as 4, 8, 12, 16, and 20, and each training data set has 50,000 pixels in E and S regions. The PSNR and CPU time of the simulation are as shown in Table 1.
표 1에 기재된 바와 같이, 더많은 히든 뉴런은 샘플 이미지의 더 나은 시각적 품질(PSNR) 제공하며, 이것은 더 많은 계산 시간(CPU-time)으로 이어진다. 히든 레이어에서의 최적의 뉴런수를 결정하는 경험 법칙에 따르면 히든 뉴런의 수는 입력 레이어 사이즈의 두 배보다 적어야 한다. 그러므로 우리는 훈련 데이터 세트 상에서의 다음 실험에서는 12개의 히든 뉴런을 이용한다. As shown in Table 1, more hidden neurons provide a better visual quality (PSNR) of the sample image, leading to more computation time (CPU-time). According to the rule of thumb that determines the optimal number of neurons in a hidden layer, the number of hidden neurons should be less than twice the input layer size. Therefore we use 12 hidden neurons in the next experiment on the training data set.
또한 훈련 데이터 세트의 사이즈를 결정하기 위해 각 영역별로 1000, 5000, 10000, 50000의 다른 수의 다양한 훈련 세트를 수집하였다. 서로 다른 훈련 데이터 세트 사이즈의 PSNR 값은 표 2에 기재된 바와 같다. 표 2의 평균 PSNR 값은 10000 과 50000 사이의 훈련 데이터 세트의 적절한 사이즈를 보여준다.In order to determine the size of the training data set, a different number of different training sets of 1000, 5000, 10000, and 50000 were collected for each area. The PSNR values of the different training data set sizes are as shown in Table 2. The average PSNR value in Table 2 shows the proper size of the training data set between 10000 and 50000.
3.2 실험 2 : 영역 기반의 BP-ANN의 최적 입력 모델3.2 Experiment 2: Optimal input model of domain-based BP-ANN
실험 2에서 히든 레이어 뉴런의 수는 입력 뉴런의 수와 직접적으로 비례하며, 각 네트워크의 훈련 세트 사이즈는 50000으로 설정되었다. 실제로 히든 레이어 뉴런의 최적의 수와 훈련 세트는 완전히 종속적인 해법이므로 정확한 정의는 필요로 하지 않는다. 훈련되지 않은 데이터 세트를 이용하여 규칙적으로 입증된 BP-ANN은 네트워크가 오버핏이건 아니건 평가할 수 있다. 훈련되지 않은 데이터 세트가 떨어지는 성능일 경우, 훈련 가능성이 떨어짐을 의미하고, 이전 반복으로 돌아가는 것은 정확한 출력에 접근하는 시뮬레이션을 만들 것이다. In
도 6에 도시된 훈련 error-epoch 그래프의 하나는 BP-ANN을 훈련하는 훈련 세트를 이용한다. Y 축의 에러는 제곱오차를 의미하고, 테스트 유효성 검사를 30번 반복한 후에 최적의 성능에 도달한다. 아키텍처 조정 및 훈련 프로세스는 유효한 성능이 성취될 때까지 교대로 하여야 한다. 영역 기반의 BP-ANN 학습 프로세스는 도 4에 도시된 단계를 이용하여 실행된다. 첫째, 위치는 테스트 이미지에서 임의로 선택한다. 도 5는 선택된 픽셀의 다음 3개의 패턴을 나타낸다. : 밝은 회색 픽셀은 하나로 존재하고, 어두운 회색 픽셀은 BP-ANN의 입력으로 선택된 것이며, 교차 픽셀은 BP-ANN의 출력이다. 둘째, 선택된 위치는 수학식 5와 수학식 6을 이용하여 S 영역과 E 영역으로 구분하고, 훈련 세트의 대응하는 입력 및 출력은 각 영역에서 수집한다. 셋째, 두 개의 BP-ANN는 원본 이미지의 교차 픽셀을 대략적으로 훈련한다. 이후 두 개의 BP-ANN에서 융합이 발생하면 본 발명에 있어서 영역 기반의 BP-ANN은 이미지의 보간을 수행한다. 표 3은 서로 다른 입력 모델을 이용한 영역 기반의 BP-ANN의 결과를 나타낸다. One of the training error-epoch graphs shown in Figure 6 uses a training set to train the BP-ANN. The Y-axis error means the square error, and the optimal performance is reached after 30 times of test validation. The architectural coordination and training processes should be alternated until valid performance is achieved. The region-based BP-ANN learning process is executed using the steps shown in Fig. First, the position is arbitrarily selected from the test image. 5 shows the next three patterns of the selected pixel. : The light gray pixels are in one, the dark gray pixels are the inputs of the BP-ANN, and the crossing pixels are the outputs of the BP-ANN. Second, the selected location is divided into S area and E area using equations (5) and (6), and the corresponding inputs and outputs of the training set are collected in each area. Third, the two BP-ANNs train roughly the intersection pixels of the original image. When fusion occurs in two BP-ANNs, the region-based BP-ANN performs interpolation of images in the present invention. Table 3 shows the results of region-based BP-ANN using different input models.
3.3 실험 3 : 영역 기반의 BP-ANN를 이용한 제네릭 디인터레이싱 모델(객관적 및 주관적 성능 비교)3.3 Experiment 3: Generic deinterlacing model using region-based BP-ANN (objective and subjective performance comparison)
상기 실험을 기반으로 소비 시간과 PSNR 간의 최적의 균형은 8-16-1 구조와 50000 훈련 데이터 세트의 영역 기반의 BP-NN 디인터레이싱 알고리즘에서 성취된다. 본 발명을 평가하기 위해 8개의 baboon, man, girl, goldhill, zelda, toys, airplane, and Barbara를 포함한 훈련 이미지를 이용하고, Lena, finger, peppers, boat를 포함한 테스트 이미지를 이용한다. Based on these experiments, an optimal balance between consumption time and PSNR is achieved in the area-based BP-NN de-interlacing algorithm of the 8-16-1 structure and 50000 training data sets. To evaluate the present invention, a training image including eight baboon, man, girl, goldhill, zelda, toys, airplane, and Barbara is used and a test image including Lena, finger, peppers and boat is used.
표 4는 본 발명에 따른 알고리즘의 PSNR과 시험된 종래 시험된 벤치 마크 간의 비교 결과를 보여준다. Table 4 shows the comparison results between the PSNR of the algorithm according to the present invention and the previously tested benchmarks tested.
본 발명에 따른 방법과 LA, CASA, LABI, LCID, MCAD, MELA 알고리즘을 평가하였다. 시뮬레이션 결과로부터 PSNR 구간에서 0.5938(LA), 0.4837 (CASA), 0.6382 (LABI), 0.5812 (LCID), 0.1424 (MCAD), and 0.4837 (MELA) dB 이므로 본 발명에 따른 방법이 이미지 품질을 개선하는 것으로 결론을 내릴 수 있다. 표 5는 각 디인터레이싱 이미지의 CPU time을 보여준다. The method according to the present invention and the LA, CASA, LABI, LCID, MCAD, and MELA algorithms were evaluated. The method according to the present invention improves the image quality because it is 0.5938 (LA), 0.4837 (CASA), 0.6382 (LABI), 0.5812 (LCID), 0.1424 (MCAD), and 0.4837 I can conclude. Table 5 shows the CPU time of each de-interlaced image.
본 발명에 따른 디인터레이싱 방법은 LA, LCID, MELA 기법을 제외한 모든 테스트 벤치 마크와 비교하였을 때 최소 CPU 시간이 소요된다. 본 발명에 따른 방법은 CASA, LABI, MCAD와 비교하였을 때, 평균 CPU 시간이 각각 64.25, 90.19 및 93.88%로 줄어들었다. The deinterlacing method according to the present invention requires a minimum CPU time when compared with all test benchmarks except LA, LCID, and MELA techniques. The method according to the present invention reduced the average CPU time to 64.25, 90.19 and 93.88%, respectively, when compared to CASA, LABI and MCAD.
도 7은 Boat 이미지의 주관적인 결과를 나타낸다. 이러한 비교 이미지로부터 본 발명에 따른 알고리즘이 모든 테스트 벤치마크들 가운데 가장 높은 주관적 품질을 획득할 수 있음을 알 수 있다. 본 발명에 따른 알고리즘은 매우 적은 시각적 아티펙트만을 가진 깨끗한 이미지이다. 게다가 도 7에 도시된 바와 같이, 본 발명에 따른 알고리즘은 디인터레이싱 이후에 에지 보존과 에지 예리함이 개선되었음 확인할 수 있다. 그러므로 본 발명에 따른 알고리즘은 PSNR의 기간에서 최고의 주관적인 성능을 가져다줌과 동시에 최적의 시각적 성능을 가져다준다.
Figure 7 shows the subjective result of the Boat image. From these comparative images, it can be seen that the algorithm according to the present invention can obtain the highest subjective quality among all the test benchmarks. The algorithm according to the invention is a clean image with only very little visual artifact. Furthermore, as shown in FIG. 7, it can be seen that the algorithm according to the present invention has improved edge preservation and edge sharpness after de-interlacing. The algorithm according to the present invention thus provides the best subjective performance in the period of PSNR and at the same time provides optimal visual performance.
4. 결론 4. Conclusion
이상에서 설명한 바와 같이, 영역 기반의 역전달 인공 신경망을 이용한 영상 디인터레이싱 시스템 및 그 방법에서 타겟 출력 픽셀은 더 효과적인 시뮬레이션을 위해 엣지 영역 E와 스무스 영역 S로 구분된다. 하나의 BP-ANN은 각 영역에 할당된다. 디인터레이싱을 위해 효과적인 구조와 모델을 구성하였으며, 서로 다른 변수를 적용한 세 개의 실험을 실시하였다. 좋은 성능은 비용 시간 및 메모리이며, 실험 결과로부터 시간 소비와 시각적 품질의 균형 관계를 확인할 수 있다. CPU 시간과 PSNR 간의 균형잡기를 고려하면 디인터레이싱을 위한 BP-ANN의 최적의 구조는 도 5의 (B) 에 도시된 입력모드의 8-16-1 였다. 본 발명에 따른 기법은 광범위하게 적용할 수 있는 잠재력이 있음을 확인하였으며, 종래 디인터레이싱 방법보다 더 나은 결과를 나타내는 것을 확인할 수 있다. As described above, in the image deinterlacing system using the area-based reverse transfer artificial neural network and the method thereof, the target output pixel is divided into the edge area E and the smoothing area S for more effective simulation. One BP-ANN is assigned to each area. We constructed effective structure and model for deinterlacing, and performed three experiments applying different parameters. Good performance is cost time and memory, and the balance between time consumption and visual quality can be confirmed from the experimental results. Considering balancing between CPU time and PSNR, the optimal structure of the BP-ANN for de-interlacing was 8-16-1 of the input mode shown in FIG. 5B. The technique according to the present invention has the potential to be widely applied, and it can be confirmed that the method according to the present invention has a better result than the conventional deinterlacing method.
본 발명에 적용된 ANN 디인터레이싱 방법은 인접한 필드 간의 선형 또는 비선형 관계에 관계없이 좋은 성능을 보여준다. 인접 필드에서 누락 픽셀의 선형/비선형 특성을 구분하기 위해서 입력 패턴을 에지 영역과 스무스 영역으로 구분하였으며, NN의 최적 구조를 단순화하였다. 그리고 서로 다른 입력 픽셀 모드의 ANN를 훈련하였다. 이러한 본 발명이 현재까지 연구된 기술 중 가장 우수한 성능을 제공하는 것으로 확인할 수 있었다.
The ANN de-interlacing method applied to the present invention shows good performance irrespective of the linear or non-linear relationship between adjacent fields. In order to distinguish the linear / nonlinear characteristics of the missing pixels in the adjacent field, the input pattern is divided into the edge area and the smooth area, and the optimal structure of the NN is simplified. We also trained ANNs in different input pixel modes. It can be confirmed that the present invention provides the best performance among the techniques studied to date.
이상 본 발명의 실시예로 설명하였으나 본 발명의 기술적 사상이 상기 실시예로 한정되는 것은 아니며, 본 발명의 기술적 사상을 벗어나지 않는 범주에서 다양한 영역 기반의 역전달 인공 신경망을 이용한 영상 디인터레이싱 시스템 및 그 방법으로 구현할 수 있다.
While the present invention has been particularly shown and described with reference to exemplary embodiments thereof, it is to be understood that the invention is not limited to the disclosed exemplary embodiments. The scope of the invention is defined by the appended claims. .
10 : 모델링부
11 : 훈련 이미지 산출부
12 : 훈련 포인트 선택부
13 : 데이터세트 정규화부
14 : 훈련 실행부
20 : 디인터레이싱부
21 : BP-ANN 적용부
22 : 성능확인부
100 : 영상 디인터레이싱 시스템10: Modeling unit
11: Training image calculation unit
12: Training point selector
13: Data set normalization unit
14: Training execution department
20: Deinterlacing section
21: Application of BP-ANN
22: Performance Verification Unit
100: Video deinterlacing system
Claims (8)
상기 모델링부에서 훈련된 BP-ANN을 이용하여 이미지를 디인터레이싱하는 디인터레이싱부를 포함하며,
상기 모델링부는,
타겟 픽셀이 속하는 스무스 영역과 에지 영역을 구분하여, 훈련 이미지를 이진화하는 훈련 이미지 산출부;
이진화된 이미지와 픽셀을 기반으로 훈련 포인트를 임의로 선택하는 훈련 포인트 선택부;
BP-ANN에 제시된 훈련 데이터세트의 모든 픽셀은 0-255으로부터 0-1까지 선형적으로 정규화하는 데이터세트 정규화부 및
스무스 BP-ANN와 에지 BP-ANN의 아키텍터와 파라미터를 이용하여 훈련 실행부를 포함하는 것을 특징으로 하는 영상 디인터레이싱 시스템.
A modeling unit that trains an area to which a target pixel belongs with an edge dataset and a smooth dataset and trains the architecture and parameters of a back propagation artificial neural network (BP-ANN) and a smooth BP-ANN And
And a de-interlacing unit for de-interlacing the image using the BP-ANN trained by the modeling unit,
The modeling unit,
A training image calculation unit for binarizing the training image by distinguishing the smoothing region and the edge region to which the target pixel belongs;
A training point selection unit for arbitrarily selecting training points based on the binarized images and pixels;
All pixels of the training data set presented in the BP-ANN are data set normalization units linearly normalizing from 0-255 to 0-1 and
And a training execution unit using architectures and parameters of the smooth BP-ANN and the edge BP-ANN.
상기 훈련 이미지 산출부는 수학식 5와 수학식 6을 적용하여, 이미지를 이진화하는 것을 특징으로 하는 영상 디인터레이싱 시스템.
[수학식 5]
[수학식 6]
여기서, 보간된 픽셀은 x, 스무스 영역은 S, 엣지 영역은 E이며, 는 벡터 X의 평균값이며, xd는 보간된 픽셀의 상부와 하부 주변의 6개의 존재하는 픽셀 중 하나임.
The method according to claim 1,
Wherein the training image calculation unit binarizes the image by applying Equations (5) and (6).
&Quot; (5) "
&Quot; (6) "
Here, the interpolated pixel is x, the smooth region is S, the edge region is E, Is the mean value of the vector X and x d is one of the six existing pixels around the top and bottom of the interpolated pixel.
상기 디인터레이싱부는,
상기 모델링부에서 훈련된 BP-ANN을 적용하여 입력되는 이미지를 훈련하는 BP-ANN 적용부 및
상기 이미지의 PSNR의 산출로 성능을 평가하는 성능확인부를 포함하는 것을 특징으로 하는 영상 디인터레이싱 시스템.
The method according to claim 1,
The de-
A BP-ANN application unit for training an input image by applying the BP-ANN trained in the modeling unit;
And a performance verifying unit for evaluating the performance by calculating a PSNR of the image.
(b) 디인터레이싱부를 이용하여, 상기 (a) 단계에서 훈련된 BP-ANN을 이용하여 이미지를 디인터레이싱하는 단계를 포함하며,
상기 (a) 단계는,
(a-1) 훈련 이미지 산출부를 이용하여, 타겟 픽셀이 속하는 스무스 영역과 에지 영역을 구분하여, 훈련 이미지를 이진화하는 단계;
(a-2) 훈련 포인트 선택부를 이용하여, 이진화된 이미지와 픽셀을 기반으로 훈련 포인트를 임의로 선택하는 단계;
(a-3) 데이터세트 정규화부를 이용하여, BP-ANN에 제시된 훈련 데이터세트의 모든 픽셀은 0-255으로부터 0-1까지 선형적으로 정규화하는 단계 및
(a-4) 훈련 실행부를 이용하여, 스무스 BP-ANN와 에지 BP-ANN의 아키텍터와 파라미터를 이용하여 훈련하는 단계를 포함하는 것을 특징으로 하는 영상 디인터레이싱 방법.
(a) A modeling unit is used to divide an area to which a target pixel belongs into an edge dataset and a smooth dataset, and a back propagation artificial neural network (BP-ANN) and a smoothing BP-ANN Steps in training with the architecture and parameters and
(b) deinterlacing the image using the BP-ANN trained in step (a) using a de-interlacing unit,
The step (a)
(a-1) binarizing the training image by separating the smoothing area and the edge area to which the target pixel belongs, using the training image calculating part;
(a-2) arbitrarily selecting a training point based on the binarized image and pixels using a training point selection unit;
(a-3) linearly normalizing all pixels of the training data set presented in the BP-ANN from 0-255 to 0-1 using the data set normalizer and
(a-4) training using smooth BP-ANN and edge BP-ANN architectures and parameters using a training execution unit.
상기 (b) 단계는,
(b-1) BP-ANN 적용부를 이용하여 상기 모델링부에서 훈련된 BP-ANN을 적용하여 입력되는 이미지를 훈련하는 단계 및
(b-2) 훈련된 BP-ANN에서 생성된 에지 포인트와 스무스 포인트를 결합하는 단계를 포함하는 것을 특징으로 하는 영상 디인터레이싱 방법.
6. The method of claim 5,
The step (b)
(b-1) training the input image by applying the BP-ANN trained in the modeling unit using the BP-ANN application unit, and
(b-2) combining edge points and smoothing points generated in the trained BP-ANN.
상기 (b-2) 단계 이후에,
(b-3) 성능확인부를 이용하여, 상기 이미지의 PSNR의 산출로 성능을 평가하는 단계를 더 포함하는 것을 특징으로 하는 영상 디인터레이싱 방법.8. The method of claim 7,
After the step (b-2)
(b-3) evaluating the performance by calculating the PSNR of the image using the performance verifying unit.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
KR1020140079652A KR101568590B1 (en) | 2014-06-27 | 2014-06-27 | Image deinterlacing system the method using region-based back propagation artificial neural network |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
KR1020140079652A KR101568590B1 (en) | 2014-06-27 | 2014-06-27 | Image deinterlacing system the method using region-based back propagation artificial neural network |
Publications (1)
Publication Number | Publication Date |
---|---|
KR101568590B1 true KR101568590B1 (en) | 2015-11-11 |
Family
ID=54605898
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
KR1020140079652A KR101568590B1 (en) | 2014-06-27 | 2014-06-27 | Image deinterlacing system the method using region-based back propagation artificial neural network |
Country Status (1)
Country | Link |
---|---|
KR (1) | KR101568590B1 (en) |
Cited By (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US10452977B2 (en) | 2016-07-28 | 2019-10-22 | Samsung Electronics Co., Ltd. | Neural network method and apparatus |
US10769530B2 (en) | 2017-08-04 | 2020-09-08 | Sualab Co., Ltd. | Method for training artificial neural network using histograms and distributions to deactivate at least one hidden node |
CN111914984A (en) * | 2019-05-07 | 2020-11-10 | 财团法人成大研究发展基金会 | Artificial neural network normalization system for identification device |
US10937141B2 (en) | 2017-10-13 | 2021-03-02 | Sualab Co., Ltd. | Deep learning based image comparison device, method and computer program stored in computer readable medium |
Citations (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20050129306A1 (en) | 2003-12-12 | 2005-06-16 | Xianglin Wang | Method and apparatus for image deinterlacing using neural networks |
-
2014
- 2014-06-27 KR KR1020140079652A patent/KR101568590B1/en active IP Right Grant
Patent Citations (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20050129306A1 (en) | 2003-12-12 | 2005-06-16 | Xianglin Wang | Method and apparatus for image deinterlacing using neural networks |
Cited By (7)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US10452977B2 (en) | 2016-07-28 | 2019-10-22 | Samsung Electronics Co., Ltd. | Neural network method and apparatus |
US11222263B2 (en) | 2016-07-28 | 2022-01-11 | Samsung Electronics Co., Ltd. | Neural network method and apparatus |
US11625601B2 (en) | 2016-07-28 | 2023-04-11 | Samsung Electronics Co., Ltd. | Neural network method and apparatus |
US10769530B2 (en) | 2017-08-04 | 2020-09-08 | Sualab Co., Ltd. | Method for training artificial neural network using histograms and distributions to deactivate at least one hidden node |
US10937141B2 (en) | 2017-10-13 | 2021-03-02 | Sualab Co., Ltd. | Deep learning based image comparison device, method and computer program stored in computer readable medium |
CN111914984A (en) * | 2019-05-07 | 2020-11-10 | 财团法人成大研究发展基金会 | Artificial neural network normalization system for identification device |
CN111914984B (en) * | 2019-05-07 | 2023-10-27 | 财团法人成大研究发展基金会 | Artificial neural network normalization system for identification device |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
Liew et al. | Segmentation of color lip images by spatial fuzzy clustering | |
KR101568590B1 (en) | Image deinterlacing system the method using region-based back propagation artificial neural network | |
CN105608676B (en) | The Enhancement Method and device of a kind of video image | |
CN109741356B (en) | Sub-pixel edge detection method and system | |
Culibrk et al. | Neural network approach to background modeling for video object segmentation | |
CN110580472B (en) | Video foreground detection method based on full convolution network and conditional countermeasure network | |
WO2015062374A1 (en) | Temporal noise reduction method of noise image, and related device | |
JP2006507775A (en) | Method and apparatus for measuring the quality of a compressed video sequence without criteria | |
CN106210448B (en) | Video image jitter elimination processing method | |
CN110351453A (en) | A kind of computer video data processing method | |
Li et al. | Adaptive fuzzy enhancement algorithm of surface image based on local discrimination via grey entropy | |
Chen et al. | Counter-propagation artificial neural network-based motion detection algorithm for static-camera surveillance scenarios | |
CN109308709B (en) | Vibe moving target detection algorithm based on image segmentation | |
Wang et al. | Wavelet-content-adaptive BP neural network-based deinterlacing algorithm | |
Liu et al. | No-reference image quality assessment based on localized gradient statistics: application to JPEG and JPEG2000 | |
Jiang et al. | An effective adaptive median filter algorithm for removing salt & pepper noise in images | |
Farahanirad et al. | A hybrid edge detection algorithm for salt and-pepper noise | |
Maddalena et al. | A fusion-based approach to digital movie restoration | |
Malik et al. | Modified bilateral filter for the restoration of noisy color images | |
WO2009144330A1 (en) | Method for detection of objectionable contents in still or animated digital images | |
CN108198140A (en) | Three-dimensional collaboration filtering and noise reduction method based on NCSR models | |
CN110933402B (en) | No-reference stereo video quality evaluation method based on motion texture features | |
CN114239812A (en) | Generator optimization system and method based on frequency domain | |
Verma | Generation of future image frames using adaptive network based fuzzy inference system on spatiotemporal framework | |
Suneetha et al. | Improved generalised fuzzy peer group with modified trilateral filter to remove mixed impulse and adaptive white Gaussian noise from colour images |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
E701 | Decision to grant or registration of patent right | ||
GRNT | Written decision to grant | ||
FPAY | Annual fee payment |
Payment date: 20181029 Year of fee payment: 4 |
|
FPAY | Annual fee payment |
Payment date: 20191028 Year of fee payment: 5 |
|
R401 | Registration of restoration |