KR0174448B1 - Method and apparatus for encoding a video signal using region based motion vectors - Google Patents
Method and apparatus for encoding a video signal using region based motion vectors Download PDFInfo
- Publication number
- KR0174448B1 KR0174448B1 KR1019950003956A KR19950003956A KR0174448B1 KR 0174448 B1 KR0174448 B1 KR 0174448B1 KR 1019950003956 A KR1019950003956 A KR 1019950003956A KR 19950003956 A KR19950003956 A KR 19950003956A KR 0174448 B1 KR0174448 B1 KR 0174448B1
- Authority
- KR
- South Korea
- Prior art keywords
- pixel
- frame
- motion vector
- regions
- previous frame
- Prior art date
Links
Classifications
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N19/00—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
- H04N19/50—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding
- H04N19/503—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding involving temporal prediction
- H04N19/51—Motion estimation or motion compensation
- H04N19/537—Motion estimation other than block-based
- H04N19/543—Motion estimation other than block-based using regions
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N19/00—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
- H04N19/10—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
- H04N19/134—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the element, parameter or criterion affecting or controlling the adaptive coding
- H04N19/136—Incoming video signal characteristics or properties
- H04N19/137—Motion inside a coding unit, e.g. average field, frame or block difference
- H04N19/139—Analysis of motion vectors, e.g. their magnitude, direction, variance or reliability
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N19/00—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
- H04N19/10—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
- H04N19/169—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding
- H04N19/17—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding the unit being an image region, e.g. an object
- H04N19/174—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding the unit being an image region, e.g. an object the region being a slice, e.g. a line of blocks or a group of blocks
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N19/00—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
- H04N19/50—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding
- H04N19/503—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding involving temporal prediction
- H04N19/51—Motion estimation or motion compensation
- H04N19/513—Processing of motion vectors
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N19/00—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
- H04N19/85—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using pre-processing or post-processing specially adapted for video compression
Landscapes
- Engineering & Computer Science (AREA)
- Multimedia (AREA)
- Signal Processing (AREA)
- Compression Or Coding Systems Of Tv Signals (AREA)
- Compression, Expansion, Code Conversion, And Decoders (AREA)
Abstract
본 발명은 이산 영상 신호의 현재프레임과 이전프레임에 근거하여 예측된 현재프레임을 결정하는 움직임 보상 영상 신호 부호화 장치에 관한 것으로, 이전프레임을 다수개의 영역으로 분할하는 분할 수단과; 현재 프레임과 이전 프레임간의 상기 다수개의 분할된 영역 각각의 움직임을 나타내는 다수개의 변위 벡터를 제공하는 영역 단위 변위 추정 수단과; 상기 다수개의 영역을 해당 변위 벡터만큼 이동하여 중간 예측 프레임을 구성하는 예측 수단과; 상기 다수개의 변위벡터를 이용하여 중간예측프레임에 포함된 화소각각에 대한 움직임벡터를 제공하고, 중간예측프레임의 각화소에 대한 움직임벡터에 해당하는 이전 프레임의 화소값을 해당 화소값으로 생성하여 예측된 현재프레임을 결정하는 후처리 수단을 포함하여 구성함을 특징으로 한다.The present invention relates to a motion compensation video signal encoding apparatus for determining a predicted current frame based on a current frame and a previous frame of a discrete video signal, comprising: dividing means for dividing a previous frame into a plurality of regions; Area unit displacement estimation means for providing a plurality of displacement vectors representing the motion of each of the plurality of divided regions between a current frame and a previous frame; Prediction means for moving the plurality of regions by a corresponding displacement vector to form an intermediate prediction frame; Using the plurality of displacement vectors, a motion vector for each pixel included in an intermediate prediction frame is provided, and a pixel value of a previous frame corresponding to the motion vector for each pixel of the intermediate prediction frame is generated as the corresponding pixel value and predicted. And post-processing means for determining the current frame.
Description
제1도는 본 발명의 실시예를 나타내는 비디오 부호화기의 전체 블럭도.1 is an overall block diagram of a video encoder showing an embodiment of the present invention.
제2도는 상기 제1도중 움직임 보상부를 나타내는 상세 블럭도.2 is a detailed block diagram illustrating a motion compensator of the first diagram.
제3도는 a 내지 c는 상기 움직임 보상부에서 수행되는 과정을 설명하기 위한 도면.3 is a view for explaining a process performed in the motion compensation unit a to c.
* 도면의 주요부분에 대한 부호의 설명* Explanation of symbols for main parts of the drawings
105 : 영상 신호 부호화기 107 : 엔트로피 부호화기105: video signal encoder 107: entropy encoder
113 : 영상 신호 복호화기 124 : 프레임 메모리113: video signal decoder 124: frame memory
150 : 움직임 보상부 20 : 영역 분할부150: motion compensation unit 20: region division unit
30 : 영역 단위 변위 추정부 40 : 예측부30: area unit displacement estimation unit 40: prediction unit
50 : 후처리부50: post-processing unit
본 발명은 영상 신호를 부호화하는 장치 및 방법과, 영상 신호를 복호화하는 장치 및 방법에 관한 것으로서, 특히 영역 단위 움직임 벡터(vector)를 이용하여 영상 신호를 부호화하는 움직임 보상 영상 신호 부호화 장치 및 방법과, 영역 단위 움직임 벡터를 이용하여 부호화된 영상 신호를 원래의 영상 신호로 복원하는 움직임 보상 영상 신호 복호화 장치 및 방법에 관한 것이다.The present invention relates to an apparatus and method for encoding an image signal, and to an apparatus and method for decoding an image signal. In particular, the present invention relates to an apparatus and method for encoding an image signal using a region-based motion vector. The present invention relates to a motion compensation video signal decoding apparatus and method for reconstructing a video signal encoded using an area unit motion vector to an original video signal.
일반적으로 영상 신호의 전송시, 아날로그(analog)로 전송하는 것보다 디지탈(digital)로 전송하는 것이 훨씬 더 좋은 화질을 유지할 수 있다는 것이 잘 알려진 사실이지만, 고화질 TV의 경우 프레임(frame) 단위로 구성된 영상이 디지탈 형태로 표현될때 많은 양의 디지탈 데이타가 전송되어야한다.In general, when transmitting a video signal, it is well known that digital transmission can maintain a much better image quality than analog transmission. When an image is represented in digital form, a large amount of digital data must be transmitted.
그러나 종래의 전송 채널에 있어서, 사용 가능한 주파수 영역은 제한되어 있으므로, 많은 양의 디지탈 데이타를 전송하기 위해서는 전송되는 데이타를 압축하여 그 양을 줄일 필요가 있으며, 다양한 압축 기법 중에서, 확률적 부호화 기법과 시간적, 공간적 압축 기법을 결합한 하이브리드 부호화 기법이 가장 효율적인 것으로 알려져 있다.However, in the conventional transmission channel, the usable frequency range is limited. Therefore, in order to transmit a large amount of digital data, it is necessary to compress the transmitted data and reduce the amount thereof. Hybrid coding combined with temporal and spatial compression is known to be the most efficient.
대부분의 하이브리드 부호화 기법은 움직임 보상 DCPM(차분 펄스 부호 변조), 2차원 DCT(이산 코사인 변환), DCT계수의 양자화, VLC(가변장 부호화)등을 이용하는데, 움직임보상 DPCM은 현재 프레임과 이전 프레임간의 물체의 움직임을 결정하고, 물체의 움직임에 따라 현재 프레임을 예측하여 현재 프레임과 예측치간의 차이를 나타내는 차분신호를 만들어내는 방법으로서, 이러한 움직임 보상 DPCM은 Staffan Ericsson 의 Fixed and Adaptive Predictors for Hybrid Predictive/Transform Coding, IEEE Transactions on Communication, COM-33, NO.12 (1985년, 12월), 또는 Ninomiy와 Ohtsuka의 A motion Compensated Interframe Coding Scheme for Television Pictures, IEEE Transactions on Communication, COM-30, NO.1 (1982년, 1월)에 잘 기재되어 있다.Most hybrid coding techniques use motion compensated DCPM (Differential Pulse Code Modulation), 2-D Discrete Cosine Transform (DCT), quantization of DCT coefficients, VLC (variable length coding), etc. The motion compensation DPCM uses Staffan Ericsson's Fixed and Adaptive Predictors for Hybrid Predictive / to determine the difference between the current frame and the predicted value. Transform Coding, IEEE Transactions on Communication, COM-33, NO.12 (1985, December), or Ninomiy and Ohtsuka's A motion Compensated Interframe Coding Scheme for Television Pictures, IEEE Transactions on Communication, COM-30, NO.1 (January, 1982).
또한 2차원 DCT는 디지탈 영상 데이타의 한 블럭, 예를 들면 8x8 화소의 블럭을 일군의 변환계수 데이타로 변환함으로서 영상 데이타들간의 공간적 중복성(spatial redundancy)을 줄이거나 제거한다.In addition, two-dimensional DCT reduces or eliminates spatial redundancy between image data by converting one block of digital image data, for example, a block of 8x8 pixels into a group of transform coefficient data.
이러한 2차원 DCT 기법은 Chen과 Pratt의 Scene Adaptive Coder, IEEE Transaction on Communications, COM-32, No.3 (1984년 3월)에 기재되어 있으며, 상기한 변환 계수 데이타를 양자화기, 지그재그 스캐닝(zigzag scanning), VLC등으로 처리함으로서 전송할 데이타를 효율적으로 압축할 수 있다.This two-dimensional DCT technique is described in Chen and Pratt's Scene Adaptive Coder, IEEE Transaction on Communications, COM-32, No. 3 (March 1984), and quantizer and zigzag scanning of the transform coefficient data described above. By processing by scanning, VLC, etc., data to be transmitted can be efficiently compressed.
또한 움직임 보상 DPCM에서는 현재 프레임과 이전 프레임간의 움직임을 추정하여 이전 프레임으로부터 현재 프레임을 예측함으로서 수행되는데, 움직임 추정은 이전 프레임과 현재 프레임간의 변위를 나타내는 2차원 벡터로서 나타낸다.In the motion compensation DPCM, the motion between the current frame and the previous frame is estimated to predict the current frame from the previous frame. The motion estimation is represented as a two-dimensional vector representing the displacement between the previous frame and the current frame.
한편 영상 신호에서 물체의 변위를 추정하는 다양한 방법이 제안되었는데, 종래의 일반적인 움직임 벡터 추정 방법은 2개의 타입, 즉 화소 반복 알고리듬과 블럭 정합 알고리듬(J.R.Jain등의 Displacement Measurement and Its Application in Interframe Image Coding, IEEE Transactions on Communications COM-29, NO.12 (1881년, 12월) 참조)으로 분류될 수 있다.Meanwhile, various methods for estimating the displacement of an object in an image signal have been proposed. Conventional motion vector estimation methods have been proposed in two types, namely, a pixel repetition algorithm and a block matching algorithm (JR Jain et al., Displacement Measurement and Its Application in Interframe Image Coding). , IEEE Transactions on Communications COM-29, NO.12 (see December 1188, December).
더 널리 쓰이는 블럭 정합 알고리듬에 대해 설명하면, 현재 프레임은 다수개의 탐색 블럭으로 나뉘어지고, 각 탐색 블럭의 크기는 일반적으로 8x8에서 32x32개의 화소범위에 있는데, 현재 프레임의 탐색 블럭의 움직임 벡터를 결정하기 위하여 이전 프레임의 탐색 영역에 포함되어 동일한 크기를 갖는 다수의 후보 블럭 각각과 현재 프레임의 탐색 블럭간의 유사도를 계산하며, 현재 프레임의 탐색 블럭과 탐색 영역의 후보 블럭간의 유사도 계산에는 평균절대오차나 평균자승오차와 같은 오차함수가 이용된다.In the more widely used block matching algorithm, the current frame is divided into a number of search blocks, and the size of each search block is generally in the range of 8x8 to 32x32 pixels to determine the motion vector of the search block of the current frame. To calculate the similarity between each candidate block included in the search area of the previous frame and the search block of the current frame having the same size, the average absolute error or the average is calculated for the similarity between the search block of the current frame and the candidate block of the search area Error functions such as square error are used.
또한 움직임 벡터는 탐색블럭과 가장 작은 오차 함수값을 발생시키는 후보블럭간의 변위로 정의된다.In addition, the motion vector is defined as the displacement between the search block and the candidate block generating the smallest error function value.
실제의 영상에서는 정해진 크기의 블럭이라기보다는 물체 또는 영역이 움직임의 단위가 된다. 따라서, 종래의 블럭정합알고리듬을 이용하는 움직임보상 과정에서는 블럭의 경계에 블로킹현상(blocking effect)이 일어나서, 화질을 열화시킬 수 있다.In an actual image, an object or region is a unit of movement, rather than a block of a predetermined size. Therefore, in the motion compensation process using the conventional block matching algorithm, a blocking effect occurs at the boundary of the block, which may degrade the image quality.
한편, 영상을 영역단위로 부호화하여 복호화기로 전송하면, 영역 경계에 대한 정보가 복호화기에서 복호화 과정에 필요하게 된다.Meanwhile, when an image is encoded in an area unit and transmitted to the decoder, information about an area boundary is necessary for the decoding process in the decoder.
따라서, 본 발명은 영역경계에 대한 부가의 정보없이, 영역 단위방법을 이용하여 비디오신호를 부호화하고 복호화하는 장치 및 방법을 제공함에 그 목적이 있다.Accordingly, an object of the present invention is to provide an apparatus and method for encoding and decoding a video signal using an area unit method, without additional information on an area boundary.
본 발명은 상기 목적을 달성하기 위하여 이산된 영상 신호의 현재프레임과 이전프레임에 근거하여 예측된 현재프레임을 결정하는 움직임 보상 영상 신호 부호화 장치에 있어서: 이전프레임을 다수개의 영역으로 분할하는 분할 수단과; 현재 프레임과 이전 프레임간의 상기 다수개의 분할된 영역 각각의 움직임을 나타내는 다수개의 변위 벡터를 제공하는 영역 단위 변위 추정 수단과; 상기 다수개의 분할 영역을 해당 변위벡터만큼 이동하여 중간 예측 프레임을 구성하는 예측 수단과; 상기 다수개의 변위 벡터를 이용하여 중간 예측 프레임에 포함된 화소각각에 대한 움직임 벡터를 제공하고, 중간 예측 프레임의 각화소에 대한 움직임벡터에 해당하는 이전프레임의 화소값을 해당 화소값으로 생성하여 예측된 현재프레임을 결정하는 후처리 수단을 포함하여 구성함을 특징으로 한다.According to an aspect of the present invention, there is provided a motion compensation video signal encoding apparatus configured to determine a predicted current frame based on a current frame and a previous frame of a discrete video signal, including: dividing means for dividing a previous frame into a plurality of regions; ; Area unit displacement estimation means for providing a plurality of displacement vectors representing the motion of each of the plurality of divided regions between a current frame and a previous frame; Prediction means for moving the plurality of divided regions by a corresponding displacement vector to form an intermediate prediction frame; Using the plurality of displacement vectors, a motion vector for each pixel included in an intermediate prediction frame is provided, and a pixel value of a previous frame corresponding to the motion vector for each pixel of the intermediate prediction frame is generated as a corresponding pixel value. And post-processing means for determining the current frame.
이하, 첨부된 도면을 참조하여 본 발명을 상세히 설명한다.Hereinafter, with reference to the accompanying drawings will be described in detail the present invention.
제1도에는 본 발명의 움직임 보상부(150)를 이용한 영상 부호화 장치의 블럭도가 도시되어 있다.1 is a block diagram of an image encoding apparatus using the motion compensation unit 150 of the present invention.
영상 신호는 가산기(102)와 본 발명의 움직임 보상부(150)으로 입력된다.The video signal is input to the adder 102 and the motion compensator 150 of the present invention.
본 발명의 바람직한 실시예에 따른 영상 부호화 장치의 움직임 보상부(150)에서는, 라인(L130)을 통하여 현재 프레임 신호를 수신하고 프레임 메모리(124)로부터의 라인(L132)을 통하여 복원된 이전 프레임 신호를 수신하여 이전 프레임의 영역과, 현재 프레임에 포함된 최적 정합 영역간의 변위를 나타내는 변위 벡터를 추정한 후 라인(L134)를 통하여 엔트로피 부호화기(107)에 변위 벡터를 제공한다. 이때 각영역은 비슷한 성질을 가진 일군의 화소들로 정의된다.In the motion compensator 150 of the image encoding apparatus according to the preferred embodiment of the present invention, the previous frame signal is received through the line L130 and reconstructed through the line L132 from the frame memory 124. After estimating the displacement vector representing the displacement between the region of the previous frame and the optimal matching region included in the current frame, the displacement vector is provided to the entropy encoder 107 through the line L134. Each area is defined as a group of pixels with similar properties.
또한 움직임 보상부(150)는 변위 벡터를 이용하여 현재 프레임에 대한 예측신호도 결정하여, 라인(L160)을 통하여 감산기(102)와 가산기(115)에 제공한다. 또한 예측신호는 변위 벡터를 이용하여 제2도를 참조하여 설명되는 것과 같은 방법으로 이전프레임으로부터 예측된다.In addition, the motion compensator 150 also determines the prediction signal for the current frame using the displacement vector and provides the subtractor 102 and the adder 115 through the line L160. The prediction signal is also predicted from the previous frame in the same manner as described with reference to FIG. 2 using the displacement vector.
감산기(102)는 움직임 보상부(150)로부터 수신한 예측 신호와 현재 프레임신호를 감산하고 그 결과 데이타, 즉, 차분 화소값을 나타내는 에러 신호를 영상신호 부호화기(105)로 입력시키며, 그중 에러 신호 한블럭은 이산코사인변환(DCT)등과 양자화 기법에 의해 일련의 양자화된 변환계수로 부호화된다.The subtractor 102 subtracts the prediction signal received from the motion compensator 150 and the current frame signal, and inputs the result signal, that is, an error signal indicating a difference pixel value, to the image signal encoder 105, among which the error signal One block is encoded into a series of quantized transform coefficients by a discrete cosine transform (DCT) and the like.
이 이후에 양자화된 변환계수는 두가지 경로를 통해 전송되는데, 하나는 엔트로피 부호화기(107)로 입력되어 라인(L134)을 통해 입력되는 변위 벡터와 함께, 줄 길이 부호화와 가변길이 부호화의 결합등의 방법을 통해 부호화되어 전송을 위하여 전송기(도시되지 않음)에 제공되고, 또 하나는 영상 신호 복호화기(113)에 입력되어 역양자화와 역변환을 통해 복원된 차분 에러 신호로 변환된다. 에러신호의 복원은 부호화기가 수신기의 복호화기의 동작을 추적하여 복호화기에서 복원된 신호가 현재 프레임 신호로부터 발산하는 것을 방지하기 위해 필요하다.After this, the quantized transform coefficients are transmitted through two paths, one of which is a combination of line length coding and variable length coding, together with a displacement vector input to the entropy encoder 107 and input through the line L134. The signal is encoded and transmitted to a transmitter (not shown) for transmission, and the other is input to the image signal decoder 113 and converted into a differential error signal reconstructed through inverse quantization and inverse transformation. The recovery of the error signal is necessary for the encoder to track the operation of the decoder of the receiver to prevent the signal recovered in the decoder from diverging from the current frame signal.
영상복호화기(113)에 의해 복원된 에러 신호와 움직임 보상부 (150)의 예측 신호는 가산기(115)에서 합쳐져서 복원된 현재 프레임 신호가 되어 프레임 메모리(124)에 저장된다.The error signal reconstructed by the image decoder 113 and the prediction signal of the motion compensator 150 are combined in the adder 115 to be a current frame signal reconstructed and stored in the frame memory 124.
제2도는 본 발명의 실시예에 따른 영상 부호화 장치의 움직임 보상부(150)를 나타낸 상세 블럭도로서, 본 발명에서는, 영역단위 변위 벡터가 부호화와 복호화 과정에 사용된다. 다시말하면, 변위벡터가 영상의 영역단위로 결정된다. 영역단위 변위벡터를 이용하여 부호화된 영상을 복원하기 위해서는, 해당 복호화기에서 영역에 대한 정보가 필요하다. 부호화기로부터 복호화기로 전송되는 데이타의 양이 한정되어 있으므로, 부호화기로부터 영역에 대한 정보를 전송하는 것보다 복호화기에서 복원하는 것이 더욱 효율적이다.2 is a detailed block diagram illustrating a motion compensator 150 of an image encoding apparatus according to an exemplary embodiment of the present invention. In the present invention, a region-based displacement vector is used for encoding and decoding processes. In other words, the displacement vector is determined in units of regions of the image. In order to reconstruct an image encoded by using the displacement vector of the region, information on the region is required in the corresponding decoder. Since the amount of data transferred from the encoder to the decoder is limited, it is more efficient to recover at the decoder than to transmit information about the region from the encoder.
제1도의 프레임 메모리(124)에 저장된 이전 프레임은 해당 복호화기에서 복원되는 프레임과 동일하다. 그리고 그 복원된 이전프레임을 분할하여 얻어지는 영역도 해당 복호화기에서와 같다. 따라서, 현재 프레임이 각 영역에 해당하는 변위벡터를 이용하여 부호화되었다면, 부호화기로부터 복호화기로 영역에 대한 정보를 전송하지 않고도, 현재프레임을 복원하는 것이 가능하다.The previous frame stored in the frame memory 124 of FIG. 1 is the same as the frame reconstructed by the corresponding decoder. The region obtained by dividing the restored previous frame is also the same as in the corresponding decoder. Therefore, if the current frame is encoded using a displacement vector corresponding to each region, it is possible to recover the current frame without transmitting information about the region from the encoder to the decoder.
제3도(a)에는 R0에서 R7의 복수개의 영역을 포함하는 복원된 이전프레임이 도시되어 있다.FIG. 3 (a) shows a restored previous frame including a plurality of regions from R0 to R7.
제1도에 도시된 프레임메모리(124)에 저장된 이전프레임은 영역분할부(20)로 입력된다. 영역 분할부(20)에서는 이전프레임이 분할되어 다수의 영역, 예를 들어 제3도(a)의 R0에서 R7을 결정한다. 영역화 과정에는 다양한 방법이 사용될 수 있다(A.K.Jain의 이산영상처리의 기초(Fundamentals of Digital Image Processing), 1989, Prectice-Hall International 참조).The previous frame stored in the frame memory 124 shown in FIG. 1 is input to the area divider 20. In the region dividing unit 20, the previous frame is divided to determine a plurality of regions, for example, R7 through R0 in FIG. Various methods can be used for the segmentation process (see A.K. Jain's Fundamentals of Digital Image Processing, 1989, Prectice-Hall International).
영역정보는 영역단위 변위 추정부(30)에 입력되는데, 이때 영역 정보에는 영역의 위치와 포함된 화소들이 포함되어 있다. 입력 이산 영상 신호로 표시된 현재프레임 신호도 영역 단위 변위 추정부(30)에 입력된다.The area information is input to the area unit displacement estimator 30, where the area information includes the location of the area and included pixels. The current frame signal represented by the input discrete image signal is also input to the area unit displacement estimator 30.
영역단위 변위추정부(30)에서는 현재프레임과 이전프레임의 영역간의 변위벡터가 추정된다. 제3도(b)는 이전프레임과 현재프레임간의 변위벡터 M0에서 M7이 도시되어 있는데, 각 변위벡터는 제3도(a)에 도시된 이전프레임의 해당영역의 움직임을 나타낸다. 편의를 위하여, 배경을 나타내는 영역 R0, R1, R2 , R7에는 0값을 갖는 변위벡터가 할당되어 있고; 변위벡터 M3부터 M6은 같은 값을 갖는 것으로 가정되었다.In the area unit displacement estimation unit 30, the displacement vector between the area of the current frame and the previous frame is estimated. FIG. 3 (b) shows the displacement vectors M0 to M7 between the previous frame and the current frame, and each displacement vector represents the movement of the corresponding region of the previous frame shown in FIG. For convenience, the displacement vectors having a value of 0 are assigned to the regions R0, R1, R2, and R7 representing the background; It is assumed that the displacement vectors M3 to M6 have the same value.
변위벡터는 예측부(40)와 제1도에 도시된 엔트로피 부호화기(107)로 라인(L134)를 통하여 제공된다. 영역 분할부(20)에서 결정된 영역 정보도 예측부(40)로 입력된다. 예측부(40)에서는 제3도(a)의 각 영역을 제3도(b)의 해당 움직임벡터만큼 이동시킴으로서 중간예측프레임을 결정한다. 제3도(c)에는 중간예측프레임이 도시되어 있다. 제3도(c)에서는 빈영역, 즉, 점으로 채워진영역(R11)은 이전프레임에 대응하는 화소가 없는 화소를 나타내고, 겹쳐진영역, 즉 빗금쳐진영역(R12)는 이전 프레임에 대응하는 화소가 2개 이상인 화소를 나타낸다. 빈영역과 겹쳐진 영역이외의 중간 예측블럭의 나머지부분은 이전프레임의 화소 하나가 대응하는 화소들을 표시한다. 중간 예측프레임은 흔히 빈영역이나 겹쳐진 영역을 포함하는데, 그 이유는 이전프레임의 각영역에 대한 변위벡터만큼 이전프레임의 각영역을 이동시켜서 중간예측프레임을 결정하기 때문이다.The displacement vector is provided through the line L134 to the predictor 40 and the entropy encoder 107 shown in FIG. The region information determined by the region divider 20 is also input to the predictor 40. The predictor 40 determines the intermediate prediction frame by moving each region of FIG. 3 (a) by the corresponding motion vector of FIG. 3 (b). In FIG. 3C, an intermediate prediction frame is shown. In FIG. 3C, an empty area, that is, an area filled with dots R11 represents a pixel without a pixel corresponding to the previous frame, and an overlapped area, that is, a shaded area R12, represents a pixel corresponding to the previous frame. Two or more pixels are shown. The remaining portion of the intermediate prediction block other than the region overlapping with the empty region indicates pixels corresponding to one pixel of the previous frame. The intermediate prediction frame often includes an empty region or an overlapping region because the intermediate prediction frame is determined by moving each region of the previous frame by the displacement vector of each region of the previous frame.
예측부(40)으로부터의 중간예측프레임과 영역 단위 변위 추정부(30)으로부터의 변위벡터는 후처리부(50)으로 입력된다. 후처리부(50)에서는, 빈영역과 겹친영역에 포함된 각화소에 대한 움직임벡터가 후술되는 것처럼 결정된후, 복호화기 측에 전송되는데, 여기에서 움직임벡터는 본발명과 관련하여 결정된 중간예측블럭의 화소와 이전블럭의 화소간의 변위를 표시한다.The intermediate prediction frame from the predictor 40 and the displacement vector from the region-based displacement estimator 30 are input to the post processor 50. In the post-processing unit 50, the motion vector for each pixel included in the area overlapping with the empty area is determined as described below, and then transmitted to the decoder, where the motion vector is determined by the intermediate prediction block determined in relation to the present invention. The displacement between the pixel and the pixel of the previous block is displayed.
제3도(c)에 나타난 바와 같이 중간 예측 프레임으로부터 예측된 현재프레임을 찾기 위하여 영역 분할부(20)으로부터의 변위벡터가 빈영역(R11)이나 겹쳐진 영역(R12)에 속하지 않는 해당화소들의 움직임벡터로 결정된다. 그리고 빈영역(R11)이나 겹쳐진 영역(R12)에 속하는 화소 각각에 대한 움직임벡터가 결정된다. 제3도(c)의 빈영역(R11)의 화소(P0)에 대한 움직임벡터를 찾기 위해서는 원(C0)과 겹치는 모든 인접한 영역들이 결정된다. 원(C0)은 화소(P0)를 중심으로 하고 기설정된 반지름(r)을 갖는다. 이 경우에, 영역(R6)과 영역(R7)이 해당 인접영역이다. 화소(P0)의 움직임벡터는 인접영역들의 움직임벡터의 평균으로 결정된다. 영역(R11)이나 영역(R12)에 포함된 다른 화소에 대한 움직임벡터도 비슷한 방법으로 결정된다. 그리고 난후, 중간예측프레임의 각화소에 대한 움직임벡터에 해당하는 이전프레임의 화소값이 예측된 현재프레임의 각화소값으로 결정된다.As shown in FIG. 3 (c), in order to find the current frame predicted from the intermediate prediction frame, the movement of corresponding pixels whose displacement vector from the region dividing unit 20 does not belong to the empty region R11 or the overlapping region R12. Determined by a vector. Then, a motion vector for each pixel belonging to the empty region R11 or the overlapped region R12 is determined. In order to find a motion vector for the pixel P0 of the empty area R11 of FIG. 3C, all adjacent regions overlapping the circle C0 are determined. The circle C0 is centered on the pixel P0 and has a predetermined radius r. In this case, the area R6 and the area R7 are adjacent areas. The motion vector of the pixel P0 is determined as an average of the motion vectors of adjacent areas. Motion vectors for other pixels included in region R11 or region R12 are also determined in a similar manner. Then, the pixel value of the previous frame corresponding to the motion vector of each pixel of the intermediate prediction frame is determined as the predicted angle pixel value of the current frame.
제2도를 다시 참조하면, 전술한 것과 같이 이전프레임의 화소값을 후처리부(50)에서 결정된 움직임벡터에 근거하여, 프레임메모리(124)로부터 라인(L132)를 통해 인출함으로서 예측된 현재프레임을 얻을 수 있다.Referring to FIG. 2 again, as described above, the pixel value of the previous frame is extracted from the frame memory 124 through the line L132 based on the motion vector determined by the post-processing unit 50. You can get it.
본 발명의 실시예에 따른 부호화 장치에 상응하는 복호화 장치에서는 움직임 보상블럭의 구조는 제2도와 비슷하고 다만, 제2도의 영역단위 변위추정부(30)는 없는데 그 이유는 부호화기로부터 전송되는 변위벡터가 제공되기 때문이다. 움직임 보상부는 영역 분할부, 예측부, 후처리부를 포함하는데 그기능은 상기의 부호화기에서 설명한 것과 동일하다.In the decoding apparatus corresponding to the encoding apparatus according to the embodiment of the present invention, the structure of the motion compensation block is similar to that of FIG. 2, but there is no area unit displacement estimator 30 of FIG. 2 because the displacement vector is transmitted from the encoder. Because it is provided. The motion compensator includes a region divider, a predictor, and a post processor. The function is the same as that described in the encoder.
상술하면, 본 발명의 실시예에 따른 복호화 장치의 프레임메모리로부터의 이전프레임신호는 기술한 부호화기와 같다. 이전프레임은 영역 분할부로 입력되어 다수의 영역으로 나누어진다. 예측부는 영역 분할부로부터의 영역 정보와 부호화기로부터 전송된 변위벡터를 이용하여 중간예측프레임을 결정한다(제2도 참조). 후처리부는 부호화기와 같은 예측된 현재프레임을 제공한다. 예측된 현재 프레임은 복호화기에서 더 처리되어 원래의 비디오 신호와 유사한 현재프레임을 복원하게 된다.In detail, the previous frame signal from the frame memory of the decoding apparatus according to the embodiment of the present invention is the same as the encoder described. The previous frame is input to an area divider and divided into a plurality of areas. The prediction unit determines the intermediate prediction frame using the region information from the region dividing unit and the displacement vector transmitted from the encoder (see FIG. 2). The post processor provides a predicted current frame such as an encoder. The predicted current frame is further processed by the decoder to reconstruct the current frame similar to the original video signal.
상기한 바와 같이 본 발명은 영역경계에 대한 부가의 정보없이, 영역단위(region-based) 방법을 이용하여 비디오신호를 부호화하고 복호화하는 장치 및 방법을 제공하는 것이다.As described above, the present invention provides an apparatus and method for encoding and decoding a video signal using a region-based method without additional information on region boundaries.
Claims (12)
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
KR1019950003956A KR0174448B1 (en) | 1995-02-28 | 1995-02-28 | Method and apparatus for encoding a video signal using region based motion vectors |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
KR1019950003956A KR0174448B1 (en) | 1995-02-28 | 1995-02-28 | Method and apparatus for encoding a video signal using region based motion vectors |
Publications (2)
Publication Number | Publication Date |
---|---|
KR960033124A KR960033124A (en) | 1996-09-17 |
KR0174448B1 true KR0174448B1 (en) | 1999-03-20 |
Family
ID=19408912
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
KR1019950003956A KR0174448B1 (en) | 1995-02-28 | 1995-02-28 | Method and apparatus for encoding a video signal using region based motion vectors |
Country Status (1)
Country | Link |
---|---|
KR (1) | KR0174448B1 (en) |
-
1995
- 1995-02-28 KR KR1019950003956A patent/KR0174448B1/en not_active IP Right Cessation
Also Published As
Publication number | Publication date |
---|---|
KR960033124A (en) | 1996-09-17 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
KR0181027B1 (en) | An image processing system using pixel-by-pixel motion estimation | |
JP4180666B2 (en) | Video signal encoding method | |
US5587741A (en) | Apparatus and method for detecting motion vectors to half-pixel accuracy | |
EP0634874B1 (en) | Determination of motion vectors in a frame decimating video encoder | |
KR100209793B1 (en) | Apparatus for encoding/decoding a video signals by using feature point based motion estimation | |
EP0734177A2 (en) | Method and apparatus for encoding/decoding a video signal | |
JPH08307873A (en) | Video signal coding method | |
US5654761A (en) | Image processing system using pixel-by-pixel motion estimation and frame decimation | |
KR20000053028A (en) | Prediction method and device with motion compensation | |
JP3681784B2 (en) | Video signal encoding device | |
KR100212559B1 (en) | The contour coding system and motion prediction method for object | |
US5790207A (en) | Motion compensation method for use in an image encoding system | |
US6020925A (en) | Method and apparatus for encoding a video signal using pixel-by-pixel motion prediction | |
US6061401A (en) | Method and apparatus for selectively encoding/decoding a video signal | |
KR0174448B1 (en) | Method and apparatus for encoding a video signal using region based motion vectors | |
EP0720373A1 (en) | Method and apparatus for encoding a video signal using region-based motion vectors | |
JPH08205168A (en) | Apparatus and method for video signal coding/decoding | |
KR0174455B1 (en) | Method and apparatus for encoding a video signal using pixel-by-pixel motion prediction | |
KR100207397B1 (en) | Method and apparatus for estimating motion of image in image encoder | |
KR0181033B1 (en) | Apparatus for selectively encoding error signals | |
KR100220680B1 (en) | The vertex coding apparatus for object contour encoder | |
KR100220581B1 (en) | The vertex coding apparatus for object contour encoder | |
KR0159374B1 (en) | Apparatus for encoding a video signal using a search grid | |
KR100203658B1 (en) | Apparatus for estimating motion of contour in object based encoding | |
KR0174462B1 (en) | Image processing system using pixel-by-pixel motion estimation and frame decimation |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A201 | Request for examination | ||
E902 | Notification of reason for refusal | ||
E701 | Decision to grant or registration of patent right | ||
GRNT | Written decision to grant | ||
FPAY | Annual fee payment |
Payment date: 20111101 Year of fee payment: 14 |
|
FPAY | Annual fee payment |
Payment date: 20121101 Year of fee payment: 15 |
|
LAPS | Lapse due to unpaid annual fee |