JP4850475B2 - Method for filtering pixels in an image - Google Patents
Method for filtering pixels in an image Download PDFInfo
- Publication number
- JP4850475B2 JP4850475B2 JP2005300353A JP2005300353A JP4850475B2 JP 4850475 B2 JP4850475 B2 JP 4850475B2 JP 2005300353 A JP2005300353 A JP 2005300353A JP 2005300353 A JP2005300353 A JP 2005300353A JP 4850475 B2 JP4850475 B2 JP 4850475B2
- Authority
- JP
- Japan
- Prior art keywords
- pixel
- filtering
- pixels
- block
- image
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Expired - Fee Related
Links
- 238000001914 filtration Methods 0.000 title claims description 69
- 238000000034 method Methods 0.000 title claims description 58
- 239000006185 dispersion Substances 0.000 claims description 2
- 230000000903 blocking effect Effects 0.000 description 44
- 230000003044 adaptive effect Effects 0.000 description 16
- 238000007906 compression Methods 0.000 description 14
- 230000006870 function Effects 0.000 description 14
- 230000006835 compression Effects 0.000 description 13
- 238000010586 diagram Methods 0.000 description 12
- 238000001514 detection method Methods 0.000 description 10
- 238000009499 grossing Methods 0.000 description 9
- 238000012545 processing Methods 0.000 description 9
- 230000000694 effects Effects 0.000 description 6
- 230000008569 process Effects 0.000 description 6
- 238000013139 quantization Methods 0.000 description 6
- 238000005516 engineering process Methods 0.000 description 5
- 239000011159 matrix material Substances 0.000 description 5
- 238000012805 post-processing Methods 0.000 description 5
- 230000009466 transformation Effects 0.000 description 4
- 230000009467 reduction Effects 0.000 description 3
- 230000006978 adaptation Effects 0.000 description 2
- 238000000605 extraction Methods 0.000 description 2
- 238000003384 imaging method Methods 0.000 description 2
- 238000012986 modification Methods 0.000 description 2
- 230000004048 modification Effects 0.000 description 2
- 230000000750 progressive effect Effects 0.000 description 2
- 230000005540 biological transmission Effects 0.000 description 1
- 238000004422 calculation algorithm Methods 0.000 description 1
- 238000004364 calculation method Methods 0.000 description 1
- 238000004891 communication Methods 0.000 description 1
- 239000000284 extract Substances 0.000 description 1
- 238000012886 linear function Methods 0.000 description 1
- 238000013507 mapping Methods 0.000 description 1
- 230000000873 masking effect Effects 0.000 description 1
- 238000003909 pattern recognition Methods 0.000 description 1
- 238000004321 preservation Methods 0.000 description 1
- 238000011946 reduction process Methods 0.000 description 1
- 230000002123 temporal effect Effects 0.000 description 1
- 238000012360 testing method Methods 0.000 description 1
- 238000012549 training Methods 0.000 description 1
Images
Landscapes
- Image Processing (AREA)
- Facsimile Image Signal Circuits (AREA)
- Compression Or Coding Systems Of Tv Signals (AREA)
- Compression Of Band Width Or Redundancy In Fax (AREA)
Description
本発明は、包括的にはデジタル信号処理に関し、特に、画像中の画素を分類し、この分類に応じて画素をフィルタリングすることに関する。 The present invention relates generally to digital signal processing, and more particularly to classifying pixels in an image and filtering the pixels according to the classification.
圧縮は、デジタルカメラ、放送TVおよびDVDを含む多くの画像化の用途において、メモリに記憶することのできる画像数を増やすため、または送信帯域幅を減らすために用いられている。圧縮比が高い場合には、量子化および係数の打ち切りの副作用により、復元画像中に目に見えるアーチファクトが生じる可能性がある。現実的な解決策は、復元画像をフィルタリングして、目に見えるアーチファクトを抑え、復元画像の主観的な品質を保証することである。 Compression is used in many imaging applications, including digital cameras, broadcast TVs and DVDs, to increase the number of images that can be stored in memory or to reduce transmission bandwidth. When the compression ratio is high, visible artifacts may occur in the reconstructed image due to the side effects of quantization and coefficient truncation. A realistic solution is to filter the reconstructed image to suppress visible artifacts and to guarantee the subjective quality of the reconstructed image.
ITU−T H.26xおよびMPEG−1/2/4等のほとんどのビデオ符号化規格は、ブロックに基づくプロセスを用いる。高い圧縮比では、基礎を成すブロックに基づく処理により、いくつかのアーチファクトが目に見える。最も一般的なアーチファクトは、ブロッキングおよびリンギングである。 ITU-TH. Most video coding standards such as 26x and MPEG-1 / 2/4 use block-based processes. At high compression ratios, some artifacts are visible due to the processing based on the underlying blocks. The most common artifacts are blocking and ringing.
ブロッキングアーチファクトは、復元画像のモノトーン領域のブロック境界に沿って格子ノイズとして現れる。ブロッキングアーチファクトは、隣接するブロックが別個に処理され、ブロック境界における画素強度が復元後に完全にそろわないために生じる。リンギングアーチファクトは、復元画像のエッジに沿って、より顕著である。この効果は、ギブス現象として知られ、量子化AC係数による高周波係数の打ち切りによって生じる。 Blocking artifacts appear as lattice noise along the block boundaries of the monotone region of the restored image. Blocking artifacts occur because adjacent blocks are processed separately and the pixel intensities at the block boundaries are not perfectly aligned after restoration. Ringing artifacts are more prominent along the edges of the restored image. This effect is known as the Gibbs phenomenon and is caused by truncation of the high frequency coefficient by the quantized AC coefficient.
これらの符号化アーチファクトを除去するための多くの後処理技法が知られている。 Many post-processing techniques are known to remove these coding artifacts.
空間領域法が、Lee他に対して2003年3月25日付で発行された米国特許第6,539,060号「Image data post-processing method for reducing quantization effect, apparatus therefor」、Osaに対して2002年12月17日付で発行された米国特許第6,496,605号「Block deformation removing filter, image processing apparatus using the same, method of filtering image signal, and storage medium for storing software therefor」、Konstantinidesに対して2001年11月20日付で発行された米国特許第6,320,905号「Postprocessing system for removing blocking artifacts in block-based codecs」、Cheung他に対して2001年1月23日付で発行された米国特許第6,178,205号「Video postfiltering with motion-compensated temporal filtering and/or spatial-adaptive filtering」、Sugahara他に対して2000年12月26日付で発行された米国特許第6,167,157号「Method of reducing quantization noise generated during a decoding process of image data and device for decoding image data」、およびGupta他に対して1999年7月6日付で発行された米国特許第5,920,356号「Coding parameter adaptive transform artifact reduction process」に記載されている。 The spatial domain method is US Pat. No. 6,539,060 “Image data post-processing method for reducing quantization effect, apparatus therefor” issued to Lee et al. On March 25, 2003, 2002 to Osa. US Pat. No. 6,496,605 issued December 17, 2000, “Block deformation removing filter, image processing apparatus using the same, method of filtering image signal, and storage medium for storing software therefor”, Konstantinides US Pat. No. 6,320,905 issued on November 20, 2001, “Postprocessing system for removing blocking artifacts in block-based codecs”, US patent issued on January 23, 2001 to Cheung et al. No. 6,178,205 “Video postfiltering with motion-compensated temporal filtering and / or spatial-adaptive filtering”, December 26, 2000 to Sugahara et al. Issued on July 6, 1999 to Gupta et al., US Pat. No. 6,167,157, “Method of reducing quantization noise generated during a decoding process of image data and device for decoding image data” U.S. Pat. No. 5,920,356, “Coding parameter adaptive transform artifact reduction process”.
離散コサイン変換(DCT)領域法が、Triantafyllidis等著「Blocking artifact detection and reduction in compressed data」(IEEE Transactions on Circuits and Systems for Video Technology, Vol. 12, October 2002)、およびChen等著「Adaptive post-filtering of transform coefficients for the reduction of blocking artifacts」(IEEE Transactions on Circuits and Systems for Video Technology, Vol. 11, May 2001)に記載されている。 The Discrete Cosine Transform (DCT) domain method is known as “Blocking artifact detection and reduction in compressed data” (IEEE Transactions on Circuits and Systems for Video Technology, Vol. 12, October 2002) by Triantafyllidis et al., “Adaptive post- filtering of transform coefficients for the reduction of blocking artifacts "(IEEE Transactions on Circuits and Systems for Video Technology, Vol. 11, May 2001).
ウェーブレットに基づくフィルタリング法が、Xiong等著「A deblocking algorithm for JPEG compressed images using overcomplete wavelet representations」(IEEE Transactions on Circuits and Systems for Video Technology, Vol. 7, No. 2, August 1997)、およびLang等著「Noise reduction using an undecimated discrete wavelet transform」(Signal Processing Newsletters, Vol. 13, January 1996)に記載されている。 Wavelet-based filtering methods are described in Xiong et al., “A deblocking algorithm for JPEG compressed images using overcomplete wavelet representations” (IEEE Transactions on Circuits and Systems for Video Technology, Vol. 7, No. 2, August 1997), and Lang et al. "Noise reduction using an undecimated discrete wavelet transform" (Signal Processing Newsletters, Vol. 13, January 1996).
反復法が、Paek等著「A DCT-based spatially adaptive post-processing technique to reduce the blocking artifacts in transform coded images」(IEEE Transactions on Circuits and Systems for Video Technology, Vol. 10, February 2000)、およびPaek等著「On the POCS-based post-processing technique to reduce the blocking artifacts in transform coded images」(IEEE Transactions on Circuits and Systems for Video Technology, Vol. 8, June 1998)に記載されている。 The iterative method is Paek et al., "A DCT-based spatially adaptive post-processing technique to reduce the blocking artifacts in transform coded images" (IEEE Transactions on Circuits and Systems for Video Technology, Vol. 10, February 2000), Paek et al. "On the POCS-based post-processing technique to reduce the blocking artifacts in transform coded images" (IEEE Transactions on Circuits and Systems for Video Technology, Vol. 8, June 1998).
ファジィルールに基づくフィルタリング法が、Arakawa著「Fuzzy rule-based signal processing and its application to image restoration」(IEEE Journal on selected areas in communications, Vol. 12, No. 9, December 1994)、およびGiura他に対して2001年12月18日付で発行された米国特許第6,332,136号「Fuzzy filtering method and associated fuzzy filter」に記載されている。 A fuzzy rule-based filtering method is proposed by Arakawa for “Fuzzy rule-based signal processing and its application to image restoration” (IEEE Journal on selected areas in communications, Vol. 12, No. 9, December 1994), and Giura et al. US Pat. No. 6,332,136 issued on Dec. 18, 2001, “Fuzzy filtering method and associated fuzzy filter”.
従来技術の方法のほとんどは、ブロッキングノイズのみを扱う。そうした方法は、リンギングノイズには効果がない。ウェーブレットに基づく方法のようないくつかの方法は、リンギングを抑えることができるが、復元画像全体をぼかしてしまう。従来技術のファジィルールに基づくフィルタリング法は、白色ガウス雑音のみを扱う。 Most prior art methods only deal with blocking noise. Such a method has no effect on ringing noise. Some methods, such as wavelet-based methods, can reduce ringing but blur the entire restored image. Prior art fuzzy rule based filtering methods only deal with white Gaussian noise.
上記の従来技術の方法は、画素に別個に作用し、各画素に同一のフィルタを適用する。そうした方法は、概して、画像の基礎を成す内容を考慮しない。したがって、それらのフィルタは、アーチファクトを除去するために画像を過度に平滑化してぼかしてしまうか、または、最小限の平滑化を適用した場合には、アーチファクトを十分に低減することができない。 The prior art methods described above operate on the pixels separately and apply the same filter to each pixel. Such methods generally do not consider the underlying content of the image. Therefore, these filters either over-smooth and blur the image to remove artifacts, or, if minimal smoothing is applied, they cannot reduce the artifacts sufficiently.
そうした方法のもう1つの問題は、計算の複雑性である。例えば、ウェーブレットに基づく方法は、ウェーブレット画像を得るために8回の畳み込みに基づくローパスおよびハイパスフィルタリング操作を必要とする。次に、それらのウェーブレット画像に対してデブロッキング操作を行って、ブロッキングアーチファクトを除去する。デブロッキングされた画像を再構成するために、12回の畳み込みに基づくローパスおよびハイパスフィルタリング操作が必要となる。したがって、その方法では、合計20回の畳み込みに基づくフィルタリング操作が必要である。この計算コストは、リアルタイム処理の要件を満たすことができない。このウェーブレットに基づく方法と同様に、DCT領域法もまた、高い計算複雑性を有する。5×5のウィンドウを用いたローパスフィルタリングの場合には、単一の8×8ブロックを処理するために25回のDCT操作が必要である。このような複雑性の高さもやはり、リアルタイム処理には非現実的である。反復法の計算コストは、上記の2つの方法よりもさらに高い。ファジィルールに基づくフィルタリング法について言えば、反復法は、多数のフィルタパラメータおよび付加的な訓練データを必要とする。 Another problem with such a method is computational complexity. For example, wavelet based methods require low and high pass filtering operations based on 8 convolutions to obtain wavelet images. Next, a deblocking operation is performed on these wavelet images to remove blocking artifacts. In order to reconstruct a deblocked image, low-pass and high-pass filtering operations based on 12 convolutions are required. Therefore, the method requires a filtering operation based on a total of 20 convolutions. This computational cost cannot meet the requirements of real-time processing. Similar to this wavelet-based method, the DCT domain method also has a high computational complexity. In the case of low-pass filtering using a 5 × 5 window, 25 DCT operations are required to process a single 8 × 8 block. Such high complexity is also impractical for real-time processing. The computational cost of the iterative method is even higher than the above two methods. For fuzzy rule based filtering methods, the iterative method requires a large number of filter parameters and additional training data.
従来技術の方法の問題に鑑みて、低い計算複雑性で、より高い画像/ビデオ画質を達成する新規のフィルタリング構造を提供することが望ましい。 In view of the problems of the prior art methods, it is desirable to provide a new filtering structure that achieves higher image / video image quality with low computational complexity.
方法は、先ず画像をブロックに分割することによって、画像中の画素をフィルタリングする。エッジブロックを特定する。各エッジブロック内の各画素の強度の分散を求める。次に、各エッジブロック内の各画素を、画素の分散に依存するフィルタによりフィルタリングする。 The method first filters the pixels in the image by dividing the image into blocks. Identify edge blocks. The variance of the intensity of each pixel in each edge block is obtained. Next, each pixel in each edge block is filtered by a filter that depends on the variance of the pixels.
図1は、本発明によるシステムおよび方法100を示す。本システムは、いかなる画像またはビデオデコーダとも独立している。本システムは、圧縮された画像またはビデオに埋め込まれたいかなる符号化パラメータにも頼らない。本発明は、画像中の局所的な特徴部に重点を置いている。本発明による方法は、局所的な特徴部を抽出し、これらを分類する。次に、画像が復元画像である場合には、分類された特徴部を用いて、画素を選択的かつ適応的にフィルタリングすることができる。
FIG. 1 illustrates a system and
入力は、画像201である。本方法は、いずれの画像形式(例えば、YUVまたはRGB)にも有効である。本システムは、ビデオにおけるような画像シーケンスを処理できることを理解すべきである。例えば、画像201は、プログレッシブビデオまたはインタレースビデオの一部であってもよい。また、入力画像は、一度も圧縮されていない原画像であっても、復元画像であってもよいことにも留意すべきである。
The input is an
しかし、入力画像が圧縮画像から得られた復元画像であり、圧縮画像が、ブロックに基づく圧縮プロセスを用いて圧縮された原画像から得られたものである場合には、以前の圧縮により、復元画像201は、圧縮画像のDCT係数ブロックの別個の量子化によって生じたブロッキングアーチファクトを有する。したがって、復元画像201は、隣接するブロック間の空間値にブロック途切れがある。復元画像中のエッジに沿ってリンギングアーチファクトが生じる可能性もある。
However, if the input image is a decompressed image obtained from a compressed image, and the compressed image is derived from an original image that was compressed using a block-based compression process, the previous compression will restore
元の原情報を保持する一方で、これらのアーチファクトを低減するために、本発明によるフィルタリングは、入力画像201中の局所的な特徴部の分類に基づく。さらに、フィルタリングはこの分類に対して適応的である。
In order to reduce these artifacts while retaining the original original information, the filtering according to the present invention is based on the local feature classification in the
分散画像
統計的な観点から、画素の強度値の分布は、復元画像の特徴部を示す。画像の平均強度値mは、画像のDC成分を表す。平均強度値は、次式によって測定することができる。
Dispersed image From a statistical point of view, the distribution of intensity values of pixels indicates the features of the restored image. The average intensity value m of the image represents the DC component of the image. The average intensity value can be measured by the following formula.
ここで、MおよびNは、復元画像の画素数に換算した幅および高さであり、pxi,jは、i,jの位置に生じる画素の確率である。 Here, M and N are the width and height converted into the number of pixels of the restored image, and p xi, j is the probability of the pixel occurring at the position of i, j.
復元画像の平均パワーは、次式で表される平均二乗値である。 The average power of the restored image is an average square value expressed by the following equation.
平均の変動は、次式で表される分散である。 The average variation is the variance expressed by the following equation.
平均二乗は、画像中のDC成分の平均パワーを表し、分散は、圧縮画像201中のAC周波数成分の平均パワーを表す。したがって、強度値の分散は、画像中のエネルギーを表すACパワーの変動の尺度として用いられる。
The mean square represents the average power of the DC component in the image, and the variance represents the average power of the AC frequency component in the
ある画素の分散が高い場合には、その画素は、エッジに関連する可能性が高い。分散が低い場合には、その画素は、画像の均質領域、例えば、平滑な背景の一部である。したがって、分散は、画像中の局所的な特徴部の特性を示す。 If the variance of a pixel is high, the pixel is likely related to an edge. If the variance is low, the pixel is part of a homogeneous area of the image, for example a smooth background. Therefore, the variance indicates the characteristics of local features in the image.
ブロッキングアーチファクトとリンギングアーチファクトは、ともに局所的な特徴部の特性によるものである、すなわち、アーチファクトは、ブロック境界またはエッジ付近に現れるため、局所的な特徴部は、これらのアーチファクトを示すのに十分である。したがって、本発明による分類およびフィルタリングは、上記の式(3)に記載したような画素強度値の局所分散によって測定されるエネルギー分布に基づく。特徴部の特性は、以下のように強度値211を抽出する(210)ことによって求める。
Both blocking artifacts and ringing artifacts are due to local feature characteristics, i.e., artifacts appear near block boundaries or edges, so local features are sufficient to show these artifacts. is there. Accordingly, classification and filtering according to the present invention is based on an energy distribution measured by local dispersion of pixel intensity values as described in equation (3) above. The characteristic of the feature is obtained by extracting (210) the
図3に示すように、平滑3×3フィルタ301で復元画像201中の各画素302を走査する。走査は、ラスタスキャン順に行うことができる。フィルタの各中心画素301について、式(1)〜(3)に従って強度値211の平均および分散を求める(220)。分散値は、分散画像401を形成する。幾何学的な観点から、局所分散は、各画素位置における復元画像の勾配を反映する。画像中のエッジにおける勾配は、非常に高いためである。
As shown in FIG. 3, each
図4に示すように、特徴部の抽出および走査は、画素が強度値211を有する空間領域の復元画像201を、画素が分散411を有するエネルギー領域の分散画像401に変換する。
As shown in FIG. 4, the extraction and scanning of the feature part converts the restored
画素の分類
図5に示すように、第1のしきい値_1未満の分散を有する画素211を、クラス_0 501として分類する(230)。これらの画素は、画像中の均質な、すなわち「平滑な」領域に対応する。第2のしきい値_2よりも大きい分散を有する画素を、クラス_1 502として分類する。これらの画素は、エッジに対応する可能性が最も高い。これら2つのしきい値の間の分散を有する画素を、クラス_2 503として分類する。これらの画素は、近傍画素の特性に応じてリンギングノイズまたはテクスチャとして考えることができる。本発明による適応的フィルタリングは、上記の分類に応じて実行される。
Pixel Classification As shown in FIG. 5, the
ブロックの分類
画素ブロックも、分散画像401中の分散値に応じて「平滑」ブロック241、「テクスチャ」ブロック242および「エッジ」ブロック243に分類する(240)。ブロックの分類240は、各ブロック内の総分散に基づいて、またはブロック内の各クラスの画素数を計数することによって行うことができる。例えば、ブロック内の画素が全てクラス_0である場合には、そのブロックを平滑ブロックとして分類する。ブロック内の少なくとも1つの画素がクラス_1である場合には、そのブロックをエッジブロックとして分類する。その他の、ブロックがクラス_0とクラス_2の両方の画素を有する場合には、そのブロックをテクスチャブロックとして分類する。
Classification of Blocks The pixel blocks are also classified into a “smooth”
ブロッキングアーチファクトの検出
最もよく知られている画像およびビデオの圧縮規格は、画素ブロックのDCT符号化に基づいている。ブロックに基づく符号化は、画像を完全に、通常は、1ブロックが8×8画素である画素ブロックに分割する。各ブロックの画素は、別個にDCT係数に変換される。次に、DCT係数は、所定の量子化行列に応じて量子化される。別個の符号化のために、ブロッキングアーチファクトがブロック境界で目に見える。
Blocking Artifact Detection The best known image and video compression standards are based on DCT coding of pixel blocks. Block-based encoding divides an image completely into pixel blocks, usually one block of 8x8 pixels. The pixels of each block are converted to DCT coefficients separately. Next, the DCT coefficients are quantized according to a predetermined quantization matrix. Due to the separate encoding, blocking artifacts are visible at the block boundaries.
図6は、8×8のブロック600上でブロッキングアーチファクトを検出する(250)方法を示す。外側の画素を星印601で示し、「内側の」画素を黒丸602で示す。内側の画素は、ブロック内の一番上の行および左の列に隣接して、それと平行に位置する。検出250は、ブロック毎に左から右へ、また上から下へ行われる。
FIG. 6 shows a method for detecting (250) blocking artifacts on an 8 × 8
ブロッキングアーチファクトが存在する場合には、外側の画素601の分散の勾配は、内側の画素602とほぼ同じである。ブロッキングアーチファクトがあることを判定する基準は、次の通りである。
In the presence of blocking artifacts, the slope of the variance of the
sign(符号)は、+1または−1のいずれかである。上記のテストは、ブロッキングアーチファクトと、ブロック境界にあるエッジとを区別する。 The sign (sign) is either +1 or -1. The above test distinguishes between blocking artifacts and edges at block boundaries.
デブロッキングフィルタ
図7に示すように、ブロッキングアーチファクトは、復元画像中の検出されたブロック境界をフィルタリングすることによって除去される(260)。ブロッキングアーチファクトが検出された場合には、画素に対してブロック境界601に沿って1次元ローパス(平滑化)フィルタを適応的に適用する。フィルタ702、704、706のサイズ(例えば2、4、6またはそれ以上の画素数)は、ブロック境界における勾配に対応する。大きな勾配値を有する画素(すなわちエッジ画素)は、フィルタリング操作から除外し、エッジやテクスチャをぼかすことを避ける。
Deblocking Filter As shown in FIG. 7, blocking artifacts are removed by filtering the detected block boundaries in the reconstructed image (260). When a blocking artifact is detected, a one-dimensional low-pass (smoothing) filter is adaptively applied to the pixel along the
ファジィフィルタ
ファジィフィルタ271を適用することによって、デリンギング270は、エッジブロック243のみに作用する。本発明によるファジィフィルタは、ファジィ変換理論に基づく。Nie等著「Fuzzy transformation and its applications」(IEEE International Conference on Image Processing, Barcelona, Spain, September, 2003)を参照願いたい。
By applying the
ファジィ変換において、空間サンプルxi(例えば画素の強度値)と順序統計量xjの関係は、実数値のガウス関数μF(a,b)によって確立され、ここで、iは空間インデックスi=1,2,...,Nであり、j=1,2,...,Nは順序統計量であり、x(1)≦x(2)≦...≦x(N)であり、観測またはフィルタリングウィンドウのサイズはNである。 In fuzzy transformation, the relationship between spatial samples x i (eg pixel intensity values) and order statistics x j is established by a real-valued Gaussian function μ F (a, b), where i is the spatial index i = 1, 2,. . . , N and j = 1, 2,. . . , N are order statistics, and x (1) ≤ x (2) ≤. . . ≦ x (N) and the size of the observation or filtering window is N.
メンバシップ関数は以下の制約を有する。 The membership function has the following constraints.
これにより、次式によって定義されるN×Nのファジィ空間ランク(SR)行列が得られる。 As a result, an N × N fuzzy space rank (SR) matrix defined by the following equation is obtained.
ファジィSR行列R(チルダ)の要素は、各対の画素間の値の差に依存するため、ファジィSR行列は、観測画素に埋め込まれた広がり情報を含む。 Since the elements of the fuzzy SR matrix R (tilde) depend on the difference in values between each pair of pixels, the fuzzy SR matrix includes spread information embedded in the observed pixels.
元のすなわち「はっきりした」空間画素は、はっきりした順序統計量ベクトルに行正規化ファジィSR行列を掛けることによって、ファジィ空間画素に「変換」することができる。結果として得られるファジィ空間画素は、広がり情報も反映する。本発明によるファジィフィルタ271の出力272は、観測またはフィルタリングウィンドウの中心画素がぼやけた(fuzzy)ものに相当する。
The original or “clear” spatial pixel can be “transformed” into fuzzy spatial pixels by multiplying the explicit order statistic vector by the row normalized fuzzy SR matrix. The resulting fuzzy space pixel also reflects spread information. The
フィルタの出力は、以下の単純化された式を用いて得ることができる。 The output of the filter can be obtained using the following simplified formula:
ここで、xcおよびxc(チルダ)は、それぞれ、はっきりした中心画素およびぼやけた中心画素である。 Here, x c and x c (tilde) are a clear central pixel and a blurred central pixel, respectively.
フィルタの出力の最後の式から示唆されるように、順序付け操作は不要である。したがって、ファジィフィルタ271の計算複雑性は、線形フィルタよりもわずかに高いだけである。唯一の付加的な計算は、N−1対の画素間で関数の値を評価するためのものである。全画素についてμF(xc,xc)=1であるため、求める必要がないことに留意されたい。
As suggested by the last expression in the output of the filter, no ordering operation is necessary. Therefore, the computational complexity of the
本発明の1実施形態において、実数値の関数μg(a,b)は、次式のガウス関数によって定義される。 In one embodiment of the invention, the real valued function μ g (a, b) is defined by a Gaussian function:
ここで、広がりパラメータξは20である。 Here, the spread parameter ξ is 20.
図2は、サンプルxi(i=1,2,...,N)とウィンドウの中心サンプルxcの値の類似性を表すガウス関数のいくつかの値の例を示す。この所与の例において、xc=128、x1=180、x2=20、x3=100である。 FIG. 2 shows examples of several values of the Gaussian function representing the similarity between the values of the sample x i (i = 1, 2,..., N) and the window center sample x c . In this given example, x c = 128, x 1 = 180, x 2 = 20, x 3 = 100.
上記の式から、ファジィフィルタの出力は、フィルタリングウィンドウ内のサンプルの加重平均であることが分かる。ガウス関数の値、すなわち中心サンプル自体を含む各サンプルと中心サンプルの類似性の尺度は、対応するサンプルの重みとして用いられる。 From the above equation, it can be seen that the output of the fuzzy filter is a weighted average of the samples in the filtering window. The value of the Gaussian function, i.e. the measure of similarity between each sample including the center sample itself and the center sample, is used as the weight of the corresponding sample.
したがって、サンプルの値が中心サンプルに近いほど、より大きな重みがそのサンプルに割り当てられる。これは、類似した値のサンプルは、それらの局所平均の周囲でさらにクラスタリングされ、異なる値のサンプルは、ほぼそのままとなるという効果をもたらす。これは、ファジィ変換のクラスタリング特性として知られる。 Thus, the closer the sample value is to the center sample, the more weight is assigned to that sample. This has the effect that samples with similar values are further clustered around their local average, while samples with different values remain nearly intact. This is known as a clustering characteristic of fuzzy transformation.
結果として、本発明によるファジィフィルタ271は、データに適応的な平滑化機能を有するため、強いエッジを完全に保持し、その一方で、目障りなリンギングアーチファクトに関連する弱いエッジを除去することができる。
As a result, the
図8にこの機能を示す。この例において、「ステップ」信号の入力サンプル801は、均一に分散したノイズによって破壊されている。よって、破壊された信号は、はっきりしたサンプルの2つのグループからなり、一方のグループは0の周囲に局在し、他方のグループは1の周囲に局在している。
FIG. 8 shows this function. In this example, the “step”
ファジィフィルタ271によるフィルタリングの後、類似した値のサンプルを含む各グループを、そのグループの局所平均の周囲でさらに密にクラスタリングし、結果として、フィルタリングされたステップ信号802を得る。こうして、均一な領域における望ましくない摂動を平滑化し、その一方でステップエッジを回復する。この例は、強いエッジの周囲のリンギングアーチファクトを正確に模擬していることに留意されたい。したがって、この例は、ファジィフィルタが如何にこれらのアーチファクトを除去するとともにエッジを保持するかを示している。
After filtering by the
適応的フィルタリング
上記の式(6)から、ウィンドウ内のぼやけた中心画素は、加重平均であることが分かる。各重みは、特に広がりパラメータξにより定められるようなガウス関数によって与えられる。広がりパラメータは、ガウス関数の形状、すなわちフィルタリングの範囲を制御する。広がりパラメータξが大きい場合には、ガウス関数は、比較的広い。これは、より平滑なフィルタに対応する。広がりパラメータξが小さい場合には、ガウス関数は狭く、フィルタリングの平滑さは低下する。ウィンドウサイズNは、同様の特性を有する。大きなウィンドウは、小さなウィンドウよりも強い平滑化効果を有する。
Adaptive Filtering From equation (6) above, it can be seen that the blurred center pixel in the window is a weighted average. Each weight is given in particular by a Gaussian function as defined by the spread parameter ξ. The spread parameter controls the shape of the Gaussian function, ie the range of filtering. When the spread parameter ξ is large, the Gaussian function is relatively wide. This corresponds to a smoother filter. When the spread parameter ξ is small, the Gaussian function is narrow and the smoothness of filtering is lowered. The window size N has similar characteristics. Large windows have a stronger smoothing effect than small windows.
したがって、本発明は、適応的ファジィフィルタリング方法を提供する。ウィンドウサイズNおよび広がりパラメータξは、分散画像401中の値に応じて適応的に決められる。
Accordingly, the present invention provides an adaptive fuzzy filtering method. The window size N and the spread parameter ξ are adaptively determined according to the values in the dispersed
ウィンドウサイズNと広がりパラメータξの可能な組み合わせとして以下の4つがある。
小さなウィンドウNと小さなξ
小さなウィンドウNと大きなξ
大きなウィンドウNと小さなξ
大きなウィンドウNと大きなξ
There are the following four possible combinations of the window size N and the spread parameter ξ.
Small window N and small ξ
Small window N and large ξ
Large window N and small ξ
Large window N and large ξ
本発明の基本原則として、小さな分散は、小さなウィンドウおよび小さな広がりパラメータξに対応し、大きな分散は、大きなウィンドウおよび大きな広がりパラメータξに対応する。 As a basic principle of the present invention, a small variance corresponds to a small window and a small spread parameter ξ, and a large variance corresponds to a large window and a large spread parameter ξ.
図9は、本発明による適応方法のステップを示す。開始910において、本方法に対する入力は、次の分類ブロック901(終了990まで)、および対応する復元画像ブロック902である。
FIG. 9 shows the steps of the adaptation method according to the invention. At
ステップ920において、分散画像401中の分散値が22よりも大きいかどうかを判定する。真921である場合には、対応する画素は、おそらくエッジ上にある可能性が高い。したがって、エッジの鮮明さを保持するために、この画素は、オールパスフィルタリングする。基本的なファジィフィルタリングでは、上述のように、全てのエッジ画素を、同一の広がりパラメータを有する同一のフィルタによりフィルタリングする。
In
反対に、偽である場合には、ステップ930により、分散値が22以下であり、かつ10以上であるかを判定する。真931である場合には、その画素は、おそらくリンギングノイズにより破壊されているため、大きな広がりパラメータ940(ξは30である)および大きなウィンドウサイズ941(Nは5×5である)を選択する。すなわち、強い平滑ファジィフィルタをフィルタリング970に用いて、リンギングアーチファクトを最大限に低減する。
On the contrary, if it is false, it is determined in
反対に、偽である場合には、ステップ950により、分散が10未満であり、かつ4以上であるかを判定する。真951である場合には、対応する画素は「弱い」エッジ領域にあるか、リンギングノイズにより少し破壊されている可能性がある。この場合には、小さな広がりパラメータ960(ξは15である)および小さなウィンドウ961(Nは3×3である)、すなわち、弱い平滑ファジィフィルタをフィルタリング970に用いる。反対に、分散が4未満である場合には、その画素は、平滑領域にあるため、オールパスフィルタリングを適用し、次の画素を処理する。全ての画素を処理した後、フィルタリングされたブロックを出力し(980)、終了990まで次のブロック901を処理する。
On the other hand, if false,
分散、ウィンドウ、および広がりパラメータのさまざまな制限値、例えば(22,10,2)、(5,3)、および(30,15)は、異なる用途について変更できるが、依然として本発明の精神および範囲内にあることに留意すべきである。 Various limits of variance, window, and spread parameters, such as (22,10,2), (5,3), and (30,15) can be varied for different applications, but still remain within the spirit and scope of the present invention. It should be noted that
デブロッキングの改善
従来のインタレースビデオでは、フレームに基づく符号化方式とフィールドに基づく符号化方式とを併用して単一のフレームを符号化することができる。これにより、アーチファクトの複雑性が高まる。より良好なアーチファクト除去および細部の保持を達成するために、本発明では、各ビデオフレームの2つのフィールドを別個に処理する。異なる方式を用いて縦方向および横方向のデブロッキングを行う。異なるウィンドウサイズを有する1Dの適応的ファジィフィルタを適用して、横方向および縦方向のブロッキングアーチファクトをそれぞれ除去する。
Improved deblocking In conventional interlaced video, a single frame can be encoded using both a frame-based coding scheme and a field-based coding scheme. This increases the complexity of the artifact. In order to achieve better artifact removal and detail preservation, the present invention processes the two fields of each video frame separately. De-blocking in the vertical and horizontal directions using different schemes. Apply 1D adaptive fuzzy filters with different window sizes to remove horizontal and vertical blocking artifacts, respectively.
縦方向のブロッキングアーチファクトの検出
図10に示すように、縦方向のブロッキングアーチファクトの検出を、8×8の画素の行1011と交差する縦方向の各ブロック境界1010に沿って行う。画素強度の差G0を、G0=|x0−y7|により求める。次に、L1、L2、L3、L4およびR1、R2、R3、R4でそれぞれ示される、ブロック境界の左側および右側にある各隣接画素対の強度の差も求める。
max(L1,L2,L3,L4)<G0またはmax(R1,R2,R3,R4)<G0
である場合には、その行をマークし、その行に沿って境界ギャップを検出する。
Detection of Vertical Blocking Artifacts As shown in FIG. 10, vertical blocking artifact detection is performed along each
max (L1, L2, L3, L4) <G0 or max (R1, R2, R3, R4) <G0
If so, the line is marked and a boundary gap is detected along the line.
行1011の8つの境界画素対すべてを、縦方向のブロック境界1010に沿って調べた後、マークされた行(すなわち境界ギャップ)の数が所定のしきい値TH1(例えばTH1=0)よりも大きい場合には、現在の縦方向のブロック境界においてブロッキングアーチファクトを検出し、この境界をまたいで1Dの適応的ファジィフィルタリングを行って縦方向のブロッキングアーチファクトを除去するか、またはフィルタリングを省略する。
After examining all eight boundary pixel pairs in
縦方向のブロッキングアーチファクトの除去
図11に示すように、ブロック境界にまたがるマークされた行においてのみ1Dフィルタリングを行う。
MAX(L1,L2,L3,L4)<G0
である場合(境界ギャップが左側にある隣接画素間の差と比べて明らかであることを意味する)には、画素1111、すなわちy6、y7およびx0をフィルタリングする。同様に、
MAX(R1,R2,R3,R4)<G0
である場合には、画素1112、すなわちy7、x0およびx1をフィルタリングする。
Vertical Blocking Artifact Removal As shown in FIG. 11, 1D filtering is performed only on marked rows that straddle block boundaries.
MAX (L1, L2, L3, L4) <G0
If this is the case (meaning that the boundary gap is obvious compared to the difference between adjacent pixels on the left),
MAX (R1, R2, R3, R4) <G0
If so,
境界の片側にある隣接画素対の強度差が境界ギャップよりも大きい場合(入力画像中のエッジにより生じる可能性が高い)には、境界ギャップはおそらく存在しないため、この側のおける行のフィルタリングは不要であることに留意されたい。これは、画像中のエッジを保持する一方で、エッジのように見えるブロッキングアーチファクトを依然としてフィルタリングすることにも役立つ。 If the intensity difference between adjacent pixel pairs on one side of the boundary is greater than the boundary gap (which is likely to be caused by an edge in the input image), the boundary gap probably does not exist, so row filtering on this side is Note that it is not necessary. This also helps to preserve blocking artifacts that look like edges while preserving edges in the image.
1Dファジィフィルタ
縦方向のブロッキングアーチファクトの平滑化に用いるフィルタは、フィルタリングすべき各画素(例えばy6)を中心とする5タップファジィフィルタ1113である。このファジィフィルタは、ブロック境界に沿って位置する強いエッジを保持する。
1D Fuzzy Filter A filter used for smoothing vertical blocking artifacts is a 5-tap
ファジィフィルタの出力は、次のように表される。 The output of the fuzzy filter is expressed as follows.
ここで、xcは、フィルタウィンドウの中心画素であり、μL(・)は、以下のように定義される区分的線形関数である。 Here, x c is the center pixel of the filter window, and μ L (·) is a piecewise linear function defined as follows.
横方向のブロッキングアーチファクトの検出
図12は、横方向のブロック境界1201と交差する画素列において横方向のブロッキングアーチファクトを検出する方法を示す。G0は、境界画素対の画像強度の差(すなわち、G0=|x0−y7|)であり、U1、U2、U3、U4およびB1、B2、B3、B4は、横方向の境界の上側および下側にある各隣接画素対の強度差である。GUL、GUR、GBLおよびGBRはそれぞれ、隣接する左上、右上、左下および右下の縦方向の境界における縦方向の境界ギャップの数である。
Detection of Lateral Blocking Artifacts FIG. 12 illustrates a method of detecting lateral blocking artifacts in a pixel column that intersects the
横方向のブロッキングアーチファクトの検出は、8×8ブロックの横方向の各境界に沿って行われる。本方法は、縦方向のブロッキングアーチファクトの検出に使用するものと同様であるが、横方向のブロッキングアーチファクトを特定する前に、追加条件を満たす必要がある。これらの条件を追加する理由は、ブロッキングアーチファクトをより正確に検出するとともに、ブロック境界に沿って存在する可能性がある画像中の横方向のエッジにまたがるフィルタリングを避けるためである。これらの本物のエッジをフィルタリングすると、目障りなアーチファクトが生じることになる。 Detection of lateral blocking artifacts is performed along each lateral boundary of the 8 × 8 block. The method is similar to that used to detect longitudinal blocking artifacts, but additional conditions must be met before identifying the lateral blocking artifacts. The reason for adding these conditions is to more accurately detect blocking artifacts and to avoid filtering across lateral edges in the image that may exist along the block boundary. Filtering these real edges will result in annoying artifacts.
先ず、縦方向の境界ギャップの検出および計数と同じ方法を用いて、横方向の境界ギャップを検出し計数する。しかし、今回は、全ての操作を、現在の横方向の境界にまたがる各列で行う。現在の横方向の境界に沿って検出される横方向の境界ギャップの数が所定のしきい値TH2(例えばTH2=5)未満である場合には、この境界にまたがるフィルタリングは行わない。そうでない場合には、現在の横方向の境界に隣接する4つの縦方向のブロック境界、すなわち、左上、右上、左下および右下の縦方向のブロック境界を調べて、現在の横方向の境界の周囲で大きな縦方向のブロッキングアーチファクトが生じているかどうかを確認する。 First, the horizontal boundary gap is detected and counted using the same method as the detection and counting of the vertical boundary gap. However, this time, all operations are performed on each row spanning the current horizontal boundary. If the number of lateral boundary gaps detected along the current lateral boundary is less than a predetermined threshold TH2 (eg, TH2 = 5), filtering across this boundary is not performed. Otherwise, examine the four vertical block boundaries adjacent to the current horizontal boundary, i.e., the upper left, upper right, lower left and lower right vertical block boundaries to determine the current horizontal boundary Check for large vertical blocking artifacts around.
GUL、GUR、GBL、GBRは、それぞれ、左上、右上、左下および右下の縦方向の境界において検出される境界ギャップの数を示すものとする。以下の条件のうち少なくとも1つが満たされる場合には、大きな縦方向のブロッキングアーチファクトも検出されているため、現在の横方向の境界において横方向のブロッキングアーチファクトが生じると仮定する。 G UL , G UR , G BL , and G BR indicate the number of boundary gaps detected at the upper left, upper right, lower left, and lower right vertical boundaries, respectively. If at least one of the following conditions is met, it is assumed that large vertical blocking artifacts have also been detected, so that horizontal blocking artifacts occur at the current horizontal boundary.
条件
(GUL>TH2)かつ(GUR>TH2)
(GBL>TH2)かつ(GBR>TH2)
(GUL>7)または(GUR>7)または(GBL>7)または(GBR>7)
Conditions (G UL > TH2) and (G UR > TH2)
(G BL > TH2) and (G BR > TH2)
(G UL > 7) or (G UR > 7) or (G BL > 7) or (G BR > 7)
横方向の境界よりも先に縦方向の境界を処理するため、縦方向の各境界における縦方向の境界ギャップの数は既知である。 Since the vertical boundaries are processed before the horizontal boundaries, the number of vertical boundary gaps at each vertical boundary is known.
横方向のブロッキングアーチファクトの除去
図13に示すように、横方向のブロック境界にまたがるマークされた列においてのみ1Dフィルタリングを行う。MAX(U1,U2,U3,U4)<G0である場合(境界ギャップが上側にある隣接画素間の差と比べて明らかであることを意味する)には、画素1301、すなわちy6、y7をフィルタリングする。
Horizontal Blocking Artifact Removal As shown in FIG. 13, 1D filtering is performed only on marked columns that span horizontal block boundaries. If MAX (U1, U2, U3, U4) <G0 (meaning that the boundary gap is clear compared to the difference between adjacent pixels above),
同様に、MAX(B1,B2,B3,B4)<G0である場合には、画素1302、すなわちx0、x1をフィルタリングする。いずれの側でもx0とy7の両方をフィルタリングする縦方向の境界にまたがるフィルタリングとは異なり、いずれの側でも境界画素を1つ(x0またはy7)しかフィルタリングしないことに留意されたい。これにより、横方向のエッジにまたがるフィルタリングが低減される。横方向のブロッキングアーチファクトの平滑化に用いるフィルタは、フィルタリングすべき各画素を中心とする3タップファジィフィルタ1303である。フィルタの重みは、式(7)を用いて決定する。
Similarly, when MAX (B1, B2, B3, B4) <G0, the
ブロックの分類
上述のように、ブロックの分類により、全体的な画質を下げることなく局所アーチファクトを大幅に低減することができる。しかし、ブロックの分類が同様に役立つ画像化用途は、他にも多くある。例えば、ブロックが適切に分類されれば、異なるブロックに異なる圧縮率および圧縮技法を適用することによって、全体的により高い圧縮率を達成することができる。例えば、平滑ブロックにはより高い圧縮率およびより単純な圧縮技法を適用して、より複雑なテクスチャを有するブロックに追加の帯域幅およびより高度な圧縮を適用できるようにすることができる。同様に、先ず「関心の低い」ブロックを廃棄することによって、パターン認識およびオブジェクト追跡の効率を高めることができる。さらに、画像検索システムが、分類されたブロックを選択的に用いて、コンテンツの検索および閲覧を加速することができる。
Block Classification As described above, block classification can significantly reduce local artifacts without reducing overall image quality. However, there are many other imaging applications where block classification is equally useful. For example, if the blocks are properly classified, overall higher compression ratios can be achieved by applying different compression ratios and compression techniques to different blocks. For example, higher compression ratios and simpler compression techniques can be applied to smooth blocks so that additional bandwidth and higher compression can be applied to blocks with more complex textures. Similarly, the efficiency of pattern recognition and object tracking can be increased by first discarding “low interest” blocks. Furthermore, the image search system can selectively use the classified blocks to accelerate content search and browsing.
したがって、本発明は、以下のブロック分類技法を提供する。 Accordingly, the present invention provides the following block classification technique.
図14は、本発明によるブロック内の画素を分類する別の方法を示す。画像201は、上述のように、重複しない8×8のブロックに分割される。上述のように、分散画像401において、各画素の分散を求める。次に、最大の分散または標準偏差を有する画素を用いてブロックの分類を決める(分散=σ2であり、STD=√(分散)である)。
FIG. 14 illustrates another method for classifying pixels in a block according to the present invention. The
各ブロックを、5つのカテゴリ、すなわち、強いエッジ1401、弱いエッジ1402、強いテクスチャ1403、弱いテクスチャ1404、および平滑1405のうちの1つに分類する。
Each block is classified into one of five categories:
ブロックのフィルタリング
プログレッシブビデオの場合には、各フレーム中の各ブロックについてフィルタリングを行い、インタレースビデオの場合には、各フィールド中のブロックに対してフィルタリングを行う。各ブロックのフィルタは、図14に示すように、ブロックの分類および隣接するブロックの分類に応じて選択される。さらに、フィルタリングは、フィルタの広がりパラメータが最大分散または最大標準偏差に比例する、すなわち、最大標準偏差が大きくなるほど広がりパラメータも大きくなるという点で適応的である。
Block Filtering In the case of progressive video, filtering is performed on each block in each frame, and in the case of interlaced video, filtering is performed on the blocks in each field. As shown in FIG. 14, the filter of each block is selected according to the classification of blocks and the classification of adjacent blocks. Further, filtering is adaptive in that the spread parameter of the filter is proportional to the maximum variance or maximum standard deviation, i.e., the larger the maximum standard deviation, the larger the spread parameter.
強いエッジブロック1401:8つの近傍ブロック1421(上、下、左、右、左上、右上、左下、右下)がすべて強いエッジブロックである場合には、オールパスフィルタリング1461を行ってブロックを出力し(1442)、そうでない場合には、各画素を適応的ファジィフィルタにより、広がりパラメータξを20としてフィルタリング1423を行い(強い平滑ファジィフィルタリングである)、ブロックを出力する。
Strong edge block 1401: If all eight neighboring blocks 1421 (upper, lower, left, right, upper left, upper right, lower left, lower right) are strong edge blocks, all-
弱いエッジブロック1402:各画素を適応的ファジィフィルタにより、広がりパラメータξを10に設定してフィルタリング1431を行い(弱い平滑ファジィフィルタリングである)、ブロックを出力する。 Weak edge block 1402: Each pixel is subjected to filtering 1431 with an adaptive fuzzy filter by setting the spread parameter ξ to 10 (which is weak smooth fuzzy filtering), and a block is output.
強いテクスチャブロック1403:4つの隣接するブロック1441(上、下、左、右)がすべて強いエッジブロックである場合には、オールパスフィルタリングして出力する。そうでない場合には、各画素をファジィフィルタにより、広がりパラメータξを10に設定してフィルタリング1431を行う。
Strong texture block 1403: When all four adjacent blocks 1441 (upper, lower, left, and right) are strong edge blocks, all-pass filtering is performed. Otherwise, the
弱いテクスチャブロック1404:4つの隣接するブロックのうち少なくとも2つ1451(上、下、左、右)が平滑ブロックである場合には、各画素を適応的ファジィフィルタにより、広がりパラメータξを10に設定してフィルタリング1431を行う。 Weak texture block 1404: If at least two of the four adjacent blocks 1451 (up, down, left, right) are smooth blocks, the spread parameter ξ is set to 10 by adaptive fuzzy filter for each pixel Then, filtering 1431 is performed.
平滑ブロック1405:ブロックが平滑ブロックである場合には、オールパスフィルタ1461を適用し、ブロックを出力1442する。
Smoothing block 1405: If the block is a smoothing block, an all-
図15Aに示すように、強いエッジブロック1501が他の強いエッジブロックに完全に囲まれている場合には、そのブロックのフィルタリングは、省略することができる。これは、大きな強いエッジ領域では、マスキング効果によりリンギングアーチファクトが顕著には現れないためである。第2に、小さなアーチファクトが顕著に現れるのは平滑領域のみであるため、弱いエッジブロック1502は、隣接する平滑ブロックがある場合にのみフィルタリングすればよい。テクスチャブロックにおけるフィルタリングは、オプションとしてもよく、圧縮率に応じて選択することができる。圧縮率が高い、例えば、量子化スケールパラメータが40を上回る場合には、復元されたテクスチャブロックにリンギングアーチファクトが現れる可能性が高い。したがって、弱い平滑ファジィフィルタリングを適用すべきである。
As shown in FIG. 15A, when a
本発明を、好適な実施形態の例として説明してきたが、本発明の精神および範囲内でさまざまな他の適応および変更を行うことができることが理解される。したがって、添付の特許請求の範囲の目的は、本発明の真の精神および範囲に入る変形および変更をすべて網羅することである。 Although the invention has been described by way of examples of preferred embodiments, it is to be understood that various other adaptations and modifications can be made within the spirit and scope of the invention. Accordingly, the purpose of the appended claims is to cover all modifications and variations that fall within the true spirit and scope of the invention.
Claims (5)
入力画像中の複数の画素を複数のブロックに分割することと、
前記複数のブロックにおいてエッジブロックを特定することと、
各エッジブロック内の各画素の強度の分散を求めることと、および
各エッジブロック内の各画素を、該画素の分散に依存するフィルタによりフィルタリングすることと
を含み、
前記フィルタは、画素の強度範囲の中心値をa、フィルタリング対象の画素の強度をbとして、広がりパラメータξを有する下式
前記フィルタリングすることは、
前記分散が4以上10未満の範囲にある場合には、前記広がりパラメータξを15に、前記ウィンドウサイズNを3に設定することと、
前記分散が10以上22以下の範囲にある場合には、前記広がりパラメータξを30に、前記ウィンドウサイズNを5に設定することと、および
それ以外の場合には、前記フィルタをオールパスフィルタに設定することと
を含む画像中の画素をフィルタリングする方法。 A method for filtering pixels in an image, comprising:
Dividing a plurality of pixels in an input image into a plurality of blocks;
Identifying an edge block in the plurality of blocks;
Determining the variance of the intensity of each pixel in each edge block, and filtering each pixel in each edge block with a filter that depends on the variance of the pixel;
The filter has a spread parameter ξ, where a is the center value of the intensity range of the pixel and b is the intensity of the pixel to be filtered.
The filtering is
If the variance is in the range of 4 to less than 10, setting the spread parameter ξ to 15 and the window size N to 3;
When said dispersion is in the range of 10 to 22, the spread parameter ξ to 30, and setting the window size N to 5, and otherwise, sets the filter to the all-pass filter A method of filtering pixels in an image including:
境界ギャップを検出するために、前記縦方向の境界の左側および右側にある画素の強度差を求めることと、
前記境界ギャップが検出された場合にのみ、前記行の画素をフィルタリングすることと
をさらに含む請求項1に記載の方法。 Identifying a row of pixels that intersects the vertical boundary between two adjacent blocks;
Determining a difference in intensity between pixels on the left and right sides of the vertical boundary to detect a boundary gap;
The method of claim 1, further comprising: filtering pixels in the row only when the boundary gap is detected.
境界ギャップを検出するために、前記横方向の境界の上側および下側にある画素の強度差を求めることと、
前記境界ギャップが検出された場合にのみ、前記列の画素をフィルタリングすることと
をさらに含む請求項1に記載の方法。 Identifying a column of pixels that intersects a lateral boundary between two adjacent blocks;
Determining an intensity difference between pixels above and below the lateral boundary to detect a boundary gap;
The method of claim 1, further comprising: filtering pixels in the column only when the boundary gap is detected.
Applications Claiming Priority (2)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
US10/965,325 | 2004-10-14 | ||
US10/965,325 US7412109B2 (en) | 2003-11-07 | 2004-10-14 | System and method for filtering artifacts in images |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2006140999A JP2006140999A (en) | 2006-06-01 |
JP4850475B2 true JP4850475B2 (en) | 2012-01-11 |
Family
ID=36621441
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2005300353A Expired - Fee Related JP4850475B2 (en) | 2004-10-14 | 2005-10-14 | Method for filtering pixels in an image |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP4850475B2 (en) |
Families Citing this family (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2010081368A (en) * | 2008-09-26 | 2010-04-08 | Toshiba Corp | Image processor, moving image decoding device, moving image encoding device, image processing method, moving image decoding method, and, moving image encoding method |
TWI386068B (en) * | 2008-10-22 | 2013-02-11 | Nippon Telegraph & Telephone | Deblocking processing method, deblocking processing device, deblocking processing program and computer readable storage medium in which the program is stored |
CA2764868A1 (en) * | 2009-06-19 | 2010-12-23 | Mitsubishi Electric Corporation | Image encoding device, image decoding device, image encoding method, and image decoding method |
Family Cites Families (10)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP3081412B2 (en) * | 1993-06-01 | 2000-08-28 | シャープ株式会社 | Image signal decoder |
JPH07212759A (en) * | 1994-01-27 | 1995-08-11 | Sharp Corp | Picture signal decoder |
JP3961600B2 (en) * | 1996-12-27 | 2007-08-22 | ソニー株式会社 | Block distortion reduction method and apparatus |
KR100219628B1 (en) * | 1997-02-15 | 1999-09-01 | 윤종용 | Signal adaptive filtering method and signal adaptive filter |
JP3664626B2 (en) * | 2000-02-10 | 2005-06-29 | シャープ株式会社 | Filter device |
JP4069581B2 (en) * | 2000-12-11 | 2008-04-02 | セイコーエプソン株式会社 | Image processing method, computer-readable recording medium on which image processing program is recorded, and image processing apparatus |
JP2002232890A (en) * | 2001-02-01 | 2002-08-16 | Sony Corp | Block distortion reduction circuit, reproducing device, receiver, block distortion reduction method |
JP4495881B2 (en) * | 2001-05-14 | 2010-07-07 | パナソニック株式会社 | Block distortion remover |
JP4097587B2 (en) * | 2002-10-16 | 2008-06-11 | 松下電器産業株式会社 | Image processing apparatus and image processing method |
US20050100235A1 (en) * | 2003-11-07 | 2005-05-12 | Hao-Song Kong | System and method for classifying and filtering pixels |
-
2005
- 2005-10-14 JP JP2005300353A patent/JP4850475B2/en not_active Expired - Fee Related
Also Published As
Publication number | Publication date |
---|---|
JP2006140999A (en) | 2006-06-01 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US7551792B2 (en) | System and method for reducing ringing artifacts in images | |
US7346224B2 (en) | System and method for classifying pixels in images | |
US7412109B2 (en) | System and method for filtering artifacts in images | |
US7822286B2 (en) | Filtering artifacts in images with 3D spatio-temporal fuzzy filters | |
US20050100235A1 (en) | System and method for classifying and filtering pixels | |
Maggioni et al. | Video denoising, deblocking, and enhancement through separable 4-D nonlocal spatiotemporal transforms | |
EP1146748B1 (en) | A method of directional filtering for post-processing compressed video | |
Meier et al. | Reduction of blocking artifacts in image and video coding | |
KR101112139B1 (en) | Apparatus and method for estimating scale ratio and noise strength of coded image | |
WO2004038648A9 (en) | Method and decoder system for reducing quantization effects of a decoded image | |
JPH08186714A (en) | Noise removal of picture data and its device | |
Kong et al. | Edge map guided adaptive post-filter for blocking and ringing artifacts removal | |
KR100675498B1 (en) | Device and method for filtering | |
JP2006148878A (en) | Method for classifying pixels in image | |
JP4850475B2 (en) | Method for filtering pixels in an image | |
JP2009095004A (en) | Method of filtering pixels in sequence of images | |
JP2005318614A (en) | Method for reducing artifact in input image | |
Young et al. | Psychovisually tuned attribute operators for pre-processing digital video | |
Kong et al. | Adaptive fuzzy post-filtering for highly compressed video | |
Kim et al. | Signal adaptive postprocessing for blocking effects reduction in JPEG image | |
JP4065287B2 (en) | Method and apparatus for removing noise from image data | |
KR100683060B1 (en) | Device and method for deblocking of video frame | |
Do et al. | A new adaptive image post-treatment for deblocking and deringing based on total variation method | |
Wang et al. | Image deblocking scheme for JPEG compressed images using an adaptive-weighted bilateral filter | |
Võ et al. | Spatio-temporal fuzzy filtering for coding artifacts reduction |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20080808 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20110509 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20110517 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20110614 |
|
RD02 | Notification of acceptance of power of attorney |
Free format text: JAPANESE INTERMEDIATE CODE: A7422 Effective date: 20110701 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20110823 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20110929 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20111018 |
|
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20111019 |
|
R150 | Certificate of patent or registration of utility model |
Free format text: JAPANESE INTERMEDIATE CODE: R150 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20141028 Year of fee payment: 3 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
LAPS | Cancellation because of no payment of annual fees |