Nothing Special   »   [go: up one dir, main page]

JP2004159311A - Image processing apparatus and image processing method - Google Patents

Image processing apparatus and image processing method Download PDF

Info

Publication number
JP2004159311A
JP2004159311A JP2003350076A JP2003350076A JP2004159311A JP 2004159311 A JP2004159311 A JP 2004159311A JP 2003350076 A JP2003350076 A JP 2003350076A JP 2003350076 A JP2003350076 A JP 2003350076A JP 2004159311 A JP2004159311 A JP 2004159311A
Authority
JP
Japan
Prior art keywords
pixel
distribution coefficient
value
filter
image
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2003350076A
Other languages
Japanese (ja)
Other versions
JP4097587B2 (en
Inventor
Yuusuke Monobe
祐亮 物部
Tatsumi Watanabe
辰巳 渡辺
康浩 ▲桑▼原
Yasuhiro Kuwabara
Akio Kojima
章夫 小嶋
Toshiharu Kurosawa
俊晴 黒沢
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Panasonic Holdings Corp
Original Assignee
Matsushita Electric Industrial Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Matsushita Electric Industrial Co Ltd filed Critical Matsushita Electric Industrial Co Ltd
Priority to JP2003350076A priority Critical patent/JP4097587B2/en
Publication of JP2004159311A publication Critical patent/JP2004159311A/en
Application granted granted Critical
Publication of JP4097587B2 publication Critical patent/JP4097587B2/en
Anticipated expiration legal-status Critical
Expired - Fee Related legal-status Critical Current

Links

Images

Landscapes

  • Image Processing (AREA)
  • Facsimile Image Signal Circuits (AREA)
  • Compression Or Coding Systems Of Tv Signals (AREA)
  • Compression Of Band Width Or Redundancy In Fax (AREA)

Abstract

<P>PROBLEM TO BE SOLVED: To provide an image processing apparatus in which a picture quality is prevented from being extremely changed by presence/non-presence of edge by suppressing blurring of both an edge and a texture without damaging a mosquito noise elimination effect. <P>SOLUTION: An image processing apparatus 1 is equipped with: a differential value calculating part 11 for calculating a differential value between a pixel value of a concerned pixel in a filter processing region set for each of pixels comprising a decoded image and pixel values of peripheral pixels; a distribution coefficient calculating part 12 for calculating distribution coefficients of pixel values in the pixels; a filter coefficient calculating part 13 for calculating a filter coefficient with respect to the peripheral pixels based upon the calculated differential value and distribution coefficient; and a filter processing part 14 for applying filter processing to the pixel value of the concerned pixel in the decoded image while using the filter coefficient calculated by the filter coefficient calculating part 13, to calculate the pixel value of the concerned pixel in the decoded image. <P>COPYRIGHT: (C)2004,JPO

Description

本発明は、復号画像に対してフィルタ処理を施すことによって、画像中のエッジおよびテクスチャをぼかすことなく、ブロック符号化によって生じたモスキートノイズを有効に除去した復元画像を生成するための画像処理装置および画像処理方法に関する。   The present invention provides an image processing apparatus for generating a restored image in which mosquito noise generated by block coding is effectively removed by applying a filtering process to a decoded image without blurring edges and textures in the image. And an image processing method.

近年、デジタルスチルカメラ(Digital Still Camera)が普及し、デジタルスチルカメラによって風景や人物などの画像(静止画)を撮影するのが一般化しつつある。ところが、デジタル化された画像のデータ量は非常に大きい。このようにデータ量が大きい画像をそのままICメモリなどの記憶媒体に保存したり、インターネットやLANなどの伝送媒体で伝送したりすると、記憶媒体にわずかな枚数しか保存できなくなったり、伝送媒体における伝送時間が長くなることになる。このため、画像を扱う上では、圧縮技術が必須となる。   2. Description of the Related Art In recent years, digital still cameras (Digital Still Cameras) have become widespread, and the use of digital still cameras to capture images (still images) of landscapes, people, and the like is becoming common. However, the data amount of a digitized image is very large. When an image having a large data amount is stored as it is in a storage medium such as an IC memory or transmitted through a transmission medium such as the Internet or a LAN, only a small number of images can be stored in the storage medium, Time will be longer. For this reason, a compression technique is essential for handling images.

画像データを高圧縮する必要がある場合、一般的に、原画像と復号画像が完全には一致しない非可逆画像圧縮方式が用いられる。非可逆画像圧縮方式の多くは、画像データをM×N画素単位のブロックに分割し、各ブロックにおいて直交変換を行った後、直交変換係数を量子化して符号化する方式を採用している。この代表的な方式の一つに、カラー静止画像圧縮方式として広く普及しているJPEGがある。   When image data needs to be highly compressed, an irreversible image compression method in which the original image and the decoded image do not completely match is generally used. Many irreversible image compression methods employ a method in which image data is divided into blocks of M × N pixels, and orthogonal transformation is performed in each block, and then orthogonal transformation coefficients are quantized and encoded. One of the typical methods is JPEG, which is widely used as a color still image compression method.

図15は、JPEGの符号化装置および復号化装置の機能構成を示すブロック図である。
符号化装置60は、原画像をJPEG圧縮データに圧縮するものであって、図15に示されるように、前処理部61と、DCT変換部62と、量子化部63と、量子化テーブル64と、エントロピー符号化部65とを備える。復号化装置70は、JPEG圧縮データを復号画像に伸張するものであって、図15に示されるように、エントロピー復号化部71と、逆量子化部72と、逆量子化テーブル73と、逆DCT変換部74と、後処理部75とを備える。
FIG. 15 is a block diagram illustrating a functional configuration of a JPEG encoding device and a JPEG decoding device.
The encoding device 60 compresses an original image into JPEG compressed data, and as shown in FIG. 15, a preprocessing unit 61, a DCT transform unit 62, a quantization unit 63, and a quantization table 64. And an entropy encoding unit 65. The decoding device 70 expands the JPEG compressed data into a decoded image. As shown in FIG. 15, the entropy decoding unit 71, the inverse quantization unit 72, the inverse quantization table 73, and the A DCT conversion unit 74 and a post-processing unit 75 are provided.

符号化装置60においてJPEGの符号化処理を行う場合、まず、前処理部61は、Red(R)、Green(G)、Blue(B)の多値データで構成される原画像の各画素のデータを、輝度成分(Y)と、色差成分(Cr,Cb)とのデータに変換する。
次に、DCT変換部62は、YCbCrデータを8×8画素単位のブロック毎に離散コサイン変換(DCT)を行い、DCT係数を算出する。
When performing the JPEG encoding process in the encoding device 60, first, the pre-processing unit 61 performs processing for each pixel of the original image composed of multi-valued data of Red (R), Green (G), and Blue (B). The data is converted into data of a luminance component (Y) and color difference components (Cr, Cb).
Next, the DCT transform unit 62 performs a discrete cosine transform (DCT) on the YCbCr data for each block of 8 × 8 pixels to calculate a DCT coefficient.

次に、量子化部63は、DCT係数の量子化を行う。このとき、DCT係数の各成分は、量子化テーブル64にしたがって、それぞれ異なるステップ幅で量子化される。
最後に、エントロピー符号化部65は、量子化されたDCT係数の符号化を行い、JPEG圧縮データを生成する。JPEGの標準方式では、エントロピー符号化としてハフマン符号を用いている。
Next, the quantization unit 63 performs quantization of the DCT coefficient. At this time, each component of the DCT coefficient is quantized with a different step width according to the quantization table 64.
Lastly, the entropy encoding unit 65 encodes the quantized DCT coefficients to generate JPEG compressed data. In the standard method of JPEG, Huffman coding is used as entropy coding.

以上の処理が、画像データからJPEG圧縮データへの符号化処理の概要である。このようにして生成されたJPEG圧縮データは、記憶媒体(例えば、SDカード)や伝送媒体を介して復号化装置70に渡される。
次に、JPEG圧縮データから復号画像への復号化処理の手順について説明する。
復号化装置70においてJPEGの復号化処理を行う場合、まず、エントロピー復号化部71は、JPEG圧縮データに対してエントロピー復号化を行う。
The above processing is the outline of the encoding processing from image data to JPEG compressed data. The JPEG compressed data generated in this way is passed to the decoding device 70 via a storage medium (for example, an SD card) or a transmission medium.
Next, a procedure of a decoding process from JPEG compressed data to a decoded image will be described.
When the decoding device 70 performs the JPEG decoding process, first, the entropy decoding unit 71 performs entropy decoding on the JPEG compressed data.

次に、逆量子化部72は、逆量子化を行う。このとき、符号化時に使用した量子化テーブル64の情報をJPEG圧縮データから読み取り、逆量子化テーブル73として使用する。
次に、逆DCT変換部74は、逆離散コサイン変換(IDCT)を行い、DCT係数をYCbCrデータの復号画像に変換する。
最後に、後処理部75は、YCbCrデータからRGBデータへの変換処理を行うことによって、復号画像を得る。
Next, the inverse quantization unit 72 performs inverse quantization. At this time, information of the quantization table 64 used at the time of encoding is read from the JPEG compressed data and used as the inverse quantization table 73.
Next, the inverse DCT unit 74 performs an inverse discrete cosine transform (IDCT) to convert the DCT coefficients into a decoded image of YCbCr data.
Finally, the post-processing unit 75 obtains a decoded image by performing a conversion process from YCbCr data to RGB data.

以上が、JPEGに関する符号化処理および復号化処理の概要である。
上記のように、JPEGの符号化処理の過程にはDCT係数の量子化が含まれている。このため、量子化誤差によってデータの劣化が発生する。この結果、プリンタなどで復号画像をそのまま用紙上に再現すると、この劣化が復号画像のノイズとして現れる。ブロック符号化を行う動画圧縮の場合にもこれらのノイズは目障りになるが、静止画の場合は特にじっくり見ることが可能なので細部のノイズも目立つ。
The above is the outline of the encoding process and the decoding process regarding JPEG.
As described above, the process of JPEG encoding includes quantization of DCT coefficients. For this reason, data degradation occurs due to the quantization error. As a result, if the decoded image is directly reproduced on paper by a printer or the like, this deterioration appears as noise in the decoded image. Even in the case of moving image compression using block coding, these noises are annoying, but in the case of a still image, particularly detailed noise can be noticeable because it can be seen carefully.

復号画像に生じるノイズのうち、視覚的な悪影響を及ぼすものに、モスキートノイズと呼ばれるノイズがある。モスキートノイズとは、復号画像のエッジ周辺に発生する弱い階調の揺らぎのことをいう。これは、DCT係数の量子化によって高周波成分の多くが欠落したことにより、原画像に存在していた強いエッジが正確に再現されないことに起因している。   Among the noises that occur in the decoded image, those that have a visual adverse effect include noise called mosquito noise. The mosquito noise refers to fluctuation of a weak gradation that occurs around an edge of a decoded image. This is because strong edges that existed in the original image were not accurately reproduced due to the fact that many of the high-frequency components were lost due to the quantization of the DCT coefficients.

このようなノイズを除去するため、図16に示されるように、復号画像に対してフィルタ処理を行い、モスキートノイズを除去した復元画像を生成する画像処理装置100が、従来から考えられている。なお、フィルタ処理の手法として数多くのフィルタ処理が提案されているが、その1つとして、エッジのぼけを抑えてノイズを除去することが可能な新しいフィルタ処理として、式(1)で示されるSUSANフィルタがある(例えば、非特許文献1参照。)。なお、この技術を、以下「第1の従来技術」とも記す。   In order to remove such noise, as shown in FIG. 16, an image processing apparatus 100 that performs a filtering process on a decoded image to generate a restored image from which mosquito noise has been removed has been conventionally considered. A number of filtering processes have been proposed as a filtering method. One of the filtering processes is a new filtering process capable of suppressing blurring of edges and removing noise. There is a filter (for example, see Non-Patent Document 1). Note that this technology is also referred to as “first conventional technology” below.

Figure 2004159311
Figure 2004159311

但し、

Figure 2004159311

である。 However,
Figure 2004159311

It is.

ここで、式(1)〜式(4)において、(x,y)は注目画素の位置を表しており、(i,j)は注目画素に対する各周辺画素の相対位置を表しており、f(x,y)は復号画像における注目画素の画素値を表しており、f(x+i,y+j)は復号画像における各周辺画素の画素値を表しており、g(x,y)はフィルタ処理後の注目画素の画素値を表している。また、αx,y(i,j)は、注目画素(x,y)に対する各周辺画素(i,j)のフィルタ係数を表しており、第1フィルタ係数α1x,y(i,j)と、第2フィルタ係数α2x,y(i,j)との積によって算出される。ここで、第1フィルタ係数α1x,y(i,j)は、注目画素との距離が近い周辺画素ほどフィルタ係数が大きくなるように設計されており、第2フィルタ係数α2x,y(i,j)は、注目画素の画素値に近い画素値を有する周辺画素ほどフィルタ係数が大きくなるように設計されている。 Here, in Expressions (1) to (4), (x, y) represents the position of the target pixel, (i, j) represents the relative position of each peripheral pixel with respect to the target pixel, and f (X, y) represents the pixel value of the pixel of interest in the decoded image, f (x + i, y + j) represents the pixel value of each peripheral pixel in the decoded image, and g (x, y) after filtering. Represents the pixel value of the pixel of interest. Α x, y (i, j) represents a filter coefficient of each peripheral pixel (i, j) with respect to the target pixel (x, y), and the first filter coefficient α1 x, y (i, j) And the second filter coefficient α2 x, y (i, j). Here, the first filter coefficient α1 x, y (i, j) is designed such that the filter coefficient becomes larger as the peripheral pixel is closer to the target pixel, and the second filter coefficient α2 x, y (i , J) are designed such that the filter coefficient increases as the peripheral pixel has a pixel value closer to the pixel value of the target pixel.

なお、σは注目画素から各周辺画素までの距離が第1フィルタ係数α1x,y(i,j)に与える影響を調節するパラメータであり、tは注目画素と周辺画素との画素値の差分値が第2フィルタ係数α2x,y(i,j)に与える影響を調節するパラメータである。
このフィルタの最大の特徴は、第2フィルタ係数α2x,y(i,j)の算出方法にある。
Here, σ is a parameter for adjusting the influence of the distance from the target pixel to each peripheral pixel on the first filter coefficient α1 x, y (i, j), and t is the difference between the pixel value of the target pixel and the peripheral pixel. This parameter adjusts the effect of the value on the second filter coefficient α2 x, y (i, j).
The greatest feature of this filter lies in the method of calculating the second filter coefficient α2 x, y (i, j).

ここで、注目画素の画素値と各周辺画素の画素値との差分値と、この差分値から算出される第2フィルタ係数α2x,y(i,j)の値との関係を図17に示す。
この図17からわかるように、周辺画素の画素値が注目画素の画素値に近い場合には、第2フィルタ係数α2x,y(i,j)に大きな値が設定され、逆に、周辺画素の画素値が注目画素の画素値と大きく異なる場合には、第2フィルタ係数α2x,y(i,j)に小さな値が設定される。
Here, FIG. 17 shows the relationship between the difference value between the pixel value of the target pixel and the pixel value of each peripheral pixel, and the value of the second filter coefficient α2 x, y (i, j) calculated from the difference value. Show.
As can be seen from FIG. 17, when the pixel value of the peripheral pixel is close to the pixel value of the target pixel, a large value is set to the second filter coefficient α2 x, y (i, j), and conversely, Is significantly different from the pixel value of the target pixel, a small value is set to the second filter coefficient α2 x, y (i, j).

ここで、パラメータtに大きな値を設定すると、注目画素の画素値から比較的大きく異なる画素値を持つ周辺画素に対しても大きいフィルタ係数が設定されるため、強く平滑化処理することに対応している。逆に、パラメータtに小さな値を設定すると、注目画素の画素値に非常に近い画素値を持つ周辺画素以外には小さなフィルタ係数が設定されることから、弱く平滑化処理することに対応している。このため、SUSANフィルタを適用する場合には、予め処理の目的に応じてパラメータtを最適な一定の値に設定しておく必要がある。   Here, when a large value is set for the parameter t, a large filter coefficient is set for peripheral pixels having a pixel value relatively different from the pixel value of the target pixel, which corresponds to strong smoothing processing. ing. Conversely, when a small value is set for the parameter t, a small filter coefficient is set for peripheral pixels having a pixel value very close to the pixel value of the target pixel. I have. Therefore, when the SUSAN filter is applied, it is necessary to set the parameter t to an optimum constant value in advance according to the purpose of the processing.

このSUSANフィルタを用いて、モスキートノイズを除去する場合について考える。
前述したように、モスキートノイズは強いエッジの周辺に弱い階調の揺らぎとして発生する。
図18は、エッジとモスキートノイズの関係を模式的に表した図である。なお、SUSANフィルタのパラメータtの値は、エッジの階調変化に比べて十分小さく、なおかつ、モスキートノイズの階調変化に比べて十分大きく設定されているものとする。ここで、モスキートノイズ部分の画素に対してSUSANフィルタを適用すると、第2フィルタ係数α2x,y(i,j)の効果によって、注目画素の画素値と大きく異なる画素値を持つエッジ部分の画素には非常に小さなフィルタ係数が設定されるため、実質的にフィルタ処理にはほとんど影響を与えることがなく、注目画素の画素値に近い画素値を持つ注目画素近傍のモスキートノイズ部分の画素に対してのみ大きなフィルタ係数が設定されてフィルタ処理が行われる。このため、エッジをぼかすことなく、なおかつ、モスキートノイズを有効に除去することができる。
Consider a case in which mosquito noise is removed using this SUSAN filter.
As described above, mosquito noise occurs as a fluctuation of a weak gradation around a strong edge.
FIG. 18 is a diagram schematically illustrating a relationship between an edge and mosquito noise. It is assumed that the value of the parameter t of the SUSAN filter is set sufficiently smaller than the gradation change of the edge and sufficiently larger than the gradation change of the mosquito noise. Here, when the SUSAN filter is applied to the pixel in the mosquito noise portion, the pixel in the edge portion having a pixel value greatly different from the pixel value of the target pixel due to the effect of the second filter coefficient α2 x, y (i, j). , A very small filter coefficient is set, so that there is substantially no effect on the filtering process, and a pixel in the mosquito noise portion near the target pixel having a pixel value close to the pixel value of the target pixel is set. Only when a large filter coefficient is set, filter processing is performed. Therefore, mosquito noise can be effectively removed without blurring edges.

以上の考察から、エッジの鮮鋭度を保持してモスキートノイズを除去するには、注目画素の画素値と周辺画素の画素値との差分値に基づいてフィルタ係数を決定するフィルタ処理が非常に有効であると考えられる。   From the above considerations, in order to remove the mosquito noise while maintaining the sharpness of the edge, it is very effective to use the filter processing for determining the filter coefficient based on the difference between the pixel value of the target pixel and the pixel values of the peripheral pixels. It is considered to be.

また、複数のブロックに分割された画像データから、各ブロック毎にノイズを除去する画像処理装置であって、ブロック毎の画像データをもとに、ブロック毎に隣接画素間の差分値の頻度分布を求め、頻度分布に基づいてブロック毎にエッジが含まれるか否かを判別する判別部と、判別部により判別された結果をもとに、ノイズを除去するブロックを選択する選択部とを備える画像処理装置が、従来から考えられている(特許文献1参照。)。なお、この技術を、以下「第2の従来技術」とも記す。   An image processing apparatus for removing noise for each block from image data divided into a plurality of blocks, wherein a frequency distribution of a difference value between adjacent pixels for each block based on the image data for each block And a selection unit that selects a block from which noise is to be removed based on a result determined by the determination unit based on a frequency distribution. 2. Description of the Related Art An image processing apparatus has been conventionally considered (see Patent Document 1). Note that this technology is also referred to as “second conventional technology” below.

このような第2の従来技術によれば、図19に示されるようにエッジを含むブロックにおいてはフィルタ(εフィルタ)処理が施され、エッジを含まないブロックではフィルタ処理を施さないため、簡便な処理で、不要なモスキートを除去するとともに、テクスチャのぼけを防止することができる。
S. M. Smith and J. M. Brady,“SUSAN ― A New Approach to Low Level Image Processing,"International Journal of Computer Vision, vol.23, no.1, pp.45-78, 1997. 特許3011828号公報(第1頁、第1図)
According to the second related art, as shown in FIG. 19, a filter (ε filter) process is performed on a block including an edge, and a filter process is not performed on a block including no edge. In the processing, unnecessary mosquitoes can be removed, and blurring of the texture can be prevented.
SM Smith and JM Brady, "SUSAN-A New Approach to Low Level Image Processing," International Journal of Computer Vision, vol.23, no.1, pp.45-78, 1997. Japanese Patent No. 30111828 (page 1, FIG. 1)

しかしながら、第1の従来技術によれば、モスキートノイズを除去するためにSUSANフィルタを使用すると、図20に示されるように、看板の領域に生じたモスキートノイズを除去してもエッジがぼけないという顕著な効果があるものの、木々の葉のようなテクスチャ領域において非常に大きなぼけが発生するという課題がある。これは、モスキートノイズを有効に除去するには、パラメータtの値を、モスキートノイズの階調変化の大きさに比べて十分大きな値に設定する必要があるが、このようなパラメータtを用いてテクスチャの領域をフィルタ処理すると、原画像から存在していたテクスチャの階調変化まで除去されてしまうことに起因していた。   However, according to the first conventional technique, when a SUSAN filter is used to remove mosquito noise, as shown in FIG. 20, the edge is not blurred even if mosquito noise generated in the signboard area is removed. Although there is a remarkable effect, there is a problem that a very large blur occurs in a texture region such as a leaf of a tree. This is because, in order to effectively remove mosquito noise, it is necessary to set the value of the parameter t to a value sufficiently larger than the magnitude of the gradation change of the mosquito noise. This is because when a texture region is filtered, even a gradation change of the existing texture from the original image is removed.

一方、第2の従来技術によれば、モスキートノイズの除去効果を損なうことなく、テクスチャのぼけを抑制できるものの、弱いエッジにおいてはフィルタ処理が施されないため、モスキートノイズが残ってしまったり、エッジのあるなしで画質が極端に変化してしまったりする新たな問題点が発生することになる。
そこで、本発明では、モスキートノイズの除去効果を損なうことなく、エッジとテクスチャの両方のぼけを抑え、しかも、弱いエッジにおいても、モスキートノイズが残ってしまったり、エッジのあるなしで画質が極端に変化してしまったりすることを防止した画像処理装置および画像処理方法を提供することを目的とする。
On the other hand, according to the second conventional technique, although blurring of the texture can be suppressed without impairing the mosquito noise removal effect, the mosquito noise remains because the filtering processing is not performed on the weak edge, or the mosquito noise remains. There is a new problem that the image quality changes drastically without it.
Therefore, in the present invention, blurring of both edges and textures is suppressed without impairing the mosquito noise removal effect, and even on weak edges, mosquito noise remains or the image quality becomes extremely poor without edges. It is an object of the present invention to provide an image processing apparatus and an image processing method that prevent the image processing from being changed.

上記問題点を解決するために、本発明に係る画像処理装置においては、多値画像をM×N画素単位のブロック毎に符号化して得られた圧縮データを復号化して得られた復号画像に、ノイズを除去するためのフィルタ処理を行って復元画像を生成する画像処理装置であって、前記復号画像を構成する各画素に対してそれぞれ設定されたフィルタ処理領域内における注目画素の画素値と、周辺画素の画素値との差分値を算出する差分値算出手段と、各前記画素における画素値の分布係数を算出する分布係数算出手段と、前記差分値算出手段によって算出された前記差分値と、前記分布係数算出手段によって算出された前記分布係数とに基づいて、前記周辺画素に対するフィルタ係数を算出するフィルタ係数算出手段と、前記フィルタ係数算出手段によって算出された前記フィルタ係数を用いて、前記復号画像における注目画素の画素値に対してフィルタ処理を行い、復元画像における注目画素の画素値を算出するフィルタ処理手段とを備えることを特徴とする。   In order to solve the above problems, in the image processing apparatus according to the present invention, a multi-valued image is decoded into a decoded image obtained by decoding compressed data obtained by encoding each block of M × N pixels. An image processing apparatus for generating a restored image by performing a filter process for removing noise, wherein a pixel value of a pixel of interest in a filter processing region set for each of the pixels constituting the decoded image. A difference value calculation unit that calculates a difference value between the pixel value of the peripheral pixel, a distribution coefficient calculation unit that calculates a distribution coefficient of a pixel value of each of the pixels, and the difference value calculated by the difference value calculation unit. Filter coefficient calculating means for calculating a filter coefficient for the peripheral pixel based on the distribution coefficient calculated by the distribution coefficient calculating means, and the filter coefficient calculating means Filter processing means for performing filter processing on the pixel value of the pixel of interest in the decoded image using the calculated filter coefficient, and calculating the pixel value of the pixel of interest in the restored image. .

ここでは、前記分布係数が大きいほどエッジに影響を及ぼさない範囲でフィルタ係数が大きくなるようにする。このようにすることにより、エッジを含むフィルタ処理領域では、分布係数の値が大きいため、注目画素の画素値から比較的大きく異なる画素値を持つ周辺画素に対しても大きいフィルタ係数が設定されて強い平滑化が行われ、エッジをぼかすことなく、なおかつ、モスキートノイズを有効に除去することができる。一方、前記分布係数が小さいほどフィルタ係数が小さくなるようにする。このようにすることにより、エッジを含まないテクスチャなどのフィルタ処理領域では、分布係数の値が小さいため、注目画素の画素値に非常に近い画素値を持つ周辺画素以外には小さなフィルタ係数が設定されて弱い平滑化が行われ、ぼけの発生を抑制することができる。しかも、従来のようにフィルタ処理を行うブロックと行わないブロックとに分けるような処理でなく、全ての画素に対して適切なフィルタ処理が行われるので、モスキートノイズが残ってしまったり、エッジを含むブロックと含まないブロックとで画質が極端に変化してしまったりする事態を確実に防止することができる。   Here, the larger the distribution coefficient, the larger the filter coefficient within a range that does not affect the edge. By doing so, in the filter processing region including the edge, since the value of the distribution coefficient is large, a large filter coefficient is set for peripheral pixels having a pixel value relatively different from the pixel value of the target pixel. Strong smoothing is performed, and mosquito noise can be effectively removed without blurring edges. On the other hand, the smaller the distribution coefficient, the smaller the filter coefficient. In this way, in a filter processing area such as a texture that does not include an edge, since the value of the distribution coefficient is small, a small filter coefficient is set to a peripheral pixel having a pixel value very close to the pixel value of the target pixel. Then, weak smoothing is performed, and occurrence of blur can be suppressed. In addition, since appropriate filtering is performed on all pixels instead of processing that separates blocks into blocks that do not perform filtering and blocks that do not perform filtering as in the past, mosquito noise remains or includes edges. It is possible to reliably prevent a situation in which the image quality is extremely changed between the block and the block not included.

具体的には、本発明に係る画像処理装置においては、前記分布係数算出手段は、各前記画素における画素値の分布係数を前記ブロック毎に算出することを特徴とする構成としてもよい。
これにより、前記ブロック毎に画素値の分布係数を簡単に算出することができ、全ての画素に対して適切なフィルタ処理を行うことができる。
Specifically, the image processing apparatus according to the present invention may be configured such that the distribution coefficient calculation means calculates a distribution coefficient of a pixel value of each of the pixels for each of the blocks.
This makes it possible to easily calculate the distribution coefficient of the pixel value for each of the blocks, and to perform an appropriate filtering process on all the pixels.

また、本発明に係る画像処理装置においては、前記分布係数算出手段は、前記ブロック毎に画素値の分布係数を算出し、算出されたブロックにおける画素値の分布係数と、当該ブロックに隣接する周囲のブロックにおける画素値の分布係数とを補間して各画素における画素値の補間分布係数を算出し、算出した補間分布係数を各前記画素における画素値の分布係数として用いることを特徴とする構成とすることもできる。
これによって、ブロック境界においても分布係数が連続的に変化するので、平滑化の強さが連続的に変化するフィルタ処理を実現することができる。
Further, in the image processing device according to the present invention, the distribution coefficient calculating means calculates a distribution coefficient of a pixel value for each block, and calculates a distribution coefficient of a pixel value in the calculated block and a surrounding coefficient adjacent to the block. Calculating a pixel value interpolation distribution coefficient for each pixel by interpolating the pixel value distribution coefficient for each block, and using the calculated interpolation distribution coefficient as a pixel value distribution coefficient for each pixel. You can also.
As a result, since the distribution coefficient changes continuously even at the block boundary, it is possible to realize a filtering process in which the smoothing strength changes continuously.

さらに、本発明に係る画像処理装置においては、前記分布係数算出手段は、所定のエッジ影響度算出領域における前記周辺画素のエッジ強度を算出するエッジ強度算出手段と、前記エッジ強度算出手段が算出した前記周辺画素のエッジ強度と、前記注目画素と前記周辺画素との距離とに基づいて注目画素に対するエッジ影響度を算出し、算出したエッジ影響度の最大値を各前記画素の画素値の分布係数として算出する最大エッジ影響度算出手段とを備えることを特徴とする構成とすることもできる。   Further, in the image processing device according to the present invention, the distribution coefficient calculation unit calculates the edge strength of the peripheral pixels in a predetermined edge influence calculation area, and the edge strength calculation unit calculates the edge strength. Calculating an edge influence on the target pixel based on the edge strength of the peripheral pixel and the distance between the target pixel and the peripheral pixel, and calculating the maximum value of the calculated edge influence on the distribution coefficient of the pixel value of each pixel And a maximum edge influence degree calculating means that calculates the degree of influence.

これによって、ブロック境界がわからない場合であっても、周辺画素のエッジ強度と、注目画素と周辺画素との距離とに基づいて分布係数が連続的に変化するので、平滑化の強さが連続的に変化するフィルタ処理を実現することができる。
ここで、前記分布係数算出手段は、前記ブロック内における画素値の最大値から最小値を減算した差分値を、当該ブロックの画素値の分布係数として算出することを特徴としてもよい。
As a result, even when the block boundary is unknown, the distribution coefficient changes continuously based on the edge strength of the peripheral pixel and the distance between the pixel of interest and the peripheral pixel. Can be realized.
Here, the distribution coefficient calculation means may calculate a difference value obtained by subtracting a minimum value from a maximum value of pixel values in the block as a distribution coefficient of pixel values of the block.

これによって、分布係数を簡単に求めることができる。
また、前記分布係数算出手段は、前記ブロック内における平均画素値からの分散値を、当該ブロックの画素値の分布係数として算出することを特徴とすることもできる。
これによっても、分布係数を簡単に求めることができる。
Thus, the distribution coefficient can be easily obtained.
Further, the distribution coefficient calculating means may calculate a variance value from an average pixel value in the block as a distribution coefficient of a pixel value of the block.
This also allows the distribution coefficient to be easily obtained.

また、前記分布係数算出手段は、前記ブロック内における最大エッジ強度を、当該ブロックの画素値の分布係数として算出することを特徴とすることもできる。
これによっても、分布係数を簡単に求めることができる。
Further, the distribution coefficient calculation means may calculate a maximum edge intensity in the block as a distribution coefficient of a pixel value of the block.
This also allows the distribution coefficient to be easily obtained.

なお、本発明は、このような画像処理装置として実現することができるだけでなく、このような画像処理装置が備える特徴的な手段をステップとする画像処理方法として実現したり、それらのステップをコンピュータに実行させるプログラムとして実現したりすることもできる。そして、そのようなプログラムは、CD−ROM等の記録媒体やインターネット等の伝送媒体を介して配信することができるのはいうまでもない。   Note that the present invention can be realized not only as such an image processing apparatus, but also as an image processing method in which the characteristic means of such an image processing apparatus are implemented as steps. As a program to be executed. Needless to say, such a program can be distributed via a recording medium such as a CD-ROM or a transmission medium such as the Internet.

以上の説明から明らかなように、本発明に係る画像処理装置によれば、エッジを含むフィルタ処理領域では、分布係数の値が大きいため、注目画素の画素値から比較的大きく異なる画素値を持つ周辺画素に対しても大きいフィルタ係数が設定されて強い平滑化が行われ、モスキートノイズを有効に除去することができる。一方、エッジを含まないテクスチャなどのフィルタ処理領域では、分布係数の値が小さいため、注目画素の画素値に非常に近い画素値を持つ周辺画素以外には小さなフィルタ係数が設定されて弱い平滑化が行われ、ぼけの発生を抑制することができる。しかも、従来のようにフィルタ処理を行うブロックと行わないブロックとに分けるような処理でなく、全ての画素に対して適切なフィルタ処理が行われるので、モスキートノイズが残ってしまったり、エッジを含むブロックと含まないブロックとで画質が極端に変化してしまったりする事態を確実に防止することができる。   As is apparent from the above description, according to the image processing apparatus of the present invention, in the filter processing area including the edge, the distribution coefficient has a large value, and thus has a pixel value that is relatively significantly different from the pixel value of the target pixel. A large filter coefficient is set for peripheral pixels, and strong smoothing is performed, so that mosquito noise can be effectively removed. On the other hand, in a filter processing area such as a texture that does not include an edge, since the value of the distribution coefficient is small, a small filter coefficient is set to a peripheral pixel having a pixel value very close to the pixel value of the target pixel, and weak smoothing is performed. Is performed, and the occurrence of blur can be suppressed. In addition, since appropriate filtering is performed on all pixels instead of processing that separates blocks into blocks that do not perform filtering and blocks that do not perform filtering as in the past, mosquito noise remains or includes edges. It is possible to reliably prevent a situation in which the image quality is extremely changed between the block and the block not included.

よって、本発明により、高画質の復元画像を再現することが可能となり、デジタルカメラ等の他、高精細なプリンタやプロジェクタ等が普及してきた今日における本願発明の実用的価値は極めて高い。   Therefore, according to the present invention, it is possible to reproduce a high-quality restored image, and the practical value of the present invention is extremely high today, in addition to digital cameras and the like, as well as high-definition printers and projectors.

以下、図面を参照しながら本発明の実施例について説明する。
(実施の形態1)
図1は、デジタルカメラおよびプリンタの外観構成を示す図である。
デジタルカメラex100は、CCDやCMOSなどのカラーイメージセンサと、上記した画像符号化装置60(図15参照)などとから構成され、カラーイメージセンサによって取得された原画像を、符号化装置60によってブロック毎に符号化することにより、JPEG圧縮データを生成し、生成したJPEG圧縮データをSDカードex200に記録する。
Hereinafter, embodiments of the present invention will be described with reference to the drawings.
(Embodiment 1)
FIG. 1 is a diagram showing an external configuration of a digital camera and a printer.
The digital camera ex100 includes a color image sensor such as a CCD or a CMOS, and the above-described image encoding device 60 (see FIG. 15), and blocks the original image acquired by the color image sensor by the encoding device 60. By encoding each time, JPEG compressed data is generated, and the generated JPEG compressed data is recorded on the SD card ex200.

プリンタex400は、いわゆるダイレクトプリント機能を有し、SDカードex200を装着するためのカードリーダex301や、上記した画像復号化装置70の他、画像処理装置と、前処理部と、プリンタエンジン等とから構成される。
プリンタex400は、ユーザから指示されたJPEG圧縮データをSDカードex200から読み出して復号化装置70のエントロピー復号化部71、逆量子化部72、逆量子化テーブル73および逆DCT変換部74によって復号化し、YCbCrデータの復号画像を生成する。なお、この復号画像には、エッジ近傍に発生したモスキートノイズが含まれている。
The printer ex400 has a so-called direct print function, and includes, in addition to the card reader ex301 for mounting the SD card ex200 and the above-described image decoding device 70, an image processing device, a preprocessing unit, a printer engine, and the like. Be composed.
The printer ex400 reads the JPEG compressed data specified by the user from the SD card ex200 and decodes the data by the entropy decoding unit 71, the inverse quantization unit 72, the inverse quantization table 73, and the inverse DCT transform unit 74 of the decoding device 70. , YCbCr data. Note that the decoded image contains mosquito noise generated near the edge.

画像処理装置は、逆DCT変換部74から出力されたYCbCrデータの復号画像の内のY成分に対してフィルタ処理を施すことにより、モスキートノイズを除去し、エッジおよびテクスチャのぼけを抑え、しかも、弱いエッジにおいても、モスキートノイズが残ってしまったり、エッジのあるなしで画質が極端に変化してしまったりすることを防止した復元画像を生成する。   The image processing apparatus removes mosquito noise, suppresses edge and texture blur by performing a filtering process on the Y component in the decoded image of the YCbCr data output from the inverse DCT transform unit 74, and furthermore, A restored image is generated that prevents mosquito noise from remaining even on a weak edge and prevents the image quality from extremely changing without an edge.

復号化装置70の後処理部75は、画像処理装置によってフィルタ処理が施されたY成分と元のCbCrデータとに基づいて、復元画像のRGBデータに変換する。
前処理部は、RGBカラーの復元画像をYMCKのカラー復元画像に変換する。
プリンタエンジンは、用紙上にYMCKのカラーの復元画像を再生する。ここで、画像処理装置によって生成される復元画像においては、エッジおよびテクスチャのぼけを抑え、エッジのあるなしで画質が極端に変化してしまったりすることを防止しつつ、モスキートノイズを除去している。したがって、用紙上に再現される復元画像においても、図1に示されるように、エッジおよびテクスチャのぼけを抑え、エッジのあるなしで画質が極端に変化してしまったりすることを防止しつつ、エッジ強度の高い低いの如何に拘わらずモスキートノイズを除去することができる。
The post-processing unit 75 of the decoding device 70 converts the Y component filtered by the image processing device and the original CbCr data into RGB data of a restored image.
The preprocessing unit converts the RGB color restored image into a YMCK color restored image.
The printer engine reproduces a YMCK color restored image on a sheet. Here, in the restored image generated by the image processing device, mosquito noise is removed while suppressing blurring of edges and textures and preventing the image quality from being extremely changed without an edge. I have. Therefore, even in the restored image reproduced on the paper, as shown in FIG. 1, while suppressing the blur of the edge and the texture, and preventing the image quality from extremely changing without the edge, Mosquito noise can be removed regardless of whether the edge strength is high or low.

図2は、図1に示されるプリンタex400に実装された画像処理装置の機能構成を示すブロック図である。
画像処理装置1は、復号画像のY成分に対してブロック毎にフィルタ処理を施すことにより、復元画像を生成するものであって、図2に示されるように、差分値算出部11と、分布係数算出部12と、フィルタ係数算出部13と、フィルタ処理部14とを備える。
FIG. 2 is a block diagram showing a functional configuration of the image processing apparatus mounted on the printer ex400 shown in FIG.
The image processing apparatus 1 generates a restored image by performing a filtering process for each block of the Y component of the decoded image, and as shown in FIG. It includes a coefficient calculator 12, a filter coefficient calculator 13, and a filter processor 14.

差分値算出部11は、注目画素の画素値と各周辺画素の画素値との差分値を算出する。
分布係数算出部12は、各ブロックにおける画素値の分布係数を算出する。
フィルタ係数算出部13は、差分値算出部11において算出された差分値と、分布係数算出部12において算出された分布係数とに基づいて、各周辺画素に対するフィルタ係数をそれぞれ算出する。
The difference value calculation unit 11 calculates a difference value between the pixel value of the target pixel and the pixel values of each peripheral pixel.
The distribution coefficient calculation unit 12 calculates a distribution coefficient of a pixel value in each block.
The filter coefficient calculation unit 13 calculates a filter coefficient for each peripheral pixel based on the difference value calculated by the difference value calculation unit 11 and the distribution coefficient calculated by the distribution coefficient calculation unit 12.

フィルタ処理部14は、フィルタ係数算出部13において算出された各周辺画素に対するフィルタ係数を用いてフィルタ処理を行い、ノイズが除去された復元画像を生成する。
なお、上記画像処理装置1を構成する差分値算出部11、分布係数算出部12、フィルタ係数算出部13およびフィルタ処理部14は、CPUや、画像処理プログラムを予め格納したROM、画像処理プログラムを実行するためのワークエリア等を提供するRAM等によって構成される。
The filter processing unit 14 performs a filter process using the filter coefficients for each peripheral pixel calculated by the filter coefficient calculation unit 13, and generates a restored image from which noise has been removed.
The difference value calculation unit 11, the distribution coefficient calculation unit 12, the filter coefficient calculation unit 13, and the filter processing unit 14 included in the image processing apparatus 1 are a CPU, a ROM in which an image processing program is stored in advance, and an image processing program. It is configured by a RAM or the like that provides a work area or the like for execution.

本画像処理装置1のフィルタ処理部14は、以下の式(5)によって表すことができる。

Figure 2004159311
The filter processing unit 14 of the image processing apparatus 1 can be represented by the following equation (5).
Figure 2004159311

但し、

Figure 2004159311

である。 However,
Figure 2004159311

It is.

ここで、上式(5)〜(8)において、(x,y)は、注目画素の位置を表している。(i,j)は、注目画素に対する各周辺画素の相対位置を表している。f(x,y)は、復号画像における注目画素の画素値を表している。f(x+i,y+j)は、復号画像における各周辺画素の画素値を表している。g(x,y)は、フィルタ処理後の復元画像における注目画素の画素値を表している。また、(X,Y)は、注目画素(x,y)が含まれるブロックの位置を表している。βx,y(i,j)は、注目画素(x,y)に対する各周辺画素(i,j)のフィルタ係数を表している。νx,y(i,j)は、注目画素の画素値f(x,y)と各周辺画素の画素値f(x+i,y+j)との差分値を表している。U(X,Y)は、ブロック(X,Y)における画素値の最大値から最小値を減算した値(分布係数)を表している。また、Kは、予め設定された定数値を表している。 Here, in the above equations (5) to (8), (x, y) represents the position of the pixel of interest. (I, j) indicates the relative position of each peripheral pixel to the target pixel. f (x, y) represents the pixel value of the pixel of interest in the decoded image. f (x + i, y + j) represents the pixel value of each peripheral pixel in the decoded image. g (x, y) represents the pixel value of the target pixel in the restored image after the filter processing. (X, Y) represents the position of the block including the target pixel (x, y). β x, y (i, j) represents a filter coefficient of each peripheral pixel (i, j) with respect to the target pixel (x, y). ν x, y (i, j) represents a difference value between the pixel value f (x, y) of the target pixel and the pixel value f (x + i, y + j) of each peripheral pixel. U (X, Y) represents a value (distribution coefficient) obtained by subtracting the minimum value from the maximum value of the pixel values in the block (X, Y). K represents a constant value set in advance.

次いで、上記のように構成された画像処理装置1で復号画像から復元画像を生成するときの動作について説明する。
図3は、画像処理装置1における復号画像から復元画像を生成するときの動作を示すフローチャートである。なお、画像処理装置1は、復元画像を生成するに際して、JPEG圧縮データを復号する過程で、復号画像のどこにブロック境界線が存在するかの情報を予め取得している。
Next, an operation when the image processing apparatus 1 configured as described above generates a restored image from a decoded image will be described.
FIG. 3 is a flowchart illustrating an operation of the image processing apparatus 1 when generating a restored image from a decoded image. When generating the restored image, the image processing apparatus 1 previously acquires information on where the block boundary line exists in the decoded image in the process of decoding the JPEG compressed data.

画像処理装置1は、各ブロックについて、以下の処理を繰り返し実行する(S11)。まず、分布係数算出部12は、M×N画素単位の各ブロック(図4に示されるブロック境界線で区切られた領域)毎に、画素値の最大値と最小値とを順次取得し(S12,S13)、そのブロックにおける最大画素値max{f(x,y)}から最小画素値min{f(x,y)}を減算し、減算した値を、そのブロックに適用する分布係数U(X,Y)として算出する(S14)。   The image processing apparatus 1 repeatedly executes the following processing for each block (S11). First, the distribution coefficient calculation unit 12 sequentially obtains the maximum value and the minimum value of the pixel value for each block of M × N pixels (the area divided by the block boundary shown in FIG. 4) (S12). , S13), the minimum pixel value min {f (x, y)} is subtracted from the maximum pixel value max {f (x, y)} in the block, and the resulting value is used as the distribution coefficient U ( X, Y) (S14).

各ブロックに適用する分布係数の算出が終わると(S15)、差分値算出部11は、復号画像の各画素について、以下の処理を繰り返し実行する(S16)。差分値算出部11は、ある注目画素の画素値f(x,y)とフィルタ処理領域内の各周辺画素(図4に示されるフィルタ処理領域に含まれる全ての周辺画素)の画素値f(x+i,y+j)との差分値νx,y(i,j)をそれぞれ算出する(S17)。 When the calculation of the distribution coefficient applied to each block is completed (S15), the difference value calculation unit 11 repeatedly executes the following processing for each pixel of the decoded image (S16). The difference value calculation unit 11 calculates the pixel value f (x, y) of a certain target pixel and the pixel value f (x, y) of each peripheral pixel in the filter processing area (all the peripheral pixels included in the filter processing area shown in FIG. 4). x + i, y + j) and the difference values ν x, y (i, j) are calculated (S17).

ここで、図4は、注目画素、フィルタ処理に使用する周辺画素の領域(フィルタ処理領域)と、ブロック境界線によってM×N画素単位に分割されたブロックとの位置関係を示している。なお、この図4では、フィルタのサイズとして5×5、ブロックのサイズとして8×8の場合を示しているが、本発明はこのサイズに限定されるものではない。また、フィルタ処理領域としては、矩形に限定されるものではない。   Here, FIG. 4 shows a positional relationship between an area of a pixel of interest, peripheral pixels used for filter processing (filter processing area), and a block divided into M × N pixels by a block boundary line. Although FIG. 4 shows a case where the filter size is 5 × 5 and the block size is 8 × 8, the present invention is not limited to this size. Further, the filter processing area is not limited to a rectangle.

全ての差分値νx,y(i,j)の算出が終わると(S18)、フィルタ係数算出部13は、フィルタ処理領域内の各周辺画素について、以下の処理を繰り返し実行する(S19)。フィルタ係数算出部13は、差分値算出部11において算出された差分値νx,y(i,j)と、分布係数算出部12において算出された分布係数U(X,Y)とから、各周辺画素に対するフィルタ係数βx,y(i,j)を算出する(S20)。具体的には、式(6)に示される算出式によってフィルタ係数βx,y(i,j)を求めることができる。ここで、分布係数U(X,Y)の値については、注目画素が含まれるブロックで算出された値を使用し、差分値νx,y(i,j)については、各周辺画素に対してそれぞれ算出された値を使用する。 When the calculation of all the difference values v x, y (i, j) is completed (S18), the filter coefficient calculation unit 13 repeatedly executes the following processing for each peripheral pixel in the filter processing area (S19). The filter coefficient calculating unit 13 calculates each of the difference values ν x, y (i, j) calculated by the difference value calculating unit 11 and the distribution coefficient U (X, Y) calculated by the distribution coefficient calculating unit 12. A filter coefficient β x, y (i, j) for peripheral pixels is calculated (S20). Specifically, the filter coefficient β x, y (i, j) can be obtained by the calculation expression shown in Expression (6). Here, for the value of the distribution coefficient U (X, Y), a value calculated in the block including the target pixel is used, and for the difference value ν x, y (i, j), Use the calculated values.

なお、式(6)における定数Kは、分布係数U(X,Y)がフィルタ係数βx,y(i,j)の算出に与える影響を調節するためのパラメータであり、予め適当な値を設定することができる。
全てのフィルタ係数βx,y(i,j)の算出が終わると(S21)、フィルタ処理部14は、各注目画素について、以下の処理を繰り返し実行する(S22)。フィルタ処理部14は、フィルタ係数算出部13において算出された各周辺画素に対するフィルタ係数βx,y(i,j)を用いて、注目画素に対するフィルタ処理を行い、フィルタ処理後の注目画素の画素値を算出する(S23)。このような処理(S23)を繰り返し実行し、全てのブロック内の各画素についてフィルタ処理後の画素値を算出し終わると(S24)、復元画像が生成され、復元画像生成処理を終了する。
The constant K in the equation (6) is a parameter for adjusting the influence of the distribution coefficient U (X, Y) on the calculation of the filter coefficient β x, y (i, j). Can be set.
When all the filter coefficients β x, y (i, j) have been calculated (S21), the filter processing unit 14 repeatedly executes the following processing for each pixel of interest (S22). The filter processing unit 14 performs filter processing on the pixel of interest using the filter coefficient β x, y (i, j) for each peripheral pixel calculated by the filter coefficient calculation unit 13, and performs pixel processing on the pixel of interest after the filter processing. A value is calculated (S23). When such processing (S23) is repeatedly executed and the pixel values after the filter processing are calculated for each pixel in all the blocks (S24), a restored image is generated, and the restored image generation processing ends.

本実施の形態1の画像処理装置1を用いた場合、エッジを含むブロックでは、分布係数U(X,Y)の値が大きいため、注目画素の画素値から比較的大きく異なる画素値を持つ周辺画素に対してもエッジに影響を及ぼさない範囲で大きいフィルタ係数が設定されて強い平滑化が行われ、モスキートノイズを有効に除去することができる。一方、エッジを含まないテクスチャなどのブロックでは、分布係数U(X,Y)の値が小さいため、注目画素の画素値に非常に近い画素値を持つ周辺画素以外には小さなフィルタ係数が設定されて弱い平滑化が行われ、ぼけの発生を抑制することができる。しかも、従来のようにフィルタ処理を行うブロックと行わないブロックとに分けるような処理でなく、全てのブロックに対して適切なフィルタ処理が行われるので、モスキートノイズが残ってしまったり、エッジを含むブロックと含まないブロックとで画質が極端に変化してしまったりする事態を確実に防止することができる。   When the image processing apparatus 1 according to the first embodiment is used, in a block including an edge, the value of the distribution coefficient U (X, Y) is large, so that a peripheral pixel having a pixel value relatively different from the pixel value of the target pixel is used. A large filter coefficient is set for the pixel within a range that does not affect the edge, strong smoothing is performed, and mosquito noise can be effectively removed. On the other hand, in a block such as a texture that does not include an edge, since the value of the distribution coefficient U (X, Y) is small, a small filter coefficient is set for a peripheral pixel having a pixel value very close to the pixel value of the target pixel. Weak smoothing is performed, and the occurrence of blur can be suppressed. Moreover, since appropriate filtering is performed on all blocks, instead of processing that separates blocks into blocks that do not perform filtering and blocks that do not perform filtering, mosquito noise remains and edges are included. It is possible to reliably prevent a situation in which the image quality is extremely changed between the block and the block not included.

(実施の形態2)
図5は、プリンタex400に実装された画像処理装置の他の機能構成を示すブロック図である。
画像処理装置2は、復号画像のY成分に対してブロック毎にフィルタ処理を施すことにより、復元画像を生成するものであって、図5に示されるように、差分値算出部11と、分布係数算出部12と、分布係数補間部22と、フィルタ係数算出部23と、フィルタ処理部24とから構成される。なお、画像処理装置1の構成と対応する部分に同じ番号を付し、その説明を省略する。
(Embodiment 2)
FIG. 5 is a block diagram illustrating another functional configuration of the image processing apparatus mounted on the printer ex400.
The image processing device 2 generates a restored image by performing a filtering process for each block of the Y component of the decoded image. As shown in FIG. It comprises a coefficient calculation unit 12, a distribution coefficient interpolation unit 22, a filter coefficient calculation unit 23, and a filter processing unit 24. Note that the same reference numerals are given to portions corresponding to the configuration of the image processing apparatus 1, and description thereof will be omitted.

ここで、実施の形態1の画像処理装置1では、各ブロック内では同一の分布係数U(X,Y)(画一的な値)を用いてフィルタ係数を算出した。一般に、ブロック符号化ではブロック単位で独立に符号化処理が行われるため、モスキートノイズなどのノイズに関してもブロック単位で発生する。このため、上記の処理のようにブロック単位で平滑化の強さを調整することにより、テクスチャのぼけは抑制し、なおかつ、モスキートノイズは有効に除去することが可能となるが、画像によっては、ブロック境界部で平滑化の強さが不連続にならないようにフィルタ処理を行う方が好ましい場合も考えられる。   Here, in the image processing apparatus 1 according to the first embodiment, the filter coefficient is calculated using the same distribution coefficient U (X, Y) (uniform value) in each block. Generally, in the block coding, since the coding process is performed independently for each block, noise such as mosquito noise is also generated for each block. Therefore, by adjusting the level of smoothing in block units as in the above processing, blurring of the texture can be suppressed, and mosquito noise can be effectively removed.However, depending on the image, In some cases, it may be preferable to perform filter processing so that the smoothing strength does not become discontinuous at the block boundary.

そこで、この画像処理装置2においては、処理対象のブロックの分布係数と周辺ブロックの分布係数との複数個の分布係数を用い、当該ブロックの分布係数と周辺ブロックの分布係数とを2次元方向に線形補間することにより、画素毎に連続的に変化する補間分布係数u(x,y)を算出するための分布係数補間部22をさらに備え、この値を用いてフィルタ係数を算出することにより、ブロック境界部においても平滑化の強さが連続的に変化するフィルタ処理を実現するように構成されている。   Therefore, in the image processing apparatus 2, a plurality of distribution coefficients of the distribution coefficient of the block to be processed and the distribution coefficient of the peripheral block are used, and the distribution coefficient of the block and the distribution coefficient of the peripheral block are determined in the two-dimensional direction. It further includes a distribution coefficient interpolation unit 22 for calculating an interpolation distribution coefficient u (x, y) that continuously changes for each pixel by performing linear interpolation, and calculating a filter coefficient using this value. It is configured to realize a filtering process in which the smoothing strength changes continuously even at the block boundary.

次いで、上記のように構成された画像処理装置2で復号画像から復元画像を生成するときの動作について説明する。
図6は、画像処理装置2における復号画像から復元画像を生成するときの動作を示すフローチャートである。なお、画像処理装置2は、画像処理装置1と同様に、復元画像を生成するに際して、JPEG圧縮データを復号する過程で、復号画像のどこにブロック境界線が存在するかの情報を予め取得している。
Next, an operation when the image processing apparatus 2 configured as described above generates a restored image from a decoded image will be described.
FIG. 6 is a flowchart illustrating an operation of the image processing apparatus 2 when generating a restored image from a decoded image. Note that, similarly to the image processing apparatus 1, when generating the restored image, the image processing apparatus 2 previously acquires information on where the block boundary line exists in the decoded image in the process of decoding the JPEG compressed data. I have.

画像処理装置2は、各ブロックについて、以下の処理を繰り返し実行する(S11)。まず、分布係数算出部12は、M×N画素単位の各ブロック(図4に示されるブロック境界線で区切られた領域)毎に、画素値の最大値と最小値とを順次取得し(S12,S13)、そのブロックにおける最大画素値max{f(x,y)}から最小画素値min{f(x,y)}を減算し、減算した値を、そのブロックに適用する分布係数U(X,Y)として算出する(S14)。   The image processing device 2 repeatedly executes the following processing for each block (S11). First, the distribution coefficient calculation unit 12 sequentially obtains the maximum value and the minimum value of the pixel value for each block of M × N pixels (the area divided by the block boundary shown in FIG. 4) (S12). , S13), the minimum pixel value min {f (x, y)} is subtracted from the maximum pixel value max {f (x, y)} in the block, and the resulting value is used as the distribution coefficient U ( X, Y) (S14).

各ブロックに適用する分布係数の算出が終わると(S15)、差分値算出部11は、復号画像の各画素について、以下の処理を繰り返し実行する(S16)。差分値算出部11は、ある注目画素の画素値f(x,y)とフィルタ処理領域内の各周辺画素(図4に示されるフィルタ処理領域に含まれる全ての周辺画素)の画素値f(x+i,y+j)との差分値νx,y(i,j)をそれぞれ算出する(S17)。 When the calculation of the distribution coefficient applied to each block is completed (S15), the difference value calculation unit 11 repeatedly executes the following processing for each pixel of the decoded image (S16). The difference value calculation unit 11 calculates the pixel value f (x, y) of a certain target pixel and the pixel value f (x, y) of each peripheral pixel in the filter processing area (all the peripheral pixels included in the filter processing area shown in FIG. 4). x + i, y + j) and the difference values ν x, y (i, j) are calculated (S17).

全ての差分値νx,y(i,j)の算出が終わると(S18)、分布係数補間部22は、各画素について、以下の処理を繰り返し実行する(S31)。分布係数補間部22は、図7に示される注目画素のブロックの分布係数U(X,Y)および周辺ブロックの分布係数U(X−1,Y−1),U(X,Y−1),U(X−1,Y)を用いて、各画素における画素値の補間分布係数u(x,y)を算出する(S32)。 When the calculation of all the difference values v x, y (i, j) is completed (S18), the distribution coefficient interpolation unit 22 repeatedly executes the following processing for each pixel (S31). The distribution coefficient interpolation unit 22 calculates the distribution coefficient U (X, Y) of the block of the pixel of interest and the distribution coefficients U (X-1, Y-1) and U (X, Y-1) of the peripheral blocks shown in FIG. , U (X-1, Y), an interpolation distribution coefficient u (x, y) of a pixel value at each pixel is calculated (S32).

この補間方法を、図7を参照しながら説明する。
まず、分布係数算出部12において算出された分布係数U(X,Y)を各ブロックの中心点における分布係数と仮定する。
This interpolation method will be described with reference to FIG.
First, it is assumed that the distribution coefficient U (X, Y) calculated by the distribution coefficient calculation unit 12 is the distribution coefficient at the center point of each block.

次に、各ブロックの中心点とそれぞれ隣接する4つのブロックの中心点とを直線で結ぶと、復号画像の各画素は、4つのブロックの中心点で囲まれる矩形領域のいずれかに含まれる。ここで、ある注目画素(x,y)を取り囲む4つのブロックの中心点の分布係数が、それぞれU(X,Y),U(X−1,Y),U(X,Y−1),U(X−1,Y−1)であるとすると、注目画素(x,y)に対する補間分布係数u(x,y)は、これら4つの分布係数を、各中心点から注目画素(x,y)までの距離に応じて線形補間することにより算出することができる。   Next, when the center point of each block and the center points of four adjacent blocks are connected by a straight line, each pixel of the decoded image is included in any of the rectangular regions surrounded by the center points of the four blocks. Here, the distribution coefficients of the center points of four blocks surrounding a certain pixel of interest (x, y) are U (X, Y), U (X-1, Y), U (X, Y-1), If U (X-1, Y-1), the interpolation distribution coefficient u (x, y) for the pixel of interest (x, y) is obtained by dividing these four distribution coefficients from the center point to the pixel of interest (x, y). It can be calculated by performing linear interpolation according to the distance to y).

全ての補間分布係数u(x,y)の算出が終わると(S33)、フィルタ係数算出部23は、各周辺画素について、以下の処理を繰り返し実行する(S19)。フィルタ係数算出部23は、差分値算出部11において算出された差分値νx,y(i,j)と、分布係数補間部22において算出された補間分布係数u(x,y)とから、周辺画素に対するフィルタ係数βx,y(i,j)を算出する(S20)。具体的には、式(8)における分布係数U(X,Y)を、各注目画素の位置に対して算出された補間分布係数u(x,y)に置き換えた式を用いて、フィルタ係数βx,y(i,j)を算出する。 When the calculation of all the interpolation distribution coefficients u (x, y) is completed (S33), the filter coefficient calculation unit 23 repeatedly executes the following processing for each peripheral pixel (S19). The filter coefficient calculation unit 23 calculates the difference value ν x, y (i, j) calculated by the difference value calculation unit 11 and the interpolation distribution coefficient u (x, y) calculated by the distribution coefficient interpolation unit 22. A filter coefficient β x, y (i, j) for peripheral pixels is calculated (S20). Specifically, a filter coefficient is calculated using an expression obtained by replacing the distribution coefficient U (X, Y) in Expression (8) with the interpolation distribution coefficient u (x, y) calculated for the position of each pixel of interest. β x, y (i, j) is calculated.

全てのフィルタ係数βx,y(i,j)の算出が終わると(S21)、フィルタ処理部24は、各注目画素について以下の処理を繰り返し実行する(S22)。フィルタ処理部24は、フィルタ係数算出部23において算出された各周辺画素に対するフィルタ係数βx,y(i,j)を用いて、注目画素に対するフィルタ処理を行い、フィルタ処理後の注目画素の画素値を算出する(S23)。このような処理(S23)を繰り返し実行し、全てのブロック内の各注目画素についてフィルタ処理後の画素値を算出し終わると(S24)、復元画像が生成され、復元画像生成処理を終了する。 When all the filter coefficients β x, y (i, j) have been calculated (S21), the filter processing unit 24 repeatedly executes the following processing for each pixel of interest (S22). The filter processing unit 24 performs filter processing on the target pixel using the filter coefficient β x, y (i, j) for each peripheral pixel calculated by the filter coefficient calculation unit 23, and performs pixel processing on the target pixel after the filter processing. A value is calculated (S23). When such a process (S23) is repeatedly executed and the pixel value after the filter process is calculated for each target pixel in all the blocks (S24), a restored image is generated, and the restored image generation process ends.

本実施の形態2の画像処理装置2を用いた場合、画像処理装置1と同様の効果を得ることができるだけでなく、分布係数U(X,Y)を補間して算出した画素毎に連続的な補間分布係数u(x,y)を用いてフィルタ係数を算出するため、ブロック境界部においても平滑化の強さが不連続になることはなく、平滑化の強さが連続的に変化するフィルタ処理が実現できる。   When the image processing apparatus 2 according to the second embodiment is used, not only the same effect as the image processing apparatus 1 can be obtained, but also the continuous processing is performed for each pixel calculated by interpolating the distribution coefficient U (X, Y). Since the filter coefficient is calculated using the interpolation distribution coefficient u (x, y), the smoothing strength does not become discontinuous even at the block boundary, and the smoothing strength changes continuously. Filter processing can be realized.

(実施の形態3)
図8は、デジタルカメラ、パーソナルコンピュータ(以下、「PC」とも記す。)、倍率変換器およびプロジェクタの外観構成を示す図である。なお、デジタルカメラex100、SDカードex200については、図1の場合と同様であるので、その説明を省略する。
(Embodiment 3)
FIG. 8 is a diagram showing an external configuration of a digital camera, a personal computer (hereinafter, also referred to as “PC”), a magnification converter, and a projector. Note that the digital camera ex100 and the SD card ex200 are the same as those in FIG.

PCex300は、SDカードex200を装着するためのカードリーダex301や、上記した画像復号化装置70、表示器ex302などから構成され、ユーザから指示されたJPEG圧縮データをSDカードex200から読み出して復号化装置70によって復号化し、RGBカラーの復号画像を生成する。そして、PCex300は、生成した復号画像を表示器ex302に表示したり、倍率変換器ex500に出力したりする。なお、表示器ex302に表示される復号画像には、エッジ近傍に発生したモスキートノイズが含まれている。   The PCex300 includes a card reader ex301 for mounting the SD card ex200, the above-described image decoding device 70, the display ex302, and the like. The PCex300 reads JPEG compressed data specified by a user from the SD card ex200 and reads the JPEG compressed data from the decoding device. 70 to generate an RGB color decoded image. Then, the PCex300 displays the generated decoded image on the display ex302 or outputs it to the magnification converter ex500. Note that the decoded image displayed on the display ex302 includes mosquito noise generated near the edge.

倍率変換器ex500は、PCex300から出力されたRGBカラーの復号画像に対してサイズ調整を行い、サイズ調整済みのRGBカラーの復号画像を出力する。なお、サイズを縮小したり、拡大したりする場合には、間引き処理や、補間処理が適宜行われる。
プロジェクタex600は、前処理部と、画像処理装置と、後処理部と、表示エンジン等とから構成される。
The magnification converter ex500 adjusts the size of the decoded RGB color image output from the PCex300, and outputs the decoded RGB color decoded image. When the size is reduced or enlarged, a thinning process or an interpolation process is appropriately performed.
The projector ex600 includes a pre-processing unit, an image processing device, a post-processing unit, a display engine, and the like.

前処理部は、倍率変換器ex400から出力されたサイズ調整済みのRGBカラーの復号画像をYCbCrデータの復号画像に変換する。
画像処理装置は、前処理部から出力されたYCbCrデータの復号画像の内のY成分に対してフィルタ処理を施すことにより、モスキートノイズを除去し、エッジおよびテクスチャのぼけを抑え、しかも、弱いエッジにおいても、モスキートノイズが残ってしまったり、エッジのあるなしで画質が極端に変化してしまったりすることを防止した復元画像を生成する。
The preprocessing unit converts the size-adjusted decoded image of RGB color output from the magnification converter ex400 into a decoded image of YCbCr data.
The image processing apparatus removes mosquito noise, suppresses blurring of edges and textures by applying a filtering process to the Y component of the decoded image of the YCbCr data output from the preprocessing unit, and furthermore, controls weak edges. Also, a restored image is generated in which mosquito noise is not left and the image quality is prevented from being extremely changed without an edge.

後処理部は、画像処理装置によってフィルタ処理が施されたY成分と元のCbCrデータとに基づいて、復元画像のRGBデータに変換する。
表示エンジンは、RGBカラーの復元画像をスクリーンex700上にピントを合わせてRGBカラーの復元画像を再現する。ここで、画像処理装置によって生成される復元画像においては、エッジおよびテクスチャのぼけを抑え、エッジのあるなしで画質が極端に変化してしまったりすることを防止しつつモスキートノイズを除去している。したがって、スクリーンex700上に再現される復元画像においても、図8に示されるように、エッジおよびテクスチャのぼけを抑え、エッジのあるなしで画質が極端に変化してしまったりすることを防止しつつ、エッジ強度の高い低いの如何に拘わらずモスキートノイズを除去することができる。
The post-processing unit converts the Y component filtered by the image processing device and the original CbCr data into RGB data of a restored image.
The display engine focuses the restored RGB color image on the screen ex700 and reproduces the restored RGB color image. Here, in the restored image generated by the image processing device, mosquito noise is removed while suppressing blurring of edges and textures and preventing image quality from extremely changing without an edge. . Therefore, even in the restored image reproduced on the screen ex700, as shown in FIG. 8, blur of edges and textures is suppressed, and the image quality is prevented from being extremely changed without an edge. The mosquito noise can be removed regardless of whether the edge strength is high or low.

次いで、プロジェクタex600に実装された画像処理装置について説明する。
図9は、図8に示されるプロジェクタex600に実装された画像処理装置の機能構成を示すブロック図である。
画像処理装置3は、復号画像を構成する各画素のY成分に対して所定のフィルタ処理領域毎にフィルタ処理を施すことにより、復元画像を生成するものであって、図9に示されるように、差分値算出部11と、エッジ強度算出部31と、最大エッジ影響度算出部32と、フィルタ係数算出部33と、フィルタ処理部34とを備える。なお、画像処理装置1,2の構成要素と対応する部分に同じ番号を付し、その説明を省略する。
Next, an image processing device mounted on the projector ex600 will be described.
FIG. 9 is a block diagram illustrating a functional configuration of an image processing device mounted on projector ex600 shown in FIG.
The image processing device 3 generates a restored image by performing a filtering process on the Y component of each pixel constituting the decoded image for each predetermined filtering process region, as shown in FIG. , A difference value calculation unit 11, an edge strength calculation unit 31, a maximum edge influence calculation unit 32, a filter coefficient calculation unit 33, and a filter processing unit 34. Parts corresponding to the components of the image processing apparatuses 1 and 2 are denoted by the same reference numerals, and description thereof is omitted.

ところで、画像処理装置1では、各ブロック内では同一の分布係数U(X,Y)を用いてフィルタ係数を算出した。また、画像処理装置2では、ブロック毎に算出された分布係数U(X,Y)を補間して画素毎に連続的に変化する補間分布係数u(x,y)を算出し、この値を用いてフィルタ係数を算出することにより、ブロック境界部においても平滑化の強さが連続的に変化するフィルタ処理を実現している。しかしながら、上記したように復号画像が拡大されたり縮小されたりしている場合に、ブロック境界がどこに存在したのかわからないため、適切なフィルタ処理を行うことができない。そこで、この画像処理装置3は、ブロック境界がわからなくても、ブロック境界線に依存しない適切なフィルタ処理を行えるように構成されている。   By the way, the image processing apparatus 1 calculates a filter coefficient using the same distribution coefficient U (X, Y) in each block. Further, the image processing apparatus 2 calculates the interpolated distribution coefficient u (x, y) which continuously changes for each pixel by interpolating the distribution coefficient U (X, Y) calculated for each block, and calculates this value. By calculating the filter coefficients using the filter coefficients, filter processing in which the smoothing strength continuously changes even at the block boundary is realized. However, when the decoded image is enlarged or reduced as described above, it is not possible to perform an appropriate filtering process because it is not known where the block boundary exists. Therefore, the image processing device 3 is configured to perform appropriate filtering processing that does not depend on the block boundaries even if the block boundaries are not known.

画像処理装置3のエッジ強度算出部31は、例えばソーベルフィルタ(高木幹雄、下田陽久監修「画像解析ハンドブック」、550〜564頁、東京大学出版会、1991年)で構成され、注目画素を中心とするエッジ影響度算出領域(例えば、11×11画素)の各周辺画素についてエッジ強度を算出し、これによって各周辺画素のエッジ強度がどうなっているかを検出する。   The edge strength calculation unit 31 of the image processing device 3 is composed of, for example, a Sobel filter (“Image Analysis Handbook”, supervised by Mikio Takagi and Hirohisa Shimoda, 550-564, University of Tokyo Press, 1991), and focuses on the pixel of interest. The edge intensity is calculated for each peripheral pixel in the edge influence calculation area (for example, 11 × 11 pixels), and the edge intensity of each peripheral pixel is detected.

最大エッジ影響度算出部32は、エッジ影響度算出領域における周辺画素のエッジ強度と、注目画素とその周辺画素との間の距離とに基づいて、各周辺画素についてのエッジ影響度を算出する。そして、最大エッジ影響度算出部32は、全ての周辺画素についてのエッジ影響度の中の最大値を、フィルタ処理領域で用いる分布係数として決定する。
フィルタ係数算出部33は、差分値算出部11で算出されたフィルタ処理領域内における周辺画素の画素値と注目画素の画素値との差分値と、最大エッジ影響度算出部32によって算出されたフィルタ処理領域で用いる分布係数とに基づいて、フィルタ処理領域内における周辺画素のフィルタ係数をそれぞれ算出する。
The maximum edge influence calculation unit 32 calculates the edge influence of each peripheral pixel based on the edge strength of the peripheral pixel in the edge influence calculation area and the distance between the pixel of interest and the peripheral pixel. Then, the maximum edge influence calculation unit 32 determines the maximum value of the edge influences of all the peripheral pixels as the distribution coefficient used in the filter processing area.
The filter coefficient calculation unit 33 calculates a difference value between the pixel value of the peripheral pixel and the pixel value of the target pixel in the filter processing area calculated by the difference value calculation unit 11 and the filter calculated by the maximum edge influence degree calculation unit 32. Based on the distribution coefficients used in the processing area, filter coefficients of peripheral pixels in the filtering area are calculated.

フィルタ処理部34は、フィルタ係数算出部33において算出された各周辺画素に対するフィルタ係数βx,y(i,j)を用いて、注目画素に対するフィルタ処理を行い、フィルタ処理後の注目画素の画素値を算出する。これにより、フィルタ処理部34は、強いエッジに近いほどエッジに影響を及ぼさない範囲で強く平滑化し、エッジから遠いほど弱く平滑化する。すなわち、フィルタ処理部34は、周辺画素のエッジ強度と、距離とに依存してフィルタ係数を動的に変化させる。 The filter processing unit 34 performs filter processing on the pixel of interest using the filter coefficient β x, y (i, j) for each peripheral pixel calculated by the filter coefficient calculation unit 33, and performs filtering on the pixel of interest after the filter processing. Calculate the value. As a result, the filter processing unit 34 performs strong smoothing within a range that does not affect the edge as the edge is closer to a strong edge, and weaker as the distance from the edge is greater. That is, the filter processing unit 34 dynamically changes the filter coefficient depending on the edge strength of the peripheral pixels and the distance.

なお、上記画像処理装置3を構成する差分値算出部11、エッジ強度算出部31、最大エッジ影響度算出部32、フィルタ係数算出部33、フィルタ処理部34は、画像処理装置1,2の場合と同様に、CPUや、画像処理プログラムを予め格納したROM、画像処理プログラムを実行するためのワークエリア等を提供するRAM等によって構成される。
次いで、上記のように構成された画像処理装置3で復号画像から復元画像を生成するときの動作について説明する。
The difference value calculation unit 11, the edge strength calculation unit 31, the maximum edge influence degree calculation unit 32, the filter coefficient calculation unit 33, and the filter processing unit 34 included in the image processing device 3 are the same as those of the image processing devices 1 and 2. In the same manner as described above, it is constituted by a CPU, a ROM storing an image processing program in advance, a RAM providing a work area for executing the image processing program, and the like.
Next, an operation when the image processing apparatus 3 configured as described above generates a restored image from a decoded image will be described.

図10は、画像処理装置3における復号画像から復元画像を生成するときの動作を示すフローチャートである。
画像処理装置3は、図11に示される各エッジ影響度算出領域について、以下の処理を繰り返し実行する(S41)。
FIG. 10 is a flowchart illustrating an operation of the image processing apparatus 3 when generating a restored image from a decoded image.
The image processing device 3 repeatedly executes the following processing for each edge influence degree calculation area shown in FIG. 11 (S41).

図11は、ある画素(注目画素)に対して設定されるエッジ影響度算出領域の構成を示す図である。
ここで、この実施の形態3においては11×11画素で構成されているが、復号画像のサイズ変換倍率に応じて21×21画素など、種々のサイズのフィルタ処理領域を設定してもよい。
まず、エッジ強度算出部31は、ソーベルフィルタ等を用いて、各周辺画素のエッジ強度をそれぞれ算出する(S42)。
FIG. 11 is a diagram illustrating a configuration of an edge influence degree calculation area set for a certain pixel (target pixel).
Here, in the third embodiment, the filter processing area is composed of 11 × 11 pixels, but filter processing areas of various sizes such as 21 × 21 pixels may be set according to the size conversion magnification of the decoded image.
First, the edge strength calculation unit 31 calculates the edge strength of each peripheral pixel using a Sobel filter or the like (S42).

図12はソーベルフィルタの構成を示す図であり、特に、図12(a)は水平方向に適用されるソーベルフィルタの構成を示す図であり、図12(b)は垂直方向に適用されるソーベルフィルタの構成を示す図である。
ソーベルフィルタは、ある注目画素(ここでは、周辺画素)を中心とした上下左右の9つの画素値に対して、図12に示されるソーベルフィルタの係数をそれぞれ乗算し、乗算結果を合計する。水平方向の合計値をgHS、垂直方向の合計値をgVSとしたとき、注目画素のエッジ強度gは以下の式で求められる。
g=(gHS+gVS1/2
このような処理を各周辺画素に対して行うことにより、各周辺画素のエッジ強度がどうなっているかを検出することができる。
FIG. 12 is a diagram showing a configuration of a Sobel filter. In particular, FIG. 12A is a diagram showing a configuration of a Sobel filter applied in a horizontal direction, and FIG. 12B is a diagram applied to a vertical direction. FIG. 2 is a diagram showing a configuration of a Sobel filter.
The Sobel filter multiplies the nine pixel values of the upper, lower, left, and right centered on a certain pixel of interest (here, peripheral pixels) by the coefficients of the Sobel filter shown in FIG. 12 and sums up the multiplication results. . Assuming that the total value in the horizontal direction is gHS and the total value in the vertical direction is gVS, the edge strength g of the pixel of interest is obtained by the following equation.
g = (gHS 2 + gVS 2 ) 1/2
By performing such processing on each peripheral pixel, it is possible to detect the edge strength of each peripheral pixel.

なお、この実施の形態3においては、エッジ強度算出部31としてソーベルフィルタを用いたが、Prewittフィルタ等の1次微分フィルタや、2次微分フィルタ等を用いてエッジ強度を求めるようにしてもよい。   In the third embodiment, the Sobel filter is used as the edge strength calculation unit 31. However, the edge strength may be obtained by using a primary differential filter such as a Prewitt filter or a secondary differential filter. Good.

周辺画素のエッジ強度の算出が終わると、最大エッジ影響度算出部32は、フィルタ処理領域に適用する分布係数を求めるための最大エッジ影響度算出処理を実行する(S43)。
図13は、最大エッジ影響度算出処理のサブルーチンを示すフローチャートである。
最大エッジ影響度算出部32は、エッジ影響度算出領域内の各周辺画素について、以下の処理を繰り返し実行する(S431)。
When the calculation of the edge strength of the peripheral pixels is completed, the maximum edge influence degree calculation unit 32 executes a maximum edge influence degree calculation process for obtaining a distribution coefficient to be applied to the filter processing area (S43).
FIG. 13 is a flowchart illustrating a subroutine of a maximum edge influence degree calculation process.
The maximum edge influence degree calculation unit 32 repeatedly executes the following processing for each peripheral pixel in the edge influence degree calculation area (S431).

まず、最大エッジ影響度算出部32は、エッジ影響度算出領域内の各周辺画素について注目画素からの距離を算出する(S432)。このようにして求められた距離が図11中の数字で示されている。なお、この実施の形態3では、周辺画素と注目画素との斜め方向の距離として、水平方向の距離と垂直方向の距離との加算値で簡略的に求めているが、水平方向距離の2乗と垂直方向距離の2乗との加算値の平方根で実際に求めるようにしてもよい。   First, the maximum edge influence degree calculation unit 32 calculates the distance from each pixel of interest in the edge influence degree calculation area to the target pixel (S432). The distance obtained in this manner is indicated by a numeral in FIG. In the third embodiment, the diagonal distance between the peripheral pixel and the target pixel is simply obtained by adding the horizontal distance and the vertical distance, but the square of the horizontal distance is used. And the square root of the sum of the square of the vertical distance and the square of the vertical distance.

距離が求まると、最大エッジ影響度算出部32は、ステップS432で求めた注目画素からの距離と、エッジ強度算出部31が算出したその周辺画素のエッジ強度とに基づいて、エッジ影響度を算出する(S433)。ここで、エッジ影響度は、図14に示されるように、注目画素からの距離とエッジ強度に基づく関数F(距離,エッジ強度)で表され、注目画素に近く、エッジ強度が大きいほど、大きくなり、注目画素から遠く、エッジ強度が小さいほど、小さくなる。   When the distance is calculated, the maximum edge influence degree calculation unit 32 calculates the edge influence degree based on the distance from the target pixel calculated in step S432 and the edge strength of the peripheral pixel calculated by the edge strength calculation unit 31. (S433). Here, as shown in FIG. 14, the edge influence degree is represented by a function F (distance, edge strength) based on the distance from the pixel of interest and the edge strength. That is, the farther from the pixel of interest and the smaller the edge strength, the smaller the value.

このような処理を繰り返し実行することによりフィルタ処理領域内の各周辺画素についてのエッジ影響度が求まると(S434)、最大エッジ影響度算出部32は、フィルタ処理領域に適用する分布係数として、算出したエッジ影響度の最大値を採用し(S435)、図10に示されるメインルーチンにリターンする。
各フィルタ処理領域に適用する分布係数の算出が終わると(S44)、差分値算出部11は、復号画像の各画素について、以下の処理を繰り返し実行する(S16)。差分値算出部11は、ある注目画素の画素値f(x,y)とフィルタ処理領域内の各周辺画素(図4に示されるフィルタ処理領域に含まれる全ての周辺画素)の画素値f(x+i,y+j)との差分値νx,y(i,j)をそれぞれ算出する(S17)。
When the edge influence of each peripheral pixel in the filter processing area is obtained by repeatedly executing such processing (S434), the maximum edge influence calculation unit 32 calculates the distribution coefficient to be applied to the filter processing area as a distribution coefficient. The maximum value of the edge influence degree is adopted (S435), and the process returns to the main routine shown in FIG.
When the calculation of the distribution coefficient applied to each filter processing area is completed (S44), the difference value calculation unit 11 repeatedly executes the following processing for each pixel of the decoded image (S16). The difference value calculation unit 11 calculates the pixel value f (x, y) of a certain target pixel and the pixel value f (x, y) of each peripheral pixel in the filter processing area (all the peripheral pixels included in the filter processing area shown in FIG. 4). x + i, y + j) and the difference values ν x, y (i, j) are calculated (S17).

全ての差分値νx,y(i,j)の算出が終わると(S18)、フィルタ係数算出部33は、フィルタ処理領域内の各周辺画素について、以下の処理を繰り返し実行する(S19)。フィルタ係数算出部33は、差分値算出部11において算出された差分値νx,y(i,j)と、最大エッジ影響度算出部32において算出された分布係数U(X,Y)とから、各周辺画素に対するフィルタ係数βx,y(i,j)を算出する(S20)。具体的には、式(8)における分布係数U(X,Y)を最大エッジ影響度算出部32において算出された分布係数U(X,Y)に置き換えた式を用いてフィルタ係数βx,y(i,j)を算出する。 When the calculation of all the difference values v x, y (i, j) is completed (S18), the filter coefficient calculation unit 33 repeatedly executes the following processing for each peripheral pixel in the filter processing area (S19). The filter coefficient calculator 33 calculates the difference value ν x, y (i, j) calculated by the difference value calculator 11 and the distribution coefficient U (X, Y) calculated by the maximum edge influence degree calculator 32. Then, a filter coefficient β x, y (i, j) for each peripheral pixel is calculated (S20). Specifically, the filter coefficient β x ,, is calculated using an expression in which the distribution coefficient U (X, Y) in Expression (8) is replaced by the distribution coefficient U (X, Y) calculated in the maximum edge influence degree calculation unit 32 . Calculate y (i, j).

全てのフィルタ係数βx,y(i,j)の算出が終わると(S21)、フィルタ処理部34は、各注目画素について、以下の処理を繰り返し実行する(S22)。フィルタ処理部34は、フィルタ係数算出部33において算出された各周辺画素に対するフィルタ係数βx,y(i,j)を用いて、注目画素に対するフィルタ処理を行い、フィルタ処理後の注目画素の画素値を算出する(S23)。このような処理(S23)を繰り返し実行し、全てのブロック内の各画素についてフィルタ処理後の画素値を算出し終わると(S24)、復元画像が生成され、復元画像生成処理を終了する。 When all the filter coefficients β x, y (i, j) have been calculated (S21), the filter processing unit 34 repeatedly executes the following processing for each pixel of interest (S22). The filter processing unit 34 performs filter processing on the pixel of interest using the filter coefficient β x, y (i, j) for each peripheral pixel calculated by the filter coefficient calculation unit 33, and performs filtering on the pixel of interest after the filter processing. A value is calculated (S23). When such processing (S23) is repeatedly executed and the pixel values after the filter processing are calculated for each pixel in all the blocks (S24), a restored image is generated, and the restored image generation processing ends.

以上のように、本実施の形態3に係る画像処理装置3によれば、エッジ強度算出部31においてエッジ影響度算出領域内の周辺画素のエッジ強度を算出し、最大エッジ影響度算出部32においてエッジ画素からの距離とそのエッジ強度の大きさとに応じて、フィルタ処理領域に適用する分布係数(エッジ影響度の域最大値)を決定し、フィルタ係数算出部33において分布係数に応じたフィルタ係数を算出し、フィルタ処理部34において画素に対する平滑化の強さを変えるようにしている。   As described above, according to the image processing apparatus 3 according to the third embodiment, the edge strength calculation unit 31 calculates the edge strength of the peripheral pixels in the edge influence calculation area, and the maximum edge influence calculation unit 32 A distribution coefficient (edge influence area maximum value) to be applied to the filter processing area is determined according to the distance from the edge pixel and the magnitude of the edge strength, and the filter coefficient calculation unit 33 determines a filter coefficient according to the distribution coefficient. Is calculated, and the filter processing unit 34 changes the smoothing strength of the pixel.

したがって、ブロック境界位置が不明な場合も、効果的に処理できる。しかも、自然画像と人工画像とが混在しているような場合であっても、従来のようなテクスチャのぼけが防止され、エッジ強度の高い低いの如何に拘わらず、エッジのぼけを抑制し、モスキートノイズを確実に除去することができる。また、ブロック境界に依存せずフィルタ処理が行われるので、従来のようにフィルタ処理されるブロックと、処理されないブロックとが極端に分かれ、画質が急激に変化するような事態を確実に防止することができる。   Therefore, even when the block boundary position is unknown, it can be effectively processed. Moreover, even when a natural image and an artificial image are mixed, blurring of the texture as in the past is prevented, and regardless of whether the edge strength is high or low, blurring of the edge is suppressed, Mosquito noise can be reliably removed. Also, since the filtering process is performed independently of the block boundaries, it is necessary to surely prevent a situation in which the filtered image and the unprocessed image are extremely separated from each other as in the related art, and the image quality suddenly changes. Can be.

なお、上記実施の形態1,2の画像処理装置1,2では、ブロックに適用する分布係数U(X,Y)として、ブロック内の最大画素値max{f(x,y)}から最小画素値min{f(x,y)}を減算した値としたが、これに限定されるものではなく、ブロック内における画素値の分布の大きさを示す値であればよい。つまり、例えば、ブロック内における平均画素値からの分散値を、分布係数U(X,Y)として用いることもできる。また、ソーベルフィルタを用いて画素毎にエッジ強度を算出し、各ブロック内において最大のエッジ強度を分布係数U(X,Y)として用いてもよい。   In the image processing apparatuses 1 and 2 of the first and second embodiments, the distribution coefficient U (X, Y) applied to the block is calculated based on the maximum pixel value max {f (x, y)} in the block and the minimum pixel Although the value obtained by subtracting the value min {f (x, y)} is not limited to this value, the value may be any value that indicates the magnitude of the distribution of pixel values in the block. That is, for example, a variance value from an average pixel value in a block can be used as the distribution coefficient U (X, Y). Alternatively, the edge intensity may be calculated for each pixel using a Sobel filter, and the maximum edge intensity in each block may be used as the distribution coefficient U (X, Y).

また、差分値νx,y(i,j)と分布係数U(X,Y)(または補間分布係数u(x,y))に基づくフィルタ係数βx,y(i,j)の算出方法としては、式(6)のように連続的な関数に基づいて算出するのではなく、差分値νx,y(i,j)および分布係数U(X,Y)(または補間分布係数u(x,y))の値に関して予め複数のレベルを設定しておき、各レベルに応じて段階的に設定されるようにしてもよい。 A method of calculating a filter coefficient β x, y (i, j) based on the difference value ν x, y (i, j) and the distribution coefficient U (X, Y) (or the interpolation distribution coefficient u (x, y)) Is not calculated based on a continuous function as in Equation (6), but instead of the difference value ν x, y (i, j) and the distribution coefficient U (X, Y) (or the interpolation distribution coefficient u ( A plurality of levels may be set in advance for the values of (x, y)), and the values may be set stepwise according to each level.

また、カラー画像を処理する場合には、輝度成分(Y)からフィルタ係数βx,y(i,j)を算出し、このフィルタ係数βx,y(i,j)を用いて、R、G、B成分毎にそれぞれフィルタ処理を行うようにしてもよい。
また、本発明におけるフィルタ処理は、式(5)で表される処理に限定されるものではなく、同様の手段を備えていれば別の式で実現してもよい。
When a color image is processed, a filter coefficient β x, y (i, j) is calculated from the luminance component (Y), and R, R is calculated using the filter coefficient β x, y (i, j). Filter processing may be performed for each of the G and B components.
Further, the filter processing in the present invention is not limited to the processing represented by Expression (5), and may be realized by another expression as long as the same means is provided.

さらに、本発明はJPEGによって生じたノイズの除去処理に限定されるものではなく、他のブロック符号化方式によって生じたノイズの除去処理に用いることもできる。
また、静止画に限定されるわけではなく、MPEG圧縮データに対する処理のように動画に対しても適用でき、動画においても静止画の場合と同様の効果が得られる。
また、必ずしもプリンタやプロジェクタ内部で処理しなければならないわけではなく、PC上で処理してもよい。
Further, the present invention is not limited to the process of removing noise generated by JPEG, but can be used for the process of removing noise generated by another block coding method.
Further, the present invention is not limited to still images, and can be applied to moving images as in the case of processing on MPEG compressed data. The same effects as in the case of still images can be obtained in moving images.
Further, the processing need not necessarily be performed inside the printer or the projector, but may be performed on a PC.

また、上記実施の形態1,2では、プリンタでダイレクトプリントしたが、PCからプリントする場合でも、PC内部でRGBデータに復号してからプリンタに送るのではなく、JPEG圧縮データのままの状態でPCからプリンタに転送し、プリンタ内部で復号化処理以降の全ての処理を実行する方式、いわゆるプルプリントが最近になって検討されており、このような方式の場合においても適用できる。この場合においても、プリンタで、JPEG圧縮データの状態で受け取って、復号化処理から全ての処理を内部で行うため、自ずとブロック境界位置が分かる。   In the first and second embodiments, direct printing is performed by a printer. However, even when printing is performed from a PC, the data is not decoded into RGB data in the PC and then sent to the printer. A method of transferring all data from the PC to the printer and executing all the processing after the decryption processing inside the printer, that is, so-called pull printing, has recently been studied, and can be applied to such a method. Also in this case, since the printer receives the data in the form of JPEG compressed data and performs all the processing internally from the decoding processing, the block boundary position can be naturally known.

画像処理装置は、プリンタや、プロジェクタなど、多値画像をM×N画素単位のブロック毎に符号化して得られた圧縮データを復号化して得られた復号画像に、ノイズを除去するためのフィルタ処理を行って復元画像を生成するコンピュータ装置に適用できる。   The image processing apparatus includes a filter for removing noise from a decoded image obtained by decoding compressed data obtained by encoding a multi-valued image in units of M × N pixels, such as a printer or a projector. The present invention can be applied to a computer device that performs processing and generates a restored image.

デジタルカメラおよびプリンタの外観構成を示す図である。FIG. 2 is a diagram illustrating an external configuration of a digital camera and a printer. 図1に示されるプリンタex400に実装された画像処理装置の機能構成を示すブロック図である。FIG. 2 is a block diagram illustrating a functional configuration of an image processing apparatus mounted on the printer ex400 illustrated in FIG. 1. 画像処理装置1において、復号画像から復元画像を生成するときの動作を示すフローチャートである。5 is a flowchart illustrating an operation when the image processing apparatus 1 generates a restored image from a decoded image. 注目画素、フィルタ処理領域、ブロックの位置関係を示す図である。FIG. 3 is a diagram illustrating a positional relationship between a target pixel, a filter processing area, and a block. 図1に示されるプリンタex400に実装された他の画像処理装置の機能構成を示すブロック図である。FIG. 4 is a block diagram illustrating a functional configuration of another image processing apparatus mounted on the printer ex400 illustrated in FIG. 1. 画像処理装置2において、復号画像から復元画像を生成するときの動作を示すフローチャートである。6 is a flowchart showing an operation when the image processing apparatus 2 generates a restored image from a decoded image. 分布係数の補間処理を説明するための図である。It is a figure for explaining interpolation processing of a distribution coefficient. デジタルカメラ、パーソナルコンピュータ、倍率変換器およびプロジェクタの外観構成を示す図である。FIG. 2 is a diagram illustrating an external configuration of a digital camera, a personal computer, a magnification converter, and a projector. 図8に示されるプロジェクタex600に実装された画像処理装置の機能構成を示すブロック図である。FIG. 9 is a block diagram illustrating a functional configuration of an image processing device mounted on the projector ex600 illustrated in FIG. 8. 画像処理装置3における復号画像から復元画像を生成するときの動作を示すフローチャートである。5 is a flowchart illustrating an operation of the image processing apparatus 3 when generating a restored image from a decoded image. ある画素(注目画素)に対して設定されるフィルタ処理領域およびエッジ影響度算出領域の構成を示す図である。FIG. 3 is a diagram illustrating a configuration of a filter processing area and an edge influence degree calculation area set for a certain pixel (pixel of interest). ソーベルフィルタの構成を示す図であり、特に、図12(a)は水平方向に適用されるソーベルフィルタの構成を示す図であり、図12(b)は垂直方向に適用されるソーベルフィルタの構成を示す図である。It is a figure which shows the structure of a Sobel filter, especially FIG.12 (a) is a figure which shows the structure of the Sobel filter applied in a horizontal direction, FIG.12 (b) is the Sobel applied in a vertical direction. It is a figure showing composition of a filter. 最大エッジ影響度算出処理のサブルーチンを示すフローチャートである。It is a flowchart which shows the subroutine of the maximum edge influence degree calculation process. 注目画素からの距離と、エッジ強度と、エッジ影響度との関係を示す図である。FIG. 9 is a diagram illustrating a relationship among a distance from a target pixel, edge strength, and an edge influence degree. JPEGの符号化装置および復号化装置の機能構成を示すブロック図である。FIG. 3 is a block diagram illustrating a functional configuration of a JPEG encoding device and a decoding device. 従来の画像処理装置(SUSANフィルタ)100を示す図である。FIG. 2 is a diagram illustrating a conventional image processing apparatus (SUSAN filter) 100. 注目画素の画素値と各周辺画素の画素値との差分値と、この差分値から算出される第2フィルタ係数α2x,y(i,j)の値との関係を示す図である。FIG. 7 is a diagram illustrating a relationship between a difference value between a pixel value of a target pixel and a pixel value of each peripheral pixel, and a value of a second filter coefficient α2 x, y (i, j) calculated from the difference value. エッジとモスキートノイズの階調変化を模式的に表した図Diagram showing gradation of edge and mosquito noise 従来のフィルタ処理を模式的に示す図である。It is a figure which shows the conventional filter processing typically. SUSANフィルタによるフィルタ処理を行う前の復号画像とフィルタ処理後の復元画像を模式的に示す図である。It is a figure which shows typically the decoded image before performing the filter processing by a SUSAN filter, and the restored image after filter processing.

符号の説明Explanation of reference numerals

1,2,3 画像処理装置
11 差分値算出部
12 分布係数算出部
13,23,33 フィルタ係数算出部
14,24,34 フィルタ処理部
22 分布係数補間部
31 エッジ強度算出部
32 最大エッジ影響度算出部
1, 2, 3 image processing device 11 difference value calculation unit 12 distribution coefficient calculation unit 13, 23, 33 filter coefficient calculation unit 14, 24, 34 filter processing unit 22 distribution coefficient interpolation unit 31 edge intensity calculation unit 32 maximum edge influence degree Calculator

Claims (13)

多値画像をM×N画素単位のブロック毎に符号化して得られた圧縮データを復号化して得られた復号画像に、ノイズを除去するためのフィルタ処理を行って復元画像を生成する画像処理装置であって、
前記復号画像を構成する各画素に対してそれぞれ設定されたフィルタ処理領域内における注目画素の画素値と、周辺画素の画素値との差分値を算出する差分値算出手段と、
各前記画素における画素値の分布係数を算出する分布係数算出手段と、
前記差分値算出手段によって算出された前記差分値と、前記分布係数算出手段によって算出された前記分布係数とに基づいて、前記周辺画素に対するフィルタ係数を算出するフィルタ係数算出手段と、
前記フィルタ係数算出手段によって算出された前記フィルタ係数を用いて、前記復号画像における注目画素の画素値に対してフィルタ処理を行い、復元画像における注目画素の画素値を算出するフィルタ処理手段と
を備えることを特徴とする画像処理装置。
Image processing for generating a restored image by performing filter processing for removing noise on a decoded image obtained by decoding compressed data obtained by encoding a multi-valued image for each block of M × N pixels A device,
A difference value calculation unit that calculates a difference value between a pixel value of a target pixel and a pixel value of a peripheral pixel in a filter processing region set for each pixel configuring the decoded image,
Distribution coefficient calculating means for calculating a distribution coefficient of a pixel value in each of the pixels;
A filter coefficient calculating unit that calculates a filter coefficient for the peripheral pixel based on the difference value calculated by the difference value calculating unit and the distribution coefficient calculated by the distribution coefficient calculating unit;
Filter processing means for performing filter processing on the pixel value of the pixel of interest in the decoded image using the filter coefficient calculated by the filter coefficient calculation means, and calculating the pixel value of the pixel of interest in the restored image. An image processing apparatus comprising:
前記分布係数算出手段は、各前記画素における画素値の分布係数を前記ブロック毎に算出する
ことを特徴とする請求項1記載の画像処理装置。
The image processing device according to claim 1, wherein the distribution coefficient calculation unit calculates a distribution coefficient of a pixel value of each of the pixels for each of the blocks.
前記分布係数算出手段は、前記ブロック内における画素値の最大値から最小値を減算した差分値を、当該ブロックの画素値の分布係数として算出する
ことを特徴とする請求項2記載の画像処理装置。
The image processing apparatus according to claim 2, wherein the distribution coefficient calculation unit calculates a difference value obtained by subtracting a minimum value from a maximum value of pixel values in the block as a distribution coefficient of pixel values of the block. .
前記分布係数算出手段は、前記ブロック内における平均画素値からの分散値を、当該ブロックの画素値の分布係数として算出する
ことを特徴とする請求項2記載の画像処理装置。
The image processing apparatus according to claim 2, wherein the distribution coefficient calculation unit calculates a variance value from an average pixel value in the block as a distribution coefficient of a pixel value of the block.
前記分布係数算出手段は、前記ブロック内における最大エッジ強度を、当該ブロックの画素値の分布係数として算出する
ことを特徴とする請求項2記載の画像処理装置。
The image processing device according to claim 2, wherein the distribution coefficient calculation unit calculates a maximum edge intensity in the block as a distribution coefficient of a pixel value of the block.
前記分布係数算出手段は、前記ブロック毎に画素値の分布係数を算出し、算出されたブロックにおける画素値の分布係数と、当該ブロックに隣接する周囲のブロックにおける画素値の分布係数とを補間して各画素における画素値の補間分布係数を算出し、算出した補間分布係数を各前記画素における画素値の分布係数として用いる
ことを特徴とする請求項1記載の画像処理装置。
The distribution coefficient calculation unit calculates a distribution coefficient of a pixel value for each block, and interpolates a distribution coefficient of a pixel value in the calculated block and a distribution coefficient of a pixel value in a neighboring block adjacent to the block. The image processing apparatus according to claim 1, wherein an interpolation distribution coefficient of a pixel value of each pixel is calculated using the calculated interpolation distribution coefficient, and the calculated interpolation distribution coefficient is used as a distribution coefficient of a pixel value of each pixel.
前記分布係数算出手段は、前記ブロック内における画素値の最大値から最小値を減算した差分値を当該ブロックの画素値の分布係数として算出する
ことを特徴とする請求項6記載の画像処理装置。
The image processing apparatus according to claim 6, wherein the distribution coefficient calculation unit calculates a difference value obtained by subtracting a minimum value from a maximum value of pixel values in the block as a distribution coefficient of pixel values of the block.
前記分布係数算出手段は、前記ブロック内における平均画素値からの分散値を当該ブロックの画素値の分布係数として算出する
ことを特徴とする請求項6記載の画像処理装置。
The image processing apparatus according to claim 6, wherein the distribution coefficient calculation unit calculates a variance value from an average pixel value in the block as a distribution coefficient of a pixel value of the block.
前記分布係数算出手段は、前記ブロック内における最大エッジ強度を当該ブロックの画素値の分布係数として算出する
ことを特徴とする請求項6記載の画像処理装置。
The image processing apparatus according to claim 6, wherein the distribution coefficient calculation unit calculates a maximum edge intensity in the block as a distribution coefficient of a pixel value of the block.
前記分布係数算出手段は、
所定のエッジ影響度算出領域における前記周辺画素のエッジ強度を算出するエッジ強度算出手段と、
前記エッジ強度算出手段が算出した前記周辺画素のエッジ強度と、前記注目画素と前記周辺画素との距離とに基づいて注目画素に対するエッジ影響度を算出し、算出したエッジ影響度の最大値を各前記画素の画素値の分布係数として算出する最大エッジ影響度算出手段と
を備えることを特徴とする請求項1記載の画像処理装置。
The distribution coefficient calculating means,
Edge strength calculation means for calculating the edge strength of the peripheral pixel in a predetermined edge influence calculation area,
The edge intensity of the peripheral pixel calculated by the edge intensity calculation means, the edge influence degree for the pixel of interest is calculated based on the distance between the pixel of interest and the peripheral pixel, the maximum value of the calculated edge influence degree each The image processing apparatus according to claim 1, further comprising: a maximum edge influence degree calculating unit that calculates a distribution coefficient of a pixel value of the pixel.
多値画像をM×N画素単位のブロック毎に符号化して得られた圧縮データを復号化して得られた復号画像に、ノイズを除去するためのフィルタ処理を行って復元画像を生成する画像処理装置に用いられる画像処理方法であって、
前記復号画像を構成する各画素に対してそれぞれ設定されたフィルタ処理領域内における注目画素の画素値と周辺画素の画素値との差分値を算出する差分値算出ステップと、
各前記画素における画素値の分布係数を算出する分布係数算出ステップと、
前記差分値算出ステップによって算出された前記差分値と、前記分布係数算出ステップによって算出された前記分布係数とに基づいて、前記周辺画素に対するフィルタ係数を算出するフィルタ係数算出ステップと、
前記フィルタ係数算出ステップによって算出された前記フィルタ係数を用いて、前記復号画像における注目画素の画素値に対してフィルタ処理を行い、復元画像における注目画素の画素値を算出するフィルタ処理ステップと
を含むことを特徴とする画像処理方法。
Image processing for generating a restored image by performing filter processing for removing noise on a decoded image obtained by decoding compressed data obtained by encoding a multi-valued image for each block of M × N pixels An image processing method used for the device,
A difference value calculating step of calculating a difference value between a pixel value of a target pixel and a pixel value of a peripheral pixel in a filter processing region set for each of the pixels constituting the decoded image,
A distribution coefficient calculating step of calculating a distribution coefficient of a pixel value in each of the pixels;
A filter coefficient calculating step of calculating a filter coefficient for the peripheral pixel based on the difference value calculated by the difference value calculating step and the distribution coefficient calculated by the distribution coefficient calculating step;
Performing a filtering process on the pixel value of the target pixel in the decoded image using the filter coefficient calculated in the filter coefficient calculating step, and calculating a pixel value of the target pixel in the restored image. An image processing method comprising:
請求項11に記載の画像処理方法が備える全てのステップをコンピュータに実行させるためのプログラム。   A program for causing a computer to execute all steps included in the image processing method according to claim 11. 請求項11に記載の画像処理方法が備える全てのステップを実行させるためのプログラムを記録したコンピュータ読み取り可能な記録媒体。   A computer-readable recording medium on which a program for executing all steps of the image processing method according to claim 11 is recorded.
JP2003350076A 2002-10-16 2003-10-08 Image processing apparatus and image processing method Expired - Fee Related JP4097587B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2003350076A JP4097587B2 (en) 2002-10-16 2003-10-08 Image processing apparatus and image processing method

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2002301602 2002-10-16
JP2003350076A JP4097587B2 (en) 2002-10-16 2003-10-08 Image processing apparatus and image processing method

Publications (2)

Publication Number Publication Date
JP2004159311A true JP2004159311A (en) 2004-06-03
JP4097587B2 JP4097587B2 (en) 2008-06-11

Family

ID=32827922

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2003350076A Expired - Fee Related JP4097587B2 (en) 2002-10-16 2003-10-08 Image processing apparatus and image processing method

Country Status (1)

Country Link
JP (1) JP4097587B2 (en)

Cited By (18)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2006140999A (en) * 2004-10-14 2006-06-01 Mitsubishi Electric Research Laboratories Inc Method for filtering pixel in image
JP2006270220A (en) * 2005-03-22 2006-10-05 Victor Co Of Japan Ltd Video signal processing apparatus
KR100711725B1 (en) 2005-11-16 2007-04-25 엘지전자 주식회사 Method for filtering of deblocking in video telephony mobile phone
WO2007108164A1 (en) * 2006-03-23 2007-09-27 Niigata Seimitsu Co., Ltd. Image processing device
JP2007300454A (en) * 2006-05-01 2007-11-15 Fuji Xerox Co Ltd Decoding device, inverse quantization method, and program
JP2009049709A (en) * 2007-08-20 2009-03-05 Seiko Epson Corp Device, method and program for image processing
JP2009544223A (en) * 2006-07-19 2009-12-10 トライデント マイクロシステムズ インコーポレイテッド Method and system for reducing mosquito noise in digital images
JP2010154264A (en) * 2008-12-25 2010-07-08 Sharp Corp Image decoding apparatus and image encoding apparatus
JP2010178302A (en) * 2009-02-02 2010-08-12 Olympus Corp Image processing apparatus and image processing method
JP2010211552A (en) * 2009-03-11 2010-09-24 Rohm Co Ltd Image processing method and computer program
US7995839B2 (en) 2006-04-14 2011-08-09 Fujifilm Corporation Image processing device and method with distance calculating on color space
KR101119268B1 (en) * 2010-03-10 2012-03-20 삼성전자주식회사 Method and device for reduction image color noise
JP2012068763A (en) * 2010-09-21 2012-04-05 Toshiba Corp Image processing device
JP2013038479A (en) * 2011-08-04 2013-02-21 Kyocera Document Solutions Inc Image processing apparatus, image formation apparatus with the same, and image processing method
KR20160049954A (en) * 2014-10-28 2016-05-10 삼성디스플레이 주식회사 Image processing apparatus, image processing method, and image processing program
KR20160103902A (en) * 2015-02-24 2016-09-02 삼성디스플레이 주식회사 Image processing apparatus, image processing method, and image processing program
CN117041511A (en) * 2023-09-28 2023-11-10 青岛欧亚丰科技发展有限公司 Video image processing method for visual interaction enhancement of exhibition hall
US11825106B2 (en) 2006-08-31 2023-11-21 Ati Technologies Ulc Texture decompression techniques

Cited By (29)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2006140999A (en) * 2004-10-14 2006-06-01 Mitsubishi Electric Research Laboratories Inc Method for filtering pixel in image
JP2006270220A (en) * 2005-03-22 2006-10-05 Victor Co Of Japan Ltd Video signal processing apparatus
KR100711725B1 (en) 2005-11-16 2007-04-25 엘지전자 주식회사 Method for filtering of deblocking in video telephony mobile phone
JP4641957B2 (en) * 2006-03-23 2011-03-02 彰 吉田 Image processing apparatus and image processing program
WO2007108164A1 (en) * 2006-03-23 2007-09-27 Niigata Seimitsu Co., Ltd. Image processing device
JP2007257237A (en) * 2006-03-23 2007-10-04 Niigata Seimitsu Kk Image processor
US7995839B2 (en) 2006-04-14 2011-08-09 Fujifilm Corporation Image processing device and method with distance calculating on color space
US7957607B2 (en) 2006-05-01 2011-06-07 Fuji Xerox Co., Ltd. Decoding apparatus, dequantization method, and computer readable medium storing program thereof
JP2007300454A (en) * 2006-05-01 2007-11-15 Fuji Xerox Co Ltd Decoding device, inverse quantization method, and program
JP2009544223A (en) * 2006-07-19 2009-12-10 トライデント マイクロシステムズ インコーポレイテッド Method and system for reducing mosquito noise in digital images
US12047592B2 (en) 2006-08-31 2024-07-23 Ati Technologies Ulc Texture decompression techniques
US11843793B2 (en) 2006-08-31 2023-12-12 Ati Technologies Ulc Texture decompression techniques
US11825106B2 (en) 2006-08-31 2023-11-21 Ati Technologies Ulc Texture decompression techniques
JP2009049709A (en) * 2007-08-20 2009-03-05 Seiko Epson Corp Device, method and program for image processing
US8175383B2 (en) 2007-08-20 2012-05-08 Seiko Epson Corporation Apparatus, method, and program product for image processing
JP2010154264A (en) * 2008-12-25 2010-07-08 Sharp Corp Image decoding apparatus and image encoding apparatus
US8792738B2 (en) 2008-12-25 2014-07-29 Sharp Kabushiki Kaisha Image decoding apparatus and image coding apparatus
JP2010178302A (en) * 2009-02-02 2010-08-12 Olympus Corp Image processing apparatus and image processing method
JP2010211552A (en) * 2009-03-11 2010-09-24 Rohm Co Ltd Image processing method and computer program
KR101119268B1 (en) * 2010-03-10 2012-03-20 삼성전자주식회사 Method and device for reduction image color noise
US8711251B2 (en) 2010-03-10 2014-04-29 Samsung Electronics Co., Ltd. Method and device for reducing image color noise
JP2012068763A (en) * 2010-09-21 2012-04-05 Toshiba Corp Image processing device
JP2013038479A (en) * 2011-08-04 2013-02-21 Kyocera Document Solutions Inc Image processing apparatus, image formation apparatus with the same, and image processing method
KR20160049954A (en) * 2014-10-28 2016-05-10 삼성디스플레이 주식회사 Image processing apparatus, image processing method, and image processing program
KR102296510B1 (en) * 2014-10-28 2021-09-03 삼성디스플레이 주식회사 Image processing apparatus, image processing method, and image processing program
KR20160103902A (en) * 2015-02-24 2016-09-02 삼성디스플레이 주식회사 Image processing apparatus, image processing method, and image processing program
KR102355329B1 (en) * 2015-02-24 2022-01-26 삼성디스플레이 주식회사 Image processing apparatus, image processing method, and image processing program
CN117041511A (en) * 2023-09-28 2023-11-10 青岛欧亚丰科技发展有限公司 Video image processing method for visual interaction enhancement of exhibition hall
CN117041511B (en) * 2023-09-28 2024-01-02 青岛欧亚丰科技发展有限公司 Video image processing method for visual interaction enhancement of exhibition hall

Also Published As

Publication number Publication date
JP4097587B2 (en) 2008-06-11

Similar Documents

Publication Publication Date Title
US7292733B2 (en) Image processing apparatus and image processing method
JP4145665B2 (en) Image processing apparatus and image processing method
JP4097587B2 (en) Image processing apparatus and image processing method
JP4858610B2 (en) Image processing method
JP4457346B2 (en) Image noise removal method
JP5818404B2 (en) System and method for reducing artifacts in images
JP2004166266A (en) Method and system for eliminating artifact in compressed image
JP2004127064A (en) Image processing method, image processor, image processing program and image recording device
JP2006081156A (en) Image processing apparatus, method, and program
JP2001118062A (en) Automatic dynamic range compressing method
JP2007336467A (en) Image compression apparatus, image reader with the same, image processor with image compression apparatus, image forming apparatus with the same, method of image compression processing, computer program hereof, and recording medium
JP2005167399A (en) Image noise eliminating method
JP2007011926A (en) Image processing method and device, and program
JP4066367B2 (en) Image noise removal method
JP4137015B2 (en) Image processing apparatus and method
JP5157678B2 (en) Photo image processing method, photo image processing program, and photo image processing apparatus
JP2006343863A (en) Image processor and image processing method
JP4766702B2 (en) Image processing apparatus and method
JP2008301336A (en) Image processing device, image encoding device and image decoding device
JP2018019239A (en) Imaging apparatus, control method therefor and program
US6665447B1 (en) Method for enhancing image data by sharpening
US7580158B2 (en) Image processing apparatus, method and program
JP4040528B2 (en) Image processing apparatus, image processing method, image processing program, recording medium storing image processing program, and image forming apparatus including image processing apparatus
JP6024363B2 (en) Image processing device
JP2005277503A (en) Image processing method and apparatus, and program

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20060905

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20071113

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20080115

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20080212

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20080311

R150 Certificate of patent or registration of utility model

Free format text: JAPANESE INTERMEDIATE CODE: R150

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20110321

Year of fee payment: 3

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20110321

Year of fee payment: 3

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20120321

Year of fee payment: 4

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20130321

Year of fee payment: 5

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20130321

Year of fee payment: 5

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20140321

Year of fee payment: 6

LAPS Cancellation because of no payment of annual fees