Nothing Special   »   [go: up one dir, main page]

JP2006345384A - Image processing method and image processing apparatus - Google Patents

Image processing method and image processing apparatus Download PDF

Info

Publication number
JP2006345384A
JP2006345384A JP2005170928A JP2005170928A JP2006345384A JP 2006345384 A JP2006345384 A JP 2006345384A JP 2005170928 A JP2005170928 A JP 2005170928A JP 2005170928 A JP2005170928 A JP 2005170928A JP 2006345384 A JP2006345384 A JP 2006345384A
Authority
JP
Japan
Prior art keywords
data
error
error data
determined
diffuse
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Withdrawn
Application number
JP2005170928A
Other languages
Japanese (ja)
Inventor
Takeshi Kuga
剛 久我
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Canon Inc
Original Assignee
Canon Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Canon Inc filed Critical Canon Inc
Priority to JP2005170928A priority Critical patent/JP2006345384A/en
Publication of JP2006345384A publication Critical patent/JP2006345384A/en
Withdrawn legal-status Critical Current

Links

Images

Landscapes

  • Image Processing (AREA)
  • Facsimile Image Signal Circuits (AREA)

Abstract

<P>PROBLEM TO BE SOLVED: To prevent a printing quality level from deteriorating by preventing blur or an isolated point from being generated at a boundary in character or graphic data in an error spread method. <P>SOLUTION: The error spread method inspects the characteristics of pixel data of pixels to be processed, and pixels of a destination for which error data are spread. If there is a difference in the characteristics between the pixel data, the error data to be spread are not spread into a region having different characteristic, but spread into a region having the same characteristic to execute error spread processing. If the pixel data have the same characteristic, error spread processing is normally executed. This control prevents error spread into the region having different characteristic, thereby preventing the generation of blur or the isolated point in character data or a line image and improving the printing quality level. <P>COPYRIGHT: (C)2007,JPO&INPIT

Description

本発明は、誤差拡散法を用いる印刷において、孤立点の発生を防ぎ、良好な印刷品位を得ることが可能な、画像処理方法および画像形成装置に関するものである。   The present invention relates to an image processing method and an image forming apparatus capable of preventing generation of isolated points and obtaining good print quality in printing using an error diffusion method.

昨今、インクジェット方式のプリンタが広く普及してきている。このインクジェット方式のプリンタは、カラー印刷のため複数の色のインクを保持している。この複数色のインクを、吐出量を調整しながら重ね打ちすることにより、多くの色を表現してカラー画像を印刷することができる。この複数の色は主に加法混色の3原色であるイエロー(Y)、マゼンタ(M)、シアン(C)の色材を搭載している。また、インク量打ち込み制限、黒文字をはっきり印刷するためにブラック(Bk)を搭載したプリンタも多く存在する。   Recently, ink jet printers have become widespread. This inkjet printer holds a plurality of colors of ink for color printing. By overprinting the plurality of colors of ink while adjusting the discharge amount, a color image can be printed while expressing many colors. The plurality of colors mainly include color materials of yellow (Y), magenta (M), and cyan (C), which are the three primary colors of additive color mixing. There are also many printers equipped with black (Bk) for printing ink amount and printing black characters clearly.

このようなインクジェットプリンタにおける画像処理方法として、誤差拡散法と呼ばれるものがある。   As an image processing method in such an ink jet printer, there is a method called an error diffusion method.

誤差拡散法の具体例を示す。   A specific example of the error diffusion method will be shown.

画像処理の該当画素を(k、m)とし、その該当画素の画像データをa(k、m)とする。この画像データが8ビットデータであるとき、
0≦a(k、m)≦FF …(1)
である。ここで画像データは16進法で表現する。
Assume that the corresponding pixel of the image processing is (k, m), and the image data of the corresponding pixel is a (k, m). When this image data is 8-bit data,
0 ≦ a (k, m) ≦ FF (1)
It is. Here, the image data is expressed in hexadecimal.

該画像処理において、該当画素の画像データが
0≦a(k、m)<M ならば打たない。
In the image processing, if the image data of the corresponding pixel is 0 ≦ a (k, m) <M, no hit is made.

M≦a(k、m)≦FF ならば打つ。
という制御をする。ここでMは0〜FFの中である値を採る。
If M≤a (k, m) ≤FF, hit.
Control that. Here, M takes a value from 0 to FF.

さらに、
0≦a(k、m)<M のとき〔M〕=0
M≦a(k、m)≦FF のとき〔M〕=FF
とする。すると、画像データと、実際に印刷データとして表現したものとの間に誤差が生じる。この誤差をe(k,m)とするとe(k,m)は次のようにあらわされる。
further,
When 0 ≦ a (k, m) <M, [M] = 0
When M ≦ a (k, m) ≦ FF, [M] = FF
And Then, an error occurs between the image data and what is actually expressed as print data. If this error is e (k, m), e (k, m) is expressed as follows.

e(k,m)=a(k、m)−〔M〕 …(2)
このe(k,m)は、周囲の画素に所定の割合で分散される。
e (k, m) = a (k, m)-[M] (2)
This e (k, m) is distributed at a predetermined ratio to surrounding pixels.

このとき、図1に示すように、周辺画素(k、m+1)、(k+1、m−1)、(k+1、m)、(k+1、m+1)に分散されるとする。そのときの割合を α(k、m+1)、α(k+1、m−1)、α(k+1、m)、α(k+1、m+1)とすると、(k、m+1)の画像データは、もともとの画像データa(k、m+1)に対して
a(k、m+1)+e(k,m)×α(k、m+1) …(3)
と加算する。このように誤差値を所定の割合で周辺画素に加算する処理を(k+1、m−1)、(k+1、m)、(k+1、m+1)に対しても行う。この処理を順次処理の対象画素に対して行う。この拡散の割合の総和が
Σα=1 …(4)
となるようにすると濃度が保たれた状態で画像処理を行うことができる。この計算を一般的にしたものが図2である。
At this time, as shown in FIG. 1, it is assumed that the pixels are distributed to peripheral pixels (k, m + 1), (k + 1, m−1), (k + 1, m), and (k + 1, m + 1). If the ratio at that time is α (k, m + 1), α (k + 1, m−1), α (k + 1, m), α (k + 1, m + 1), the image data of (k, m + 1) is the original image. For data a (k, m + 1): a (k, m + 1) + e (k, m) × α (k, m + 1) (3)
And add. In this manner, the process of adding the error value to the peripheral pixels at a predetermined ratio is also performed for (k + 1, m−1), (k + 1, m), and (k + 1, m + 1). This process is sequentially performed on the target pixel. The sum of the diffusion ratios is Σα = 1 (4)
As a result, image processing can be performed in a state where the density is maintained. FIG. 2 shows the general calculation.

先に誤差データを分散させる割合をαとしたが、これは重み付け係数と呼ばれるものである。この重み付け係数としてよく知られたものに、「Floyd & Steinberg 型」と呼ばれるものがある。(図3)また、さらに滑らかな画像を得るため、誤差を拡散する領域を広げた「Jarvis, Judice & Ninke 型」と呼ばれるものもある。(図4)
図3、図4において、それぞれの領域は画素であり、斜線領域の画素は処理対象データである。その他の数字の記述された領域は誤差データの拡散先の画素であり、数字の割合に応じて、誤差データe(i,j)を分配する。以上の方式以外にも、いろいろな拡散方法が提案されており、この分配率と分配画素が誤差拡散法のノウハウとなっている。
The ratio of previously distributing the error data is α, which is called a weighting coefficient. A well-known weighting factor is called “Floyd & Steinberg type”. (Fig. 3) There is also a so-called "Jarvis, Judice & Ninke type" in which the error diffusion area is expanded to obtain a smoother image. (Fig. 4)
In FIG. 3 and FIG. 4, each area is a pixel, and pixels in the hatched area are data to be processed. The other area in which numbers are described is a pixel to which error data is diffused, and error data e (i, j) is distributed according to the ratio of the numbers. In addition to the above methods, various diffusion methods have been proposed, and the distribution rate and distribution pixels are the know-how of the error diffusion method.

以上に説明した誤差拡散法は、スムースな濃度変換を再現でき、滑らかな印刷ができる。特に写真画像のような印刷物を生成するときには非常に有効な画像処理方法である。このため現在多くの製品で誤差拡散法が用いられている。   The error diffusion method described above can reproduce smooth density conversion and can perform smooth printing. This is a very effective image processing method particularly when a printed matter such as a photographic image is generated. For this reason, the error diffusion method is currently used in many products.

又、従来例としては、例えば特許文献1と特許文献2をあげることが出来る。
特登録2702593号公報 特開平9−219791号公報
Moreover, as a prior art example, patent document 1 and patent document 2 can be mention | raise | lifted, for example.
Japanese Patent Registration No. 2702593 Japanese Patent Laid-Open No. 9-219791

しかし、この誤差拡散法は、文字データや線画などでは細線がかすれたり、境界において輪郭がボケたり孤立点が生成されたりする場合がある。その理由は、この誤差拡散法は本来存在する場所の画像データを別の個所に配置するという操作を行っているため、印刷時に周囲の画素情報が付加されるためである。   However, in this error diffusion method, fine lines may be blurred in character data, line drawings, etc., or the outline may be blurred or isolated points may be generated at the boundaries. This is because the error diffusion method performs an operation of arranging image data at a place where it originally exists at another place, and therefore, surrounding pixel information is added at the time of printing.

この欠点をなくすため、文字データの場合は画像処理方法の設定を変更する、などの方法があるが、印刷データ中に画像と文字が混載されている場合には適当な設定ができず、良好な印刷ができない。特に画像データ中にある文字データは、画像と同様に処理されて、滲んだ印刷になってしまという問題がある。   To eliminate this drawback, there are methods such as changing the image processing method settings for character data. However, when images and characters are mixed in the print data, appropriate settings cannot be made, which is good. Cannot be printed properly. In particular, there is a problem that character data in the image data is processed in the same manner as the image, resulting in blurred printing.

この課題を解決するために、本発明に係る画像処理方法は、以下のような機能を備える。   In order to solve this problem, the image processing method according to the present invention has the following functions.

請求項1の発明は、誤差拡散法を用いる画像処理方法であり、
拡散元と拡散先の画像データの特性を判断し、
その判断した結果に基づき、誤差拡散法における誤差データを拡散する、
ことを特徴とする画像処理方法である。
The invention of claim 1 is an image processing method using an error diffusion method,
Determine the characteristics of the source and destination image data,
Based on the result of the determination, the error data in the error diffusion method is diffused.
An image processing method characterized by this.

このように、画像データの特性を判断することにより、誤差の拡散方法を決めることができる。   As described above, the error diffusion method can be determined by determining the characteristics of the image data.

請求項2の発明は、前記判断方法において、
画像処理中の判断に用いるために、画像データもしくは属性データもしくは画像データの特性を判断するための情報を保持する、
ことを特徴とする画像処理方法である。
According to a second aspect of the present invention, in the determination method,
Holds information for determining the characteristics of image data or attribute data or image data for use in determination during image processing.
An image processing method characterized by this.

このように、画像データの特性を保持することにより、画像処理時に参照することができる。   In this way, by retaining the characteristics of the image data, it can be referred to during image processing.

請求項3の発明は、前記判断方法において、
画素間の画像データの差分を計算し、
その差分を判断する、
ことを特徴とする画像処理方法である。
According to a third aspect of the present invention, in the determination method,
Calculate the difference in image data between pixels,
Determine the difference,
An image processing method characterized by this.

このように、画像データの差分を計算することにより、画像データの色調の変化を判断することができる。   Thus, by calculating the difference between the image data, it is possible to determine a change in the color tone of the image data.

請求項4の発明は、前記判断方法において、
画素間の画像データの差分を計算し、
その差分をある閾値と比較することにより判断する、
ことを特徴とする画像処理方法である。
According to a fourth aspect of the present invention, in the determination method,
Calculate the difference in image data between pixels,
Judging by comparing the difference with a certain threshold,
An image processing method characterized by this.

このように、画像データの差分をある閾値と比較することにより、画像データの色調の変化が大きい点を検出することができる。   In this way, by comparing the difference of the image data with a certain threshold value, it is possible to detect a point where the change in color tone of the image data is large.

請求項5の発明は、前記判断方法において、
画素の画像データに含まれる属性データから判断する、
ことを特徴とする画像処理方法である。
According to a fifth aspect of the present invention, in the determination method,
Judging from the attribute data included in the pixel image data,
An image processing method characterized by this.

このように、属性データを参照することのより、画像の特性を判断することができる。   In this way, the characteristics of the image can be determined by referring to the attribute data.

請求項6の発明は、前記誤差拡散法における誤差データを拡散する方法で、
誤差データを拡散する処理において、
前記判断方法により、
誤差データを拡散する処理時に判断を行い、
誤差データを拡散すると判断した領域と拡散しないと判断した領域が存在する場合、
誤差データを拡散しないと判断した拡散データを、
誤差データを拡散すると判断した領域に拡散データを拡散する、
ことを特徴とする画像処理方法である。
The invention of claim 6 is a method of diffusing error data in the error diffusion method,
In the process of diffusing error data,
According to the determination method,
Judgment is made during the process of diffusing error data,
If there is an area that is determined to diffuse error data and an area that is determined not to diffuse,
Diffusion data determined not to diffuse error data,
Spread the diffusion data to the area that is determined to diffuse the error data,
An image processing method characterized by this.

このように、特性が同じ領域に誤差データを拡散することにより、画像濃度を保持して特性が異なる領域への拡散をしない制御をすることができる。   In this way, by diffusing error data in the region having the same characteristic, it is possible to control to retain the image density and not diffuse to the region having a different characteristic.

請求項7の発明は、前記誤差拡散法における誤差データを拡散する方法で、
誤差データを拡散する処理において、
前記判断方法により、
誤差データを拡散する処理時に判断を行い、
誤差データを拡散すると判断した領域と拡散しないと判断した領域が存在する場合、
誤差データを拡散しないと判断した拡散データを、
誤差データを拡散すると判断した領域のうち、一番近い領域に拡散データを拡散する、
ことを特徴とする画像処理方法である。
The invention of claim 7 is a method of diffusing error data in the error diffusion method,
In the process of diffusing error data,
According to the determination method,
Judgment is made during the process of diffusing error data,
If there is an area that is determined to diffuse error data and an area that is determined not to diffuse,
Diffusion data determined not to diffuse error data,
Diffusion data is diffused to the nearest area among the areas judged to diffuse error data.
An image processing method characterized by this.

このように、特性が同じ領域に誤差データを拡散することにより、画像濃度を保持して特性が異なる領域への拡散をしない制御をすることができる。   In this way, by diffusing error data in the region having the same characteristic, it is possible to control to retain the image density and not diffuse to the region having a different characteristic.

請求項8の発明は、前記誤差拡散法における誤差データを拡散する方法で、
誤差データを拡散する処理において、
前記判断方法により、
誤差データを拡散する処理時に判断を行い、
誤差データを拡散すると判断した領域と拡散しないと判断した領域が存在する場合、
誤差データを拡散しないと判断した拡散データを、
誤差データを拡散すると判断した領域のうち、未処理領域に拡散データを拡散する、
ことを特徴とする画像処理方法である。
The invention of claim 8 is a method of diffusing error data in the error diffusion method,
In the process of diffusing error data,
According to the determination method,
Judgment is made during the process of diffusing error data,
If there is an area that is determined to diffuse error data and an area that is determined not to diffuse,
Diffusion data determined not to diffuse error data,
The diffusion data is diffused to the unprocessed area among the areas determined to diffuse the error data.
An image processing method characterized by this.

このように、特性が同じ領域に誤差データを拡散することにより、画像濃度を保持して特性が異なる領域への拡散をしない制御をすることができる。   In this way, by diffusing error data in the region having the same characteristic, it is possible to control to retain the image density and not diffuse to the region having a different characteristic.

請求項9の発明は、前記誤差拡散法における誤差データを拡散する方法で、
誤差データを拡散する処理において、
前記判断方法により、
誤差データを拡散する処理時に判断を行い、
誤差データを拡散すると判断した領域と拡散しないと判断した領域が存在する場合、
誤差データを拡散しないと判断した拡散データを、
誤差データを拡散すると判断した領域に、その分配する割合に従い拡散データを拡散する、
ことを特徴とする画像処理方法である。
The invention of claim 9 is a method of diffusing error data in the error diffusion method,
In the process of diffusing error data,
According to the determination method,
Judgment is made during the process of diffusing error data,
If there is an area that is determined to diffuse error data and an area that is determined not to diffuse,
Diffusion data determined not to diffuse error data,
Spread the diffusion data to the area that is determined to spread the error data according to the distribution ratio,
An image processing method characterized by this.

このように、特性が同じ領域に誤差データを拡散することにより、画像濃度を保持して特性が異なる領域への拡散をしない制御をすることができる。   In this way, by diffusing error data in the region having the same characteristic, it is possible to control to retain the image density and not diffuse to the region having a different characteristic.

請求項10の発明は、前記誤差拡散法における誤差データを拡散する方法で、
誤差データを加算する処理において、
前記判断方法により、
誤差データを加算する処理時に判断を行い、
誤差データを加算すると判断した場合、誤差データを画像データに加算する、
誤差データを加算しないと判断した場合、誤差データを画像データに加算しない、
ことを特徴とする画像処理方法である。
The invention of claim 10 is a method of diffusing error data in the error diffusion method,
In the process of adding error data,
According to the determination method,
Judgment is made during the process of adding error data,
If it is determined to add error data, the error data is added to the image data.
If it is determined that the error data is not added, the error data is not added to the image data.
An image processing method characterized by this.

このように、特性が同じ領域に誤差データを拡散することにより、画像濃度を保持して特性が異なる領域への拡散をしない制御をすることができる。   In this way, by diffusing error data in the region having the same characteristic, it is possible to control to retain the image density and not diffuse to the region having a different characteristic.

請求項11の発明は、誤差拡散法を用いる画像処理方法を備えた画像処理装置であり、
拡散元と拡散先の画像データの特性を判断する判断手段と、
その判断した結果に基づき、誤差拡散法における誤差データを拡散する画像処理手段、
を備えたことを特徴とする画像処理装置である。
The invention of claim 11 is an image processing apparatus provided with an image processing method using an error diffusion method,
A judging means for judging the characteristics of the image data of the diffusion source and the diffusion destination;
Based on the result of the determination, image processing means for diffusing error data in the error diffusion method,
An image processing apparatus comprising:

このように、画像データの特性を判断することにより、誤差の拡散方法を決めることができる装置を提供できる。   As described above, it is possible to provide an apparatus that can determine an error diffusion method by determining the characteristics of image data.

請求項12の発明は、前記判断手段において、
画像処理中の判断に用いるために、画像データもしくは属性データもしくは画像データの特性を判断するための情報を保持する記憶手段、
を備えたことを特徴とする画像処理装置である。
According to a twelfth aspect of the present invention, in the determination means,
Storage means for holding image data or attribute data or information for determining characteristics of image data for use in determination during image processing;
An image processing apparatus comprising:

このように、画像データの特性を保持することにより、画像処理時に参照することができる装置を提供できる。   In this way, it is possible to provide an apparatus that can be referred to during image processing by maintaining the characteristics of image data.

請求項13の発明は、前記判断手段において、
画素間の画像データの差分を計算し、
その差分を判断する判断手段、
を備えたことを特徴とする画像処理装置である。
According to a thirteenth aspect of the present invention, in the determination means,
Calculate the difference in image data between pixels,
A judging means for judging the difference,
An image processing apparatus comprising:

このように、画像データの差分を計算することにより、画像データの色調の変化を判断することができる装置を提供できる。   As described above, it is possible to provide an apparatus that can determine a change in color tone of image data by calculating a difference between the image data.

請求項14の発明は、前記判断手段において、
画素間の画像データの差分を計算し、
その差分をある閾値と比較することにより判断する判断手段、
を備えたことを特徴とする画像処理装置である。
According to a fourteenth aspect of the present invention, in the determination means,
Calculate the difference in image data between pixels,
A judging means for judging by comparing the difference with a certain threshold value;
An image processing apparatus comprising:

このように、画像データの差分をある閾値と比較することにより、画像データの色調の変化が大きい点を検出することができる装置を提供できる。   In this way, by comparing the difference between the image data with a certain threshold value, it is possible to provide an apparatus that can detect a point where the change in color tone of the image data is large.

請求項15の発明は、前記判断手段において、
画素の画像データに含まれる属性データから判断する判断手段、
を備えたことを特徴とする画像処理装置である。
According to a fifteenth aspect of the present invention, in the determination means,
Determination means for determining from attribute data included in image data of pixels;
An image processing apparatus comprising:

このように、属性データを参照することのより、画像の特性を判断することができる装置を提供できる。   Thus, an apparatus that can determine the characteristics of an image can be provided by referring to attribute data.

請求項16の発明は、前記画像処理手段で、
誤差データを拡散する処理において、
前記判断手段により、
誤差データを拡散する処理時に判断を行い、
誤差データを拡散すると判断した領域と拡散しないと判断した領域が存在する場合、
誤差データを拡散しないと判断した拡散データを、
誤差データを拡散すると判断した領域に拡散データを拡散する、
ことを特徴とする画像処理装置である。
The invention of claim 16 is the image processing means,
In the process of diffusing error data,
By the determination means,
Judgment is made during the process of diffusing error data,
If there is an area that is determined to diffuse error data and an area that is determined not to diffuse,
Diffusion data determined not to diffuse error data,
Spread the diffusion data to the area that is determined to diffuse the error data,
An image processing apparatus characterized by this.

このように、画像データの特性が異なる領域に誤差データを拡散しないように処理することにより、特性が異なる領域への拡散をしない制御をすることができる装置を提供できる。   As described above, it is possible to provide an apparatus capable of performing control so as not to diffuse into regions having different characteristics by processing so that error data is not diffused into regions having different characteristics of image data.

請求項17の発明は、前記画像処理手段で、
誤差データを拡散する処理において、
前記判断手段により、
誤差データを拡散する処理時に判断を行い、
誤差データを拡散すると判断した領域と拡散しないと判断した領域が存在する場合、
誤差データを拡散しないと判断した拡散データを、
誤差データを拡散すると判断した領域のうち、一番近い領域に拡散データを拡散する、
ことを特徴とする画像処理装置である。
The invention of claim 17 is the image processing means,
In the process of diffusing error data,
By the determination means,
Judgment is made during the process of diffusing error data,
If there is an area that is determined to diffuse error data and an area that is determined not to diffuse,
Diffusion data determined not to diffuse error data,
Diffusion data is diffused to the nearest area among the areas judged to diffuse error data.
An image processing apparatus characterized by this.

このように、画像データの特性が異なる領域に誤差データを拡散しないように処理することにより、特性が異なる領域への拡散をしない制御をすることができる装置を提供できる。   As described above, it is possible to provide an apparatus capable of performing control so as not to diffuse into regions having different characteristics by processing so that error data is not diffused into regions having different characteristics of image data.

請求項18の発明は、前記画像処理手段で、
誤差データを拡散する処理において、
前記判断手段により、
誤差データを拡散する処理時に判断を行い、
誤差データを拡散すると判断した領域と拡散しないと判断した領域が存在する場合、
誤差データを拡散しないと判断した拡散データを、
誤差データを拡散すると判断した領域のうち、未処理領域に拡散データを拡散する、
ことを特徴とする画像処理装置である。
The invention of claim 18 is the image processing means,
In the process of diffusing error data,
By the determination means,
Judgment is made during the process of diffusing error data,
If there is an area that is determined to diffuse error data and an area that is determined not to diffuse,
Diffusion data determined not to diffuse error data,
The diffusion data is diffused to the unprocessed area among the areas determined to diffuse the error data.
An image processing apparatus characterized by this.

このように、画像データの特性が異なる領域に誤差データを拡散しないように処理することにより、特性が異なる領域への拡散をしない制御をすることができる装置を提供できる。   As described above, it is possible to provide an apparatus capable of performing control so as not to diffuse into regions having different characteristics by processing so that error data is not diffused into regions having different characteristics of image data.

請求項19の発明は、前記画像処理手段で、
誤差データを拡散する処理において、
前記判断手段により、
誤差データを拡散する処理時に判断を行い、
誤差データを拡散すると判断した領域と拡散しないと判断した領域が存在する場合、
誤差データを拡散しないと判断した拡散データを、
誤差データを拡散すると判断した領域に、その分配する割合に従い拡散データを拡散する、
ことを特徴とする画像処理装置である。
The invention of claim 19 is the image processing means,
In the process of diffusing error data,
By the determination means,
Judgment is made during the process of diffusing error data,
If there is an area that is determined to diffuse error data and an area that is determined not to diffuse,
Diffusion data determined not to diffuse error data,
Spread the diffusion data to the area that is determined to spread the error data according to the distribution ratio,
An image processing apparatus characterized by this.

このように、画像データの特性が異なる領域に誤差データを拡散しないように処理することにより、特性が異なる領域への拡散をしない制御をすることができる装置を提供できる。   As described above, it is possible to provide an apparatus capable of performing control so as not to diffuse into regions having different characteristics by processing so that error data is not diffused into regions having different characteristics of image data.

請求項20の発明は、前記画像処理手段で、
誤差データを加算する処理において、
前記判断手段により、
誤差データを加算する処理時に判断を行い、
誤差データを加算すると判断した場合、誤差データを画像データに加算する、
誤差データを加算しないと判断した場合、誤差データを画像データに加算しない、
ことを特徴とする画像処理装置である。
The invention of claim 20 is the image processing means,
In the process of adding error data,
By the determination means,
Judgment is made during the process of adding error data,
If it is determined to add error data, the error data is added to the image data.
If it is determined that the error data is not added, the error data is not added to the image data.
An image processing apparatus characterized by this.

このように、画像データの特性が異なる領域に誤差データを拡散しないように処理することにより、特性が異なる領域への拡散をしない制御をすることができる装置を提供できる。   As described above, it is possible to provide an apparatus capable of performing control so as not to diffuse into regions having different characteristics by processing so that error data is not diffused into regions having different characteristics of image data.

以上説明したように、本発明に係る画像処理方法は、以下のような機能を備える。   As described above, the image processing method according to the present invention has the following functions.

この画像処理方法は、画像処理を行う当該画素の画像データと、周囲の画素の画像データを比較し、その特性が異なる領域へ誤差を拡散せず、別の特性が同様な領域へ拡散する。   In this image processing method, the image data of the pixel to be subjected to image processing is compared with the image data of surrounding pixels, and an error is not diffused to a region having a different characteristic, but another characteristic is diffused to a similar region.

この制御を行うことにより、誤差拡散法を用いたときに発生しやすい、文字データや線画などの画像におけるにじみや孤立点の発生を防ぎ、また濃度保持、エッジ強調した状態で処理をすることができる。   By performing this control, it is possible to prevent the occurrence of bleeding and isolated points in images such as character data and line drawings, which are likely to occur when using the error diffusion method, and to perform processing with density retention and edge enhancement. it can.

以下、本発明の実施の形態を説明する。   Embodiments of the present invention will be described below.

(第1実施例)
図5は本発明に関わる画像処理手順を示すブロック図である。以下各構成部の説明をする。
(First embodiment)
FIG. 5 is a block diagram showing an image processing procedure according to the present invention. Each component will be described below.

ここで入力される色情報はレッド(R)、グリーン(G)、ブルー(B)の濃度を表し、(R、G、B)というベクトル量で表す。   The color information input here represents the density of red (R), green (G), and blue (B), and is represented by a vector quantity (R, G, B).

また出力される色情報はイエロー(Y)、マゼンタ(M)、シアン(C)の濃度を表し、(Y、M、C)というベクトル量で表す。これらの値は各色8ビットとし、
0≦R≦FF
0≦G≦FF
0≦B≦FF
また、
0≦Y≦FF
0≦M≦FF
0≦C≦FF
とする。
The output color information represents the density of yellow (Y), magenta (M), and cyan (C), and is represented by a vector quantity (Y, M, C). These values are 8 bits for each color,
0 ≦ R ≦ FF
0 ≦ G ≦ FF
0 ≦ B ≦ FF
Also,
0 ≦ Y ≦ FF
0 ≦ M ≦ FF
0 ≦ C ≦ FF
And

<入力γ補正>入力されたRGBの信号をデバイスの出力特性に合うようにγ補正が行われる。補正後の信号をRg、Gg、Bgとする。   <Input γ Correction> γ correction is performed so that the input RGB signal matches the output characteristics of the device. The corrected signals are Rg, Gg, and Bg.

<色変換処理>RGBデータをCMYデータに変換する。このブロックは色変換のテーブルを持っており、入力ちに対してタイムテーブルを参照して出力値を決定する。   <Color conversion processing> RGB data is converted into CMY data. This block has a color conversion table, and the output value is determined with reference to the time table for the input.

<出力γ変換>入力の濃度と実際に打つインク量は一般に一致せず、インクの特性によるところが大きい。この濃度と実際に打つインク量を補正するための変換である。   <Output γ conversion> The density of the input and the amount of ink actually applied do not generally match, and are largely due to the characteristics of the ink. This is conversion for correcting the density and the amount of ink actually hit.

<2値化処理>インクジェットプリンタではインクのドットをメディアに対して打つ。そのドットを密集、分散させることにより画像の濃淡を表し、画像を表現する。このドットを打つ・打たないという情報に変換する処理が2値化処理である。この2値化処理のとき、誤差拡散法を用いた処理を行う。本発明ではこの誤差拡散法の処理を行うときに、つぎのような処理を行う。   <Binarization Processing> Inkjet printers hit ink dots on media. The density of the image is expressed by densely distributing the dots, thereby expressing the image. The process of converting this dot into information indicating whether or not to strike is a binarization process. In the binarization process, a process using an error diffusion method is performed. In the present invention, when the error diffusion method is performed, the following processing is performed.

本発明の2値化処理における誤差拡散法の制御を説明する。   The control of the error diffusion method in the binarization process of the present invention will be described.

図6は本発明における処理の順序を示す図である。601は処理対象の画像の全領域を示している。602は画像を構成する画素データである。   FIG. 6 is a diagram showing the order of processing in the present invention. Reference numeral 601 denotes the entire area of the image to be processed. Reference numeral 602 denotes pixel data constituting an image.

処理の開始は左上の画素から始める。その位置から右方向に処理をしていく。一番右の画素データまで処理をしたら、同様に処理を行った下の行の処理を行う。この処理を繰り返し、最後に右下の画素を処理して終了する。   The process starts from the upper left pixel. Process from the position to the right. When processing is performed up to the rightmost pixel data, the processing of the lower row is similarly performed. This process is repeated, and finally the lower right pixel is processed and the process ends.

図7はある画素a(i、j)の処理を行うとき、加算される誤差データ元の画素を示す図である。本実施例においては「Floyd & Steinberg 型」の誤差拡散の処理を想定するが、本発明はこの方式に限定されるものではない。   FIG. 7 is a diagram showing error data source pixels to be added when processing a certain pixel a (i, j). In this embodiment, “Floyd & Steinberg type” error diffusion processing is assumed, but the present invention is not limited to this method.

図7においては、ある画素a(i、j)の処理時に拡散データ元の参照する画素を示しているが、画像中の端の画素データを処理する場合、どの画素を参照すればよいかという点に関しては考慮されてない。図8は画像中の端に画素データがある場合、この画素を処理するときに参照する画素を示す図である。(a)画像中の左上端の画素データ810を処理する場合は,参照する画素データがないので、初期設定された処理を行う。(b)上端の画素データ820を処理する場合は、図中821の画素データを参照する。(c)右上端の画素データ830を処理する場合は、図中831の画素データを参照する。(d)左端の画素データ840を処理する場合は、図中841、842の画素データを参照する。(e)端に接していない画素データ850を処理する場合は、図中851〜854の画素データを参照する。(f)右端の画素データ860を処理する場合は、図中861〜863の画素データを参照する。(g)左下端の画素データ870を処理する場合は、図中871、872の画素データを参照する。(h)下端の画素データ880を処理する場合は、図中881〜884の画素データを参照する。(i)右下端の画素データ890を処理する場合は、図中891〜893の画素データを参照する。   In FIG. 7, the pixel to which the diffusion data source is referred when processing a certain pixel a (i, j) is shown, but which pixel should be referred to when processing the pixel data at the end in the image. The point is not considered. FIG. 8 is a diagram showing a pixel to be referred to when this pixel is processed when there is pixel data at the end in the image. (A) When processing the pixel data 810 at the upper left corner in the image, since there is no pixel data to be referred to, an initially set process is performed. (B) When processing pixel data 820 at the upper end, reference is made to the pixel data 821 in the figure. (C) When processing the pixel data 830 at the upper right end, reference is made to the pixel data 831 in the figure. (D) When processing the pixel data 840 on the left end, reference is made to the pixel data 841 and 842 in the figure. (E) When processing pixel data 850 that is not in contact with the end, reference is made to the pixel data 851 to 854 in the figure. (F) When processing the pixel data 860 at the right end, the pixel data 861 to 863 in the figure are referred to. (G) When processing the pixel data 870 at the lower left corner, reference is made to the pixel data 871 and 872 in the figure. (H) When processing pixel data 880 at the lower end, reference is made to pixel data 881 to 884 in the figure. (I) When processing the pixel data 890 at the lower right corner, the pixel data 891 to 893 in the figure are referred to.

本実施例ではある画素を処理するときに参照する範囲を図7で示したが、拡散方法が本実施例で挙げた方法と異なる場合(例えば処理の順番が列方向の場合や、行方向を複数行にわたって処理を行う場合)であっても、拡散データ元の画素データを参照しているならば、図7の範囲に限定されない。また、処理対象の画素が端にある場合の参照方法も図8で示した方法には限定されない。   In this embodiment, the range to be referred to when processing a certain pixel is shown in FIG. 7, but when the diffusion method is different from the method described in this embodiment (for example, when the processing order is the column direction or the row direction is Even when processing is performed over a plurality of rows), the pixel data is not limited to the range shown in FIG. Further, the reference method when the pixel to be processed is at the end is not limited to the method shown in FIG.

また本実施例においては処理する単位を画素にしているが、本発明を実施する場合、画素単位はではく、任意の領域を単位として実施してもよい。   In this embodiment, the unit to be processed is a pixel. However, when the present invention is carried out, an arbitrary region may be used instead of a pixel unit.

図9は第1実施例における、誤差データの拡散元と拡散先の関係を示した図である。拡散元の画像データの座標を(k、m)、拡散先の画像データの座標を(i、j)と置く。上の図は誤差データを拡散するときの周囲画素との関係を示した図である。図中901の画素の誤差データe(k、m)は,拡散先によって異なる所定の係数αを乗算して拡散先の画素データに加算される。このときの(0、1)方向への加算を(1)、(1、−1)方向への加算を(2)、(1、0)方向への加算を(3)、(1、1)方向への加算を(4)とする。この後の画素の処理順序は902→903→904→905と進む。   FIG. 9 is a diagram showing the relationship between the error data diffusion source and the diffusion destination in the first embodiment. The coordinates of the image data of the diffusion source are (k, m) and the coordinates of the image data of the diffusion destination are (i, j). The upper figure shows the relationship with surrounding pixels when error data is diffused. In the figure, error data e (k, m) of the pixel 901 is multiplied by a predetermined coefficient α that differs depending on the diffusion destination and added to the pixel data of the diffusion destination. At this time, the addition in the (0, 1) direction is (1), the addition in the (1, -1) direction is (2), and the addition in the (1, 0) direction is (3), (1, 1 ) Addition in the direction is (4). The subsequent pixel processing sequence proceeds in the order of 902 → 903 → 904 → 905.

一方、下の図は誤差データを加算するときの周囲画素との関係を示した図である。図中911が誤差データを加算する対象となる画素データである。2つの図の(1)、(2)、(3)、(4)は対応を取っている。加算されるときの順序は(4)、(3)、(2)、(1)となる。   On the other hand, the lower diagram shows the relationship with surrounding pixels when adding error data. In the figure, reference numeral 911 denotes pixel data to which error data is added. (1), (2), (3), and (4) in the two figures correspond to each other. The order of addition is (4), (3), (2), and (1).

図10は本実施例における、拡散できない領域が存在した場合の拡散方法を示す図である。本発明では、誤差データを拡散予定の領域について、拡散するか否かの判断を行い、拡散しないと判断した場合、他の領域に拡散を行う。その方法について説明する。   FIG. 10 is a diagram showing a diffusion method when there is a region that cannot be diffused in the present embodiment. In the present invention, it is determined whether or not the error data is to be diffused in the region where the error data is to be diffused. If it is determined that the error data is not to be diffused, diffusion is performed in other regions. The method will be described.

通常は(a)のように拡散係数に従い誤差データを(1)、(2)、(3)、(4)のように拡散する。   Normally, error data is diffused as shown in (1), (2), (3), and (4) according to the diffusion coefficient as shown in (a).

(b)1012に拡散しない場合、つまり(1)の拡散を行わない場合は、隣接する1015に拡散を行う。   (B) When not diffusing to 1012, that is, when not diffusing (1), diffusing to adjacent 1015 is performed.

(c)1023に拡散しない場合、つまり(2)の拡散を行わない場合は、隣接する1024に拡散を行う。   (C) When not diffusing to 1023, that is, when not diffusing in (2), diffusion is performed on adjacent 1024.

(d)1034に拡散しない場合、つまり(3)の拡散を行わない場合は、隣接する1035に拡散を行う。   (D) When not diffusing to 1034, that is, when not diffusing (3), diffusing to adjacent 1035 is performed.

(e)1045に拡散しない場合、つまり(4)の拡散を行わない場合は、すでに他の領域1042〜1044は処理が完了しているため、データを渡す領域がなく、その誤差データは消失する。   (E) When not spreading to 1045, that is, when not spreading (4), since the other areas 1042 to 1044 have already been processed, there is no area for passing data, and the error data is lost. .

図11は本実施例における画像データを示す記号の定義を示す図である。   FIG. 11 is a diagram showing definitions of symbols indicating image data in the present embodiment.

a(i、j)各色の画像データに関して、
イエロー(Y)の画像データをY(i、j)
マゼンタ(M)の画像データをM(i、j)
シアン(C)の画像データをC(i、j)
とおく。また、誤差データを加算するか否かの判断をする閾値データを
イエロー(Y)の閾値データをMy
マゼンタ(M)の閾値データをMm
シアン(C)の閾値データをMc
とおく。
a (i, j) For image data of each color,
The image data of yellow (Y) is converted into Y (i, j)
The image data of magenta (M) is converted to M (i, j)
Cyan (C) image data is converted to C (i, j)
far. Further, threshold data for determining whether or not to add error data is set to yellow (Y) threshold data.
The threshold data of magenta (M) is Mm
The threshold value data of cyan (C) is Mc
far.

(式11−1)は画像データa(i、j)の要素がイエロー、マゼンタ、シアンの画像データからなることを示す式である。   (Expression 11-1) is an expression indicating that the elements of the image data a (i, j) are composed of yellow, magenta, and cyan image data.

(式11−2)は画像データa(i、j)の演算が各要素であるイエロー、マゼンタ、シアンの画像データ量を計算することを示す式である。   (Expression 11-2) is an expression indicating that the calculation of the image data a (i, j) calculates the image data amounts of yellow, magenta, and cyan which are the respective elements.

(式11−3)は画像データa(i、j)の演算の一例を示す式である。   (Expression 11-3) is an expression showing an example of the calculation of the image data a (i, j).

(式11−4)は画像データa(i、j)の差分の絶対値を示す式である。   (Expression 11-4) is an expression indicating the absolute value of the difference between the image data a (i, j).

(式11−5)は閾値Mがイエロー閾値データ(My)、マゼンタの閾値データを(Mm)、シアンの閾値データ(Mc)の要素からなることを示す図である。   (Expression 11-5) is a diagram showing that the threshold value M is composed of yellow threshold value data (My), magenta threshold value data (Mm), and cyan threshold value data (Mc).

図12は第1実施例における処理順序を示すフローチャートである。a(i、j)の画素の処理を開始すると、S1201において、a(i、j)とa(i−1、j−1)画像データの差分を計算する。その差分が各要素(C,M,Y)において閾値M以下ならば、S1202に進む。差分が各要素のうち1色でも閾値M以上ある場合はS1203に進む。S1202においては、a(i−1、j−1)の誤差データをa(i、j)の画像データに加算しS1203に進む。   FIG. 12 is a flowchart showing the processing order in the first embodiment. When the processing of the pixel of a (i, j) is started, the difference between a (i, j) and a (i-1, j-1) image data is calculated in S1201. If the difference is less than or equal to the threshold value M in each element (C, M, Y), the process proceeds to S1202. If the difference is greater than or equal to the threshold value M even for one color of each element, the process proceeds to S1203. In S1202, the error data of a (i-1, j-1) is added to the image data of a (i, j), and the process proceeds to S1203.

S1203において、a(i、j)とa(i−1、j)画像データの差分を計算する。その差分が各要素において閾値M以下ならば、S1204に進む。S1204においては、a(i−1、j)の誤差データをa(i、j)の画像データに加算しS1205に進む。S1203において、差分が各要素のうち1色でも閾値M以上ある場合はS1210に進む。S1210においては、a(i−1、j)の誤差データをa(i、j+1)の処理を行うときに加算する誤差データに加算する。   In step S1203, the difference between a (i, j) and a (i-1, j) image data is calculated. If the difference is less than or equal to the threshold value M in each element, the process proceeds to S1204. In S1204, the error data of a (i-1, j) is added to the image data of a (i, j), and the process proceeds to S1205. In S1203, when the difference is equal to or greater than the threshold value M even in one color among the elements, the process proceeds to S1210. In S1210, the error data of a (i-1, j) is added to the error data to be added when the processing of a (i, j + 1) is performed.

S1205において、a(i、j)とa(i−1、j)画像データの差分を計算する。その差分が各要素において閾値M以下ならば、S1206に進む。S1206においては、a(i−1、j+1)の誤差データをa(i、j)の画像データに加算しS1207に進む。S1205において、差分が各要素のうち1色でも閾値M以上ある場合はS1211に進む。S1211においては、a(i−1、j+1)の誤差データをa(i、j+1)の処理を行うときに加算する誤差データに加算する。   In step S1205, the difference between a (i, j) and a (i-1, j) image data is calculated. If the difference is less than or equal to the threshold value M in each element, the process proceeds to S1206. In S1206, the error data of a (i-1, j + 1) is added to the image data of a (i, j), and the process proceeds to S1207. If the difference is equal to or greater than the threshold value M even in one color among the elements in S1205, the process proceeds to S1211. In S1211, the error data of a (i-1, j + 1) is added to the error data to be added when the processing of a (i, j + 1) is performed.

S1207において、a(i、j)とa(i、j−1)画像データの差分を計算する。その差分が各要素において閾値M以下ならば、S1208に進む。S1208においては、a(i、j−1)の誤差データをa(i、j)の画像データに加算しa(i、j)の処理を終了する。S1207において、差分が各要素のうち1色でも閾値M以上ある場合はS1212に進む。S1212においては、a(i、j−1)の誤差データをa(i−1、j)の処理を行うときに加算する誤差データに加算する。そして、a(i、j)の処理を終了する。   In step S1207, the difference between a (i, j) and a (i, j-1) image data is calculated. If the difference is less than or equal to the threshold value M in each element, the process proceeds to S1208. In S1208, the error data of a (i, j−1) is added to the image data of a (i, j), and the processing of a (i, j) is terminated. If the difference is equal to or greater than the threshold value M even in one color among the elements in S1207, the process proceeds to S1212. In step S1212, the error data a (i, j-1) is added to the error data to be added when the process a (i-1, j) is performed. And the process of a (i, j) is complete | finished.

(第2実施例)
第1実施例では、図9にあるように、参照データである元画像データを保持し、画像データの差分をとり、色調の異なる領域には誤差データを拡散させない制御を行った。しかし、この処理は画像の特性がわかるデータを保持することが必要であり、誤差を拡散する領域を広げた「Jarvis, Judice & Ninke 型」などで同様の制御をすると、メモリ領域の占有、実行速度の低下をもたらす。
(Second embodiment)
In the first embodiment, as shown in FIG. 9, the original image data which is the reference data is held, the difference between the image data is taken, and the control is performed so that the error data is not diffused in the regions having different color tones. However, this processing needs to hold data that understands the characteristics of the image, and if the same control is performed with `` Jarvis, Judice & Ninke type '' that expands the error diffusion area, the memory area will be occupied and executed It causes a decrease in speed.

そのため、本実施例においては、画像データに属性データを付加させて処理を行う。この制御により、参照のための元画像データを保持せずに、より精度の高い処理を行うことができる。   For this reason, in this embodiment, processing is performed by adding attribute data to the image data. By this control, more accurate processing can be performed without retaining the original image data for reference.

図13は本実施例における画像データを示す記号の定義を示す図である。   FIG. 13 is a diagram showing definitions of symbols indicating image data in the present embodiment.

a(i、j)各色の画像データに関して、
イエロー(Y)の画像データをY(i、j)
マゼンタ(M)の画像データをM(i、j)
シアン(C)の画像データをC(i、j)
属性データをZ(i、j)
とおく。
a (i, j) For image data of each color,
The image data of yellow (Y) is converted into Y (i, j)
The image data of magenta (M) is converted to M (i, j)
Cyan (C) image data is converted to C (i, j)
Attribute data is Z (i, j)
far.

(式13−1)は画像データa(i、j)の要素がイエロー、マゼンタ、シアンの画像データ、および画像の特性を示す属性データからなることを示す式である。   (Expression 13-1) is an expression indicating that the elements of the image data a (i, j) include yellow, magenta, and cyan image data, and attribute data indicating image characteristics.

図14は第2実施例における処理順序を示すフローチャートである。拡散元の画素であるa(k、m)の画素の処理を開始すると、S1401において、a(k、m)とa(k、m+1)の属性データを比較する。その属性データが一致した場合、S1402に進む。S1402においては、a(k、m)の誤差データe(k、m)×α(0、1)をa(k、m+1)に加算し、S1403に進む。S1401において属性データが異なる場合は、S1411に進む。S1411においては、誤差データをa(k+1、m+1)に拡散する誤差データに加算して、S1403に進む。   FIG. 14 is a flowchart showing the processing order in the second embodiment. When processing of the pixel a (k, m) which is the diffusion source pixel is started, the attribute data of a (k, m) and a (k, m + 1) are compared in S1401. If the attribute data matches, the process proceeds to S1402. In S1402, the error data e (k, m) × α (0, 1) of a (k, m) is added to a (k, m + 1), and the process proceeds to S1403. If the attribute data is different in S1401, the process proceeds to S1411. In S1411, the error data is added to the error data diffused to a (k + 1, m + 1), and the process proceeds to S1403.

S1403において、a(k、m)とa(k+1、m−1)の属性データを比較する。その属性データが一致した場合、S1404に進む。S1404においては、a(k、m)の誤差データe(k、m)×α(1、−1)をa(k+1、m−1)に加算し、S1405に進む。S1403において属性データが異なる場合は、S1412に進む。S1412においては、誤差データをa(k+1、m)に拡散する誤差データに加算して、S1405に進む。   In S1403, the attribute data of a (k, m) and a (k + 1, m−1) are compared. If the attribute data matches, the process proceeds to S1404. In S1404, the error data e (k, m) × α (1, −1) of a (k, m) is added to a (k + 1, m−1), and the process proceeds to S1405. If the attribute data is different in S1403, the process proceeds to S1412. In S1412, the error data is added to the error data diffused to a (k + 1, m), and the process proceeds to S1405.

S1405において、a(k、m)とa(k+1、m)の属性データを比較する。その属性データが一致した場合、S1406に進む。S1406においては、a(k、m)の誤差データe(k、m)×α(1、0)をa(k+1、m)に加算し、S1407に進む。S1405において属性データが異なる場合は、S1413に進む。S1413においては、誤差データをa(k+1、m+1)に拡散する誤差データに加算して、S1407に進む。   In S1405, the attribute data of a (k, m) and a (k + 1, m) are compared. If the attribute data matches, the process proceeds to S1406. In S1406, the error data e (k, m) × α (1, 0) of a (k, m) is added to a (k + 1, m), and the process proceeds to S1407. If the attribute data is different in S1405, the process proceeds to S1413. In S1413, the error data is added to the error data diffused to a (k + 1, m + 1), and the process proceeds to S1407.

S1407において、a(k、m)とa(k+1、m+1)の属性データを比較する。その属性データが一致した場合、S1408に進む。S1408においては、a(k、m)の誤差データe(k、m)×α(1、1)をa(k+1、m+1)に加算し、処理を完了する。S1407において属性データが異なる場合は、そのまま完了する。   In S1407, the attribute data of a (k, m) and a (k + 1, m + 1) are compared. If the attribute data matches, the process proceeds to S1408. In S1408, the error data e (k, m) × α (1, 1) of a (k, m) is added to a (k + 1, m + 1), and the process is completed. If the attribute data is different in S1407, the process is completed as it is.

(第3実施例)
第2実施例では、図14にあるように、属性データを用いて、特性の異なる領域には誤差データを拡散させない制御を行った。しかし、この処理ではa(k、m)とa(k+1、m+1)の属性データが異なるとき、a(k+1、m+1)に拡散しようとした誤差データはどこにも加算されず消失してしまい、画像の濃度保存をすることができない。本実施例では、濃度が保存されるように処理を行う。
(Third embodiment)
In the second embodiment, as shown in FIG. 14, control is performed so that error data is not diffused in regions having different characteristics using attribute data. However, in this process, when the attribute data of a (k, m) and a (k + 1, m + 1) are different, the error data to be diffused to a (k + 1, m + 1) is lost without being added anywhere and the image is lost. It is not possible to preserve the concentration. In this embodiment, processing is performed so that the concentration is preserved.

図15は、第3実施例における処理順序を示すフローチャートである。   FIG. 15 is a flowchart showing the processing order in the third embodiment.

ここで、Sumは拡散係数の合計を取り、規格化するための変数である。   Here, Sum is a variable for taking and summing the diffusion coefficients and normalizing them.

拡散元の画素であるa(k、m)の画素の処理を開始すると、S1501において、a(k、m)とa(k、m+1)の属性データを比較する。比較した結果、属性データが一致した場合、S1502に進む。一致しなかった場合S1502は実行せずにS1503に進む。S1502においては、Sumにa(k、m+1)へ拡散する係数であるα(0,1)を代入する。   When processing of the pixel a (k, m), which is the diffusion source pixel, is started, the attribute data of a (k, m) and a (k, m + 1) are compared in S1501. If the attribute data match as a result of the comparison, the process advances to step S1502. If they do not match, the process proceeds to S1503 without executing S1502. In S1502, α (0, 1), which is a coefficient that diffuses to a (k, m + 1), is assigned to Sum.

S1503において、a(k、m)とa(k+1、m−1)の属性データを比較する。比較した結果、属性データが一致した場合、S1504に進む。一致しなかった場合S1504は実行せずにS1505に進む。S1504においては、Sumにa(k+1、m−1)へ拡散する係数であるα(1,−1)を加算する。   In S1503, the attribute data of a (k, m) and a (k + 1, m−1) are compared. If the attribute data match as a result of the comparison, the process advances to step S1504. If they do not match, the process proceeds to S1505 without executing S1504. In S1504, α (1, −1), which is a coefficient that diffuses to a (k + 1, m−1), is added to Sum.

S1505において、a(k、m)とa(k+1、m)の属性データを比較する。比較した結果、属性データが一致した場合、S1506に進む。一致しなかった場合S1506は実行せずにS1507に進む。S1506においては、Sumにa(k+1、m)へ拡散する係数であるα(1,0)を加算する。   In S1505, the attribute data of a (k, m) and a (k + 1, m) are compared. If the attribute data match as a result of the comparison, the process advances to step S1506. If they do not match, the process proceeds to S1507 without executing S1506. In S1506, α (1,0), which is a coefficient that diffuses to a (k + 1, m), is added to Sum.

S1507において、a(k、m)とa(k+1、m+1)の属性データを比較する。比較した結果、属性データが一致した場合、S1508に進む。一致しなかった場合S1508は実行せずにS1509に進む。S1508においては、Sumにa(k+1、m+1)へ拡散する係数であるα(1,1)を加算する。   In S1507, the attribute data of a (k, m) and a (k + 1, m + 1) are compared. If the attribute data match as a result of the comparison, the process advances to step S1508. If they do not match, the process proceeds to S1509 without executing S1508. In S1508, α (1, 1), which is a coefficient that diffuses to a (k + 1, m + 1), is added to Sum.

S1509において、Sumの値を確認する。Sum=0である場合、拡散する領域がないということなので、a(k、m)の処理を終了する。Sum≠0である場合、拡散する領域があるので、S1511に進み、誤差拡散の処理を行う。   In S1509, the value of Sum is confirmed. If Sum = 0, it means that there is no region to be diffused, and the process of a (k, m) is terminated. If Sum ≠ 0, there is a region to be diffused, so the process proceeds to S1511 and error diffusion processing is performed.

S1511において、a(k、m)とa(k、m+1)の属性データを比較する。比較した結果、属性データが一致した場合、S1512に進む。一致しなかった場合S1512は実行せずにS1513に進む。S1512においては、Sumによって拡散係数を規格化した誤差をa(k、m+1)に加算し、S1513に進む。   In S1511, the attribute data of a (k, m) and a (k, m + 1) are compared. If the attribute data match as a result of the comparison, the process advances to step S1512. If they do not match, the process proceeds to S1513 without executing S1512. In S1512, the error obtained by normalizing the diffusion coefficient by Sum is added to a (k, m + 1), and the process proceeds to S1513.

S1513において、a(k、m)とa(k+1、m−1)の属性データを比較する。比較した結果、属性データが一致した場合、S1514に進む。一致しなかった場合S1514は実行せずにS1515に進む。S1514においては、Sumによって拡散係数を規格化した誤差をa(k+1、m−1)に加算し、S1515に進む。   In S1513, the attribute data of a (k, m) and a (k + 1, m−1) are compared. If the attribute data match as a result of the comparison, the process advances to step S1514. If they do not match, the process proceeds to S1515 without executing S1514. In S1514, an error obtained by normalizing the diffusion coefficient by Sum is added to a (k + 1, m−1), and the process proceeds to S1515.

S1515において、a(k、m)とa(k+1、m)の属性データを比較する。比較した結果、属性データが一致した場合、S1516に進む。一致しなかった場合S1516は実行せずにS1517に進む。S1516においては、Sumによって拡散係数を規格化した誤差をa(k+1、m)に加算し、S1517に進む。   In S1515, the attribute data of a (k, m) and a (k + 1, m) are compared. If the attribute data match as a result of the comparison, the process proceeds to S1516. If they do not match, the process proceeds to S1517 without executing S1516. In S1516, the error obtained by normalizing the diffusion coefficient by Sum is added to a (k + 1, m), and the process proceeds to S1517.

S1517において、a(k、m)とa(k+1、m+1)の属性データを比較する。比較した結果、属性データが一致した場合、S1518に進む。一致しなかった場合S1518は実行せずにS1519に進む。S1518においては、Sumによって拡散係数を規格化した誤差をa(k+1、m+1)に加算し、S1519に進む。   In S1517, the attribute data of a (k, m) and a (k + 1, m + 1) are compared. If the attribute data match as a result of the comparison, the process advances to step S1518. If they do not match, the process proceeds to S1519 without executing S1518. In S1518, the error obtained by normalizing the diffusion coefficient by Sum is added to a (k + 1, m + 1), and the process proceeds to S1519.

S1519においては、Sum=0を代入し、次の処理に備える。   In S1519, Sum = 0 is substituted to prepare for the next process.

図16は、第3実施例における処理を、一般化した式である。δは単位インパルス関数である。   FIG. 16 is a generalized expression of the processing in the third embodiment. δ is a unit impulse function.

図17は、第1〜3実施例が実際に画素レベルで処理させる様子を示した図である。   FIG. 17 is a diagram showing how the first to third embodiments are actually processed at the pixel level.

1701は通常の誤差拡散を行っている様子である。   1701 shows a state where normal error diffusion is performed.

1702は右と右下の画素には誤差を拡散できず、下と左下の画素に拡散している様子である。   1702 shows that the error cannot be diffused to the right and lower right pixels but diffused to the lower and lower left pixels.

1703は右の画素には誤差を拡散できず、右下と下と左下の画素に拡散している様子である。   Reference numeral 1703 shows that the error cannot be diffused to the right pixel, but diffused to the lower right, lower and lower left pixels.

1704は左下の画素には誤差を拡散できず、右と右下と下の画素に拡散している様子である。   Reference numeral 1704 indicates that the error cannot be diffused to the lower left pixel but diffused to the right, lower right, and lower pixels.

1705は右と右下と下の画素には誤差を拡散できず、左下の画素に拡散している様子である。   Reference numeral 1705 indicates that the error cannot be diffused to the right, lower right, and lower pixels but diffused to the lower left pixels.

第1〜3実施例において、どのように拡散しているか1703の画素を例に示す。   In the first to third embodiments, 1703 pixels are shown as an example of how they are diffused.

実施例1,2おいては、右の画素には拡散できないため、右下の画素へ拡散を行う。   In the first and second embodiments, since diffusion to the right pixel is not possible, diffusion is performed to the lower right pixel.

実施例3においては、拡散係数に比例するように拡散する。   In the third embodiment, diffusion is performed in proportion to the diffusion coefficient.

図18は、第1〜3実施例のフローを具体的な画像を処理するとき、どのように機能するかを示す図である。   FIG. 18 is a diagram showing how the flow of the first to third embodiments functions when processing a specific image.

この画像は濃度勾配がある画像中に文字が描かれている画像である。図中矢印で示した順に処理を行う。処理当初、滑らかな濃度勾配で始まるため、通常の誤差拡散の処理を行う。(1)の位置において文字領域に入るとき、画像データの差分が発生する。本発明の制御によって、色調が大きく異なる領域には誤差データを拡散しない。同様に実施例1においては(2)、(3)の位置においても誤差データを拡散しない。(4)においては、差分が閾値以下であるため誤差データを拡散する。この制御より(1)、(2)、(3)においては、画像データの誤差データが文字データに入らない、または文字データの誤差データが画像データに入らないため、文字データ、線画などの画像においてにじみの発生や孤立点の発生を防ぐことができる。また実施例2、3を実施することによって、(4)のように、色調が似ているが属性データが異なる場合においても、誤差データを拡散しないように制御することができる。   This image is an image in which characters are drawn in an image having a density gradient. Processing is performed in the order indicated by the arrows in the figure. Since the process starts with a smooth density gradient, a normal error diffusion process is performed. When entering the character area at the position (1), a difference in image data occurs. By the control of the present invention, the error data is not diffused in the areas having greatly different color tones. Similarly, in the first embodiment, error data is not diffused at the positions (2) and (3). In (4), since the difference is equal to or smaller than the threshold value, the error data is diffused. According to this control, in (1), (2), and (3), the error data of the image data does not enter the character data, or the error data of the character data does not enter the image data. In this case, it is possible to prevent bleeding and isolated points from occurring. Further, by implementing the second and third embodiments, it is possible to control so that error data is not diffused even when the color tone is similar but the attribute data is different as in (4).

誤差拡散法の誤差データの拡散方法を示す図である。It is a figure which shows the diffusion method of the error data of an error diffusion method. 誤差拡散法を説明する図である。It is a figure explaining an error diffusion method. 誤差拡散法における「Floyd & Steinberg 型」の拡散領域と重み付け係数を示す図である。It is a figure which shows the diffusion area | region and weighting coefficient of "Floyd & Steinberg type" in an error diffusion method. 誤差拡散法における「Jarvis, Judice & Ninke 型」の拡散領域と重み付け係数を示す図である。It is a figure which shows the diffusion area and weighting coefficient of "Jarvis, Judice & Ninke type" in an error diffusion method. 本発明の第1実施例において、画像処理手順を示す図である。FIG. 5 is a diagram illustrating an image processing procedure in the first embodiment of the present invention. 第1実施例において、画素の処理順序を示す図である。FIG. 6 is a diagram illustrating a pixel processing order in the first embodiment. 第1実施例において、ある画素の処理時の誤差データの拡散元を示す図である。In the first embodiment, it is a diagram showing a diffusion source of error data at the time of processing a certain pixel. 第1実施例において、ある画素が端にある場合の誤差データの拡散元を示す図である。In the first embodiment, it is a diagram showing a diffusion source of error data when a certain pixel is at the end. 第1実施例において、誤差拡散と周囲画素との関係を示す図である。In a 1st Example, it is a figure which shows the relationship between error diffusion and a surrounding pixel. 第1実施例において、各場合における誤差の拡散方法を示す図である。In a 1st Example, it is a figure which shows the spreading | diffusion method of the error in each case. 第1実施例において、処理を説明するための定義式である。In the first embodiment, this is a definition formula for explaining the processing. 第1実施例において、処理手順を示すフローチャートである。5 is a flowchart illustrating a processing procedure in the first embodiment. 第2実施例において、処理を説明するための定義式である。In a 2nd Example, it is a definition formula for explaining processing. 第2実施例において、処理手順を示すフローチャートである。In the 2nd example, it is a flow chart which shows a processing procedure. 第3実施例において、処理手順を示すフローチャートである。10 is a flowchart illustrating a processing procedure in the third embodiment. 第3実施例において、処理方法を一般化した式である。In the third embodiment, the processing method is generalized. 第1〜3実施例における、画素レベルでの処理の様子を示した図である。It is the figure which showed the mode of the process in the pixel level in the 1st-3rd Example. 第1〜3実施例における、画像レベルでの処理の様子を示した図である。It is the figure which showed the mode of the process in the image level in the 1st-3rd Example.

符号の説明Explanation of symbols

101 拡散元画素
102〜105 拡散先画素
501 入力γ変換部
502 色変換
503 出力γ変換部
504 2値化処理
601 画素
602 画像データ全領域
701 処理対象画素
702〜705 誤差データ拡散元画素
810 処理対象画素
820 処理対象画素
821 参照画素
830 処理対象画素
831 参照画素
840 処理対象画素
841、842 参照画素
850 処理対象画素
851〜854 参照画素
860 処理対象画素
861〜863 参照画素
870 処理対象画素
871、872 参照画素
880 処理対象画素
881〜884 参照画素
890 処理対象画素
891〜893 参照画素
901 拡散元画素
902〜905 拡散先画素
911 処理対象画素
912〜915 誤差データ拡散元画素
1001 拡散元画素
1002〜1005 拡散先対象画素
1011 拡散元画素
1012〜1015 拡散先対象画素
1021 拡散元画素
1022〜1025 拡散先対象画素
1031 拡散元画素
1032〜1035 拡散先対象画素
1041 拡散元画素
1042〜1045 拡散先対象画素
1701 通常の誤差拡散を行っている画素
1702 右と右下の画素には誤差を拡散できず、下と左下の画素に拡散している画素
1703 右の画素には誤差を拡散できず、右下と下と左下の画素に拡散している画素
1704 左下の画素には誤差を拡散できず、右と右下と下の画素に拡散している画素
1705 右と右下と下の画素には誤差を拡散できず、左下の画素に拡散している画素
101 Diffusion source pixels 102 to 105 Destination pixels 501 Input γ conversion unit 502 Color conversion 503 Output γ conversion unit 504 Binarization 601 Pixel 602 Image data whole area 701 Processing target pixel 702 to 705 Error data diffusion source pixel 810 Processing target Pixel 820 Processing target pixel 821 Reference pixel 830 Processing target pixel 831 Reference pixel 840 Processing target pixel 841, 842 Reference pixel 850 Processing target pixel 851-854 Reference pixel 860 Processing target pixel 861-863 Reference pixel 870 Processing target pixel 871, 872 Reference Pixel 880 Processing target pixel 881 to 884 Reference pixel 890 Processing target pixel 891 to 893 Reference pixel 901 Diffusion source pixel 902 to 905 Destination pixel 911 Processing target pixel 912 to 915 Error data diffusion source pixel 1001 Diffusion source pixel 10 2 to 1005 Destination target pixel 1011 Diffusion source pixel 1012 to 1015 Destination target pixel 1021 Diffusion source pixel 1022 to 1025 Destination target pixel 1031 Diffusion source pixel 1032 to 1035 Destination target pixel 1041 Diffusion source pixel 1042 to 1045 Destination target Pixel 1701 Normal error diffusion pixel 1702 Error cannot be diffused to the right and lower right pixels, and error diffused to the lower and lower left pixels 1703 Error cannot be diffused to the right pixel, right Pixels 1diffused to the lower, lower and lower left pixels 1704 Errors cannot be diffused to the lower left pixels, but pixels diffused to the right, lower right and lower pixels 1705 Right, lower right and lower pixels Pixels that cannot diffuse the error and diffuse to the lower left pixel

Claims (20)

誤差拡散法を用いる画像処理方法であり、
拡散元と拡散先の画像データの特性を判断し、
その判断した結果に基づき、誤差拡散法における誤差データを拡散する、
ことを特徴とする画像処理方法。
An image processing method using an error diffusion method,
Determine the characteristics of the source and destination image data,
Based on the result of the determination, the error data in the error diffusion method is diffused.
An image processing method.
前記判断方法において、
画像処理中の判断に用いるために、画像データもしくは属性データもしくは画像データの特性を判断するための情報を保持する、
ことを特徴とする請求項1に記載の画像処理方法。
In the determination method,
Holds information for determining the characteristics of image data or attribute data or image data for use in determination during image processing.
The image processing method according to claim 1.
前記判断方法において、
画素間の画像データの差分を計算し、
その差分の値に基づき判断する、
ことを特徴とする請求項1に記載の画像処理方法。
In the determination method,
Calculate the difference in image data between pixels,
Judge based on the difference value,
The image processing method according to claim 1.
前記判断方法において、
画素間の画像データの差分を計算し、
その差分をある閾値と比較した結果に基づき判断する、
ことを特徴とする請求項1に記載の画像処理方法。
In the determination method,
Calculate the difference in image data between pixels,
Judging based on the result of comparing the difference with a certain threshold,
The image processing method according to claim 1.
前記判断方法において、
画素の画像データに含まれる属性データから判断する、
ことを特徴とする請求項1に記載の画像処理方法。
In the determination method,
Judging from the attribute data included in the pixel image data,
The image processing method according to claim 1.
前記誤差拡散法における誤差データを拡散する方法で、
誤差データを拡散する処理において、
前記判断方法により、
誤差データを拡散する処理時に判断を行い、
誤差データを拡散すると判断した領域と拡散しないと判断した領域が存在する場合、
誤差データを拡散しないと判断した拡散データを、
誤差データを拡散すると判断した領域に拡散データを拡散する、
ことを特徴とする請求項1に記載の画像処理方法。
A method of diffusing error data in the error diffusion method,
In the process of diffusing error data,
According to the determination method,
Judgment is made during the process of diffusing error data,
If there is an area that is determined to diffuse error data and an area that is determined not to diffuse,
Diffusion data determined not to diffuse error data,
Spread the diffusion data to the area that is determined to diffuse the error data,
The image processing method according to claim 1.
前記誤差拡散法における誤差データを拡散する方法で、
誤差データを拡散する処理において、
前記判断方法により、
誤差データを拡散する処理時に判断を行い、
誤差データを拡散すると判断した領域と拡散しないと判断した領域が存在する場合、
誤差データを拡散しないと判断した拡散データを、
誤差データを拡散すると判断した領域のうち、一番近い領域に拡散データを拡散する、
ことを特徴とする請求項1に記載の画像処理方法。
A method of diffusing error data in the error diffusion method,
In the process of diffusing error data,
According to the determination method,
Judgment is made during the process of diffusing error data,
If there is an area that is determined to diffuse error data and an area that is determined not to diffuse,
Diffusion data determined not to diffuse error data,
Diffusion data is diffused to the nearest area among the areas judged to diffuse error data.
The image processing method according to claim 1.
前記誤差拡散法における誤差データを拡散する方法で、
誤差データを拡散する処理において、
前記判断方法により、
誤差データを拡散する処理時に判断を行い、
誤差データを拡散すると判断した領域と拡散しないと判断した領域が存在する場合、
誤差データを拡散しないと判断した拡散データを、
誤差データを拡散すると判断した領域のうち、未処理領域に拡散データを拡散する、
ことを特徴とする請求項1に記載の画像処理方法。
A method of diffusing error data in the error diffusion method,
In the process of diffusing error data,
According to the determination method,
Judgment is made during the process of diffusing error data,
If there is an area that is determined to diffuse error data and an area that is determined not to diffuse,
Diffusion data determined not to diffuse error data,
The diffusion data is diffused to the unprocessed area among the areas determined to diffuse the error data.
The image processing method according to claim 1.
前記誤差拡散法における誤差データを拡散する方法で、
誤差データを拡散する処理において、
前記判断方法により、
誤差データを拡散する処理時に判断を行い、
誤差データを拡散すると判断した領域と拡散しないと判断した領域が存在する場合、
誤差データを拡散しないと判断した拡散データを、
誤差データを拡散すると判断した領域に、その分配する割合に従い拡散データを拡散する、
ことを特徴とする請求項1に記載の画像処理方法。
A method of diffusing error data in the error diffusion method,
In the process of diffusing error data,
According to the determination method,
Judgment is made during the process of diffusing error data,
If there is an area that is determined to diffuse error data and an area that is determined not to diffuse,
Diffusion data determined not to diffuse error data,
Spread the diffusion data to the area that is determined to spread the error data according to the distribution ratio,
The image processing method according to claim 1.
前記誤差拡散法における誤差データを拡散する方法で、
誤差データを加算する処理において、
前記判断方法により、
誤差データを加算する処理時に判断を行い、
誤差データを加算すると判断した場合、誤差データを画像データに加算する、
誤差データを加算しないと判断した場合、誤差データを画像データに加算しない、
ことを特徴とする請求項1に記載の画像処理方法。
A method of diffusing error data in the error diffusion method,
In the process of adding error data,
According to the determination method,
Judgment is made during the process of adding error data,
If it is determined to add error data, the error data is added to the image data.
If it is determined that the error data is not added, the error data is not added to the image data.
The image processing method according to claim 1.
誤差拡散法を用いる画像処理方法を備えた画像処理装置であり、
拡散元と拡散先の画像データの特性を判断する判断手段と、
その判断した結果に基づき、誤差拡散法における誤差データを拡散する画像処理手段、
を備えたことを特徴とする画像処理装置。
An image processing apparatus having an image processing method using an error diffusion method,
A judging means for judging the characteristics of the image data of the diffusion source and the diffusion destination;
Based on the result of the determination, image processing means for diffusing error data in the error diffusion method,
An image processing apparatus comprising:
前記判断手段において、
画像処理中の判断に用いるために、画像データもしくは属性データもしくは画像データの特性を判断するための情報を保持する記憶手段、
を備えたことを特徴とする請求項11に記載の画像処理装置。
In the determination means,
Storage means for holding image data or attribute data or information for determining characteristics of image data for use in determination during image processing;
The image processing apparatus according to claim 11, further comprising:
前記判断手段において、
画素間の画像データの差分を計算し、
その差分を判断する判断手段、
を備えたことを特徴とする請求項11に記載の画像処理装置。
In the determination means,
Calculate the difference in image data between pixels,
A judging means for judging the difference,
The image processing apparatus according to claim 11, further comprising:
前記判断手段において、
画素間の画像データの差分を計算し、
その差分をある閾値と比較することにより判断する判断手段、
を備えたことを特徴とする請求項11に記載の画像処理装置。
In the determination means,
Calculate the difference in image data between pixels,
A judging means for judging by comparing the difference with a certain threshold value;
The image processing apparatus according to claim 11, further comprising:
前記判断手段において、
画素の画像データに含まれる属性データから判断する判断手段、
を備えたことを特徴とする請求項11に記載の画像処理装置。
In the determination means,
Determination means for determining from attribute data included in image data of pixels;
The image processing apparatus according to claim 11, further comprising:
前記画像処理手段で、
誤差データを拡散する処理において、
前記判断手段により、
誤差データを拡散する処理時に判断を行い、
誤差データを拡散すると判断した領域と拡散しないと判断した領域が存在する場合、
誤差データを拡散しないと判断した拡散データを、
誤差データを拡散すると判断した領域に拡散データを拡散する、
ことを特徴とする請求項11に記載の画像処理装置。
In the image processing means,
In the process of diffusing error data,
By the determination means,
Judgment is made during the process of diffusing error data,
If there is an area that is determined to diffuse error data and an area that is determined not to diffuse,
Diffusion data determined not to diffuse error data,
Spread the diffusion data to the area that is determined to diffuse the error data,
The image processing apparatus according to claim 11.
前記画像処理手段で、
誤差データを拡散する処理において、
前記判断手段により、
誤差データを拡散する処理時に判断を行い、
誤差データを拡散すると判断した領域と拡散しないと判断した領域が存在する場合、
誤差データを拡散しないと判断した拡散データを、
誤差データを拡散すると判断した領域のうち、一番近い領域に拡散データを拡散する、
ことを特徴とする請求項11に記載の画像処理装置。
In the image processing means,
In the process of diffusing error data,
By the determination means,
Judgment is made during the process of diffusing error data,
If there is an area that is determined to diffuse error data and an area that is determined not to diffuse,
Diffusion data determined not to diffuse error data,
Diffusion data is diffused to the nearest area among the areas judged to diffuse error data.
The image processing apparatus according to claim 11.
前記画像処理手段で、
誤差データを拡散する処理において、
前記判断手段により、
誤差データを拡散する処理時に判断を行い、
誤差データを拡散すると判断した領域と拡散しないと判断した領域が存在する場合、
誤差データを拡散しないと判断した拡散データを、
誤差データを拡散すると判断した領域のうち、未処理領域に拡散データを拡散する、
ことを特徴とする請求項11に記載の画像処理装置。
In the image processing means,
In the process of diffusing error data,
By the determination means,
Judgment is made during the process of diffusing error data,
If there is an area that is determined to diffuse error data and an area that is determined not to diffuse,
Diffusion data determined not to diffuse error data,
The diffusion data is diffused to the unprocessed area among the areas determined to diffuse the error data.
The image processing apparatus according to claim 11.
前記画像処理手段で、
誤差データを拡散する処理において、
前記判断手段により、
誤差データを拡散する処理時に判断を行い、
誤差データを拡散すると判断した領域と拡散しないと判断した領域が存在する場合、
誤差データを拡散しないと判断した拡散データを、
誤差データを拡散すると判断した領域に、その分配する割合に従い拡散データを拡散する、
ことを特徴とする請求項11に記載の画像処理装置。
In the image processing means,
In the process of diffusing error data,
By the determination means,
Judgment is made during the process of diffusing error data,
If there is an area that is determined to diffuse error data and an area that is determined not to diffuse,
Diffusion data determined not to diffuse error data,
Spread the diffusion data to the area that is determined to spread the error data according to the distribution ratio,
The image processing apparatus according to claim 11.
前記画像処理手段で、
誤差データを加算する処理において、
前記判断手段により、
誤差データを加算する処理時に判断を行い、
誤差データを加算すると判断した場合、誤差データを画像データに加算する、
誤差データを加算しないと判断した場合、誤差データを画像データに加算しない、
ことを特徴とする請求項11に記載の画像処理装置。
In the image processing means,
In the process of adding error data,
By the determination means,
Judgment is made during the process of adding error data,
If it is determined to add error data, the error data is added to the image data.
If it is determined that the error data is not added, the error data is not added to the image data.
The image processing apparatus according to claim 11.
JP2005170928A 2005-06-10 2005-06-10 Image processing method and image processing apparatus Withdrawn JP2006345384A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2005170928A JP2006345384A (en) 2005-06-10 2005-06-10 Image processing method and image processing apparatus

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2005170928A JP2006345384A (en) 2005-06-10 2005-06-10 Image processing method and image processing apparatus

Publications (1)

Publication Number Publication Date
JP2006345384A true JP2006345384A (en) 2006-12-21

Family

ID=37641975

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2005170928A Withdrawn JP2006345384A (en) 2005-06-10 2005-06-10 Image processing method and image processing apparatus

Country Status (1)

Country Link
JP (1) JP2006345384A (en)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN114359029A (en) * 2022-03-21 2022-04-15 广州匠芯创科技有限公司 Image processing method, image processing apparatus, image processing system, and storage medium

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN114359029A (en) * 2022-03-21 2022-04-15 广州匠芯创科技有限公司 Image processing method, image processing apparatus, image processing system, and storage medium

Similar Documents

Publication Publication Date Title
JP4669249B2 (en) Inkjet recording method, inkjet recording system, and inkjet recording apparatus
US7798589B2 (en) Image forming apparatus, image processing apparatus, and control method therefor
US7173734B2 (en) Intercolor bleed reduction in liquid ink printers
US8730519B2 (en) Image processing device and image-processing method
JPH11146221A (en) Method for selecting colorant to get desired source color
JP5225106B2 (en) Image processing apparatus and image processing method
US20030072035A1 (en) Image processing device
US20030020937A1 (en) Black color generation amount determining method in black printing, a black color generation amount determining apparatus in black printing, a media having recorded thereon a black color generation amount determining program in black printing
JP2005041041A (en) Edge treatment for inkjet printing
JP5069095B2 (en) Inkjet printing using protective ink
US6914700B2 (en) Method for reducing migrating residual error in error diffusion halftoning
JP2006345384A (en) Image processing method and image processing apparatus
JP2007522978A (en) Using an inkjet printer to apply protective ink
US7002708B2 (en) Delayed decision dot placement for plane-dependent CMYK error diffusion
US7837285B2 (en) Inkjet printing using protective ink
JP4484505B2 (en) Inkjet recording system, determination apparatus and program
JP2006211351A (en) Image processing method, and image processor
JP2005280276A (en) Ink-jet recording method and ink-jet recording system
JP2005053147A (en) Edge processing for inkjet printing
JP5878167B2 (en) How to restore raster image edges
JP2006345385A (en) Image processing method and image processing apparatus
JP2010005827A (en) Image forming apparatus and its controlling method and program
US20040100646A1 (en) Spacing out output of pixels for other color components upon output of pixel for color component of an image pixel
JP4189679B2 (en) Print control apparatus, print control method, and print control program
JP2005295131A (en) Apparatus, method, and program for processing image

Legal Events

Date Code Title Description
A300 Withdrawal of application because of no request for examination

Free format text: JAPANESE INTERMEDIATE CODE: A300

Effective date: 20080902