Nothing Special   »   [go: up one dir, main page]

JP2005217984A - Image processing device - Google Patents

Image processing device Download PDF

Info

Publication number
JP2005217984A
JP2005217984A JP2004024824A JP2004024824A JP2005217984A JP 2005217984 A JP2005217984 A JP 2005217984A JP 2004024824 A JP2004024824 A JP 2004024824A JP 2004024824 A JP2004024824 A JP 2004024824A JP 2005217984 A JP2005217984 A JP 2005217984A
Authority
JP
Japan
Prior art keywords
color
image data
background
processed
image processing
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2004024824A
Other languages
Japanese (ja)
Inventor
Natsumi Miyazawa
なつみ 宮澤
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Fujifilm Business Innovation Corp
Original Assignee
Fuji Xerox Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Fuji Xerox Co Ltd filed Critical Fuji Xerox Co Ltd
Priority to JP2004024824A priority Critical patent/JP2005217984A/en
Publication of JP2005217984A publication Critical patent/JP2005217984A/en
Pending legal-status Critical Current

Links

Images

Landscapes

  • Image Processing (AREA)
  • Facsimile Image Signal Circuits (AREA)
  • Color Image Communication Systems (AREA)

Abstract

<P>PROBLEM TO BE SOLVED: To provide an image processing device eliminating ground portions of image data while giving consideration to an image with low chroma saturation. <P>SOLUTION: From among the image data to be processed, a ground region is extracted to produce a color correction parameter based on color information relating to a color element except for luminance represented by pixels within the ground region extracted. By using the color correction parameter produced, the image data to be processed are corrected in color to eliminate the ground portions. <P>COPYRIGHT: (C)2005,JPO&NCIPI

Description

本発明は、画像データの下地部分を除去する処理を行う画像処理装置に関する。   The present invention relates to an image processing apparatus that performs processing for removing a background portion of image data.

複写機をはじめとして、スキャナにて読込まれた画像データを処理する際には、予め下地部分を除去しておくことが好ましい。すなわちスキャナにて読み込まれた画像データは、例えば本来白色である紙面部分に色がついてしまい、下地の色が現れてしまうことが多い。   When processing image data read by a scanner such as a copying machine, it is preferable to remove the background portion in advance. That is, the image data read by the scanner is often colored on, for example, a paper portion that is originally white, and the background color often appears.

従来、この下地除去の処理は次のようにしていた。すなわち当該処理は機能的には、図6に示すように、明度ヒストグラム演算部1と、下地閾値決定部2と、LUT作成部3と、明度補正部4とを含んでなる。   Conventionally, this background removal processing has been performed as follows. That is, the processing functionally includes a lightness histogram calculation unit 1, a background threshold value determination unit 2, an LUT creation unit 3, and a lightness correction unit 4, as shown in FIG.

明度ヒストグラム演算部1は、スキャナから読取られた画像データに基づいて明度のヒストグラムを演算する。下地閾値決定部2は、演算されたヒストグラム上で、明度の低い(暗い)側から探索して所定のしきい値を超える頻度となっている明度値を取得する。この明度値をTHD1とする。   The brightness histogram calculation unit 1 calculates a brightness histogram based on the image data read from the scanner. The background threshold value determination unit 2 searches the calculated histogram from the low (dark) lightness side and acquires a lightness value having a frequency exceeding a predetermined threshold value. This brightness value is assumed to be THD1.

LUT生成部3は、予め定められているパラメータk,c,dを用いて、

Figure 2005217984
を生成する。なお、これらのパラメータは任意のTHD1について、k×THD1+c<d×THD1となるように設定されているものとする。 The LUT generation unit 3 uses predetermined parameters k, c, and d,
Figure 2005217984
Is generated. Note that these parameters are set so that k × THD1 + c <d × THD1 for any THD1.

そしてLUT生成部3は、0からTHD1′の入力値に対しては出力値が0となり、x≧THD2であるような入力値xに対しては出力値がxとなり、THD1′≦x<THD2については、座標(THD1′,0)から(THD2,THD2)までを結んだ直線に対応する出力値をとなるLUT(図7)を生成する。   The LUT generation unit 3 outputs 0 for input values from 0 to THD1 ′, x for input values x such that x ≧ THD2, and THD1 ′ ≦ x <THD2 As for LUT, an LUT (FIG. 7) that generates an output value corresponding to a straight line connecting coordinates (THD1 ′, 0) to (THD2, THD2) is generated.

明度補正部4は、スキャナから読取られた画像データに対して、LUT生成部3で生成したLUTに基づいてその明度を補正する。   The brightness correction unit 4 corrects the brightness of the image data read from the scanner based on the LUT generated by the LUT generation unit 3.

例えば新聞紙などを読取って下地部分がグレイとなった場合、そのヒストグラムは図8(a)に示すようなものとなる。これに対応するLUTを生成して画像データを補正する。この補正により、紙面の白色が再現され、補正後のヒストグラムは図8(b)に示すようなものとなる。   For example, when a newspaper is read and the background portion is gray, the histogram is as shown in FIG. A corresponding LUT is generated to correct the image data. By this correction, the white color of the paper surface is reproduced, and the corrected histogram is as shown in FIG.

なお、この方法と同様の方法を用いた下地除去に関する技術が、特許文献1に開示されている。
特開平4−37258号公報
A technique related to background removal using a method similar to this method is disclosed in Patent Document 1.
JP-A-4-37258

しかしながら、上記従来の下地除去の方法では、白黒の原稿には十分な性能を発揮するものの、色つきの原稿等において、上記LUTを適用することで彩度の低い画像等が見えにくくなることがある。また、色つき用紙に印刷された画像データの場合、用紙の色が再現されない場合もある。   However, although the conventional background removal method exhibits sufficient performance for black-and-white documents, it may be difficult to see low-saturated images and the like by applying the LUT to colored documents and the like. . Further, in the case of image data printed on colored paper, the color of the paper may not be reproduced.

本発明は上記実情に鑑みて為されたもので、彩度の低い画像にも配慮しながら、画像データの下地部分を除去できる画像処理装置を提供することを、その目的の一つとする。   The present invention has been made in view of the above circumstances, and an object thereof is to provide an image processing apparatus capable of removing a background portion of image data while considering an image with low saturation.

上記従来例の問題点を解決するための本発明は、処理対象となった画像データから有意な画像の下地となる下地部分を除去する処理を行う画像処理装置であって、前記処理対象の画像データのうちから、下地領域を抽出する手段と、前記抽出された下地領域内の画素が表す、明度以外の色成分に関係する色関係情報に基づいて色補正パラメータを生成する手段と、前記生成した色補正パラメータを用いて、前記処理対象の画像データの色を補正する補正手段と、を含むことを特徴としている。   The present invention for solving the problems of the above-described conventional example is an image processing apparatus that performs a process of removing a background portion that is a background of a significant image from image data that is a processing target, and the processing target image Means for extracting a background area from the data; means for generating a color correction parameter based on color relationship information related to a color component other than brightness represented by a pixel in the extracted background area; and the generation And correcting means for correcting the color of the image data to be processed using the color correction parameter.

またここで前記色関係情報は、下地領域内の画素によって表される彩度の情報であり、前記色補正パラメータは、彩度の補正を行うパラメータであって、前記色を補正する手段は、処理対象の画像データに含まれる各画素の彩度を、前記色補正パラメータを用いて補正することとしてもよい。   Further, here, the color-related information is information on saturation expressed by pixels in the background area, the color correction parameter is a parameter for correcting saturation, and the means for correcting the color includes: The saturation of each pixel included in the image data to be processed may be corrected using the color correction parameter.

これらの場合、明度については、従来と同様の明度LUTを用いて補正してもよいが、前記抽出された下地領域内の画素が表す、明度に関係する情報に基づいて、明度を補正するパラメータを生成する手段をさらに含み、前記補正手段は、前記処理対象の画像データの明度成分を、前記明度を補正するパラメータと前記色補正パラメータとを用いて補正することとしてもよい。   In these cases, the lightness may be corrected using the same lightness LUT as in the past, but the parameter for correcting the lightness based on the information related to lightness represented by the pixels in the extracted background region. The correction unit may correct the brightness component of the image data to be processed using the parameter for correcting the brightness and the color correction parameter.

さらに前記色関係情報は、色空間上での下地領域内の画素値と特定画素値との距離に関する情報であることとしてもよい。このとき、前記距離に関する情報は、明度成分とそれ以外の成分とにおいて、それぞれ互いに異なる重みを付して定義される距離であることとしてもよい。   Furthermore, the color relationship information may be information relating to the distance between the pixel value in the base region in the color space and the specific pixel value. At this time, the information on the distance may be a distance defined by assigning different weights to each of the brightness component and the other components.

また、上記従来例の問題点を解決するための本発明は、コンピュータを用い、処理対象となった画像データから有意な画像の下地となる下地部分を除去する処理を行う画像処理方法であって、前記処理対象の画像データのうちから、下地領域を抽出する工程と、前記抽出された下地領域内の画素が表す、明度以外の色成分に関係する色関係情報に基づいて色補正パラメータを生成する工程と、前記生成した色補正パラメータを用いて、前記処理対象の画像データの色を補正する工程と、を含むことを特徴としている。   In addition, the present invention for solving the problems of the conventional example is an image processing method for performing processing for removing a background portion as a background of a significant image from image data to be processed using a computer. The color correction parameter is generated based on the color relation information related to the color component other than the brightness represented by the pixel in the extracted background area and the step of extracting the background area from the image data to be processed And a step of correcting the color of the image data to be processed using the generated color correction parameter.

さらに、本発明の別の態様に係る画像処理プログラムは、コンピュータに、処理対象となった画像データから有意な画像の下地となる下地部分を除去する処理を行わせるために、前記処理対象の画像データのうちから、下地領域を抽出する手順と、前記抽出された下地領域内の画素が表す、明度以外の色成分に関係する色関係情報に基づいて色補正パラメータを生成する手順と、前記生成した色補正パラメータを用いて、前記処理対象の画像データの色を補正する手順と、をコンピュータに実行させることを特徴としている。   Furthermore, an image processing program according to another aspect of the present invention provides a computer to perform processing for removing a background portion that is a background of a significant image from image data to be processed. A procedure for extracting a background area from data, a procedure for generating a color correction parameter based on color relationship information related to a color component other than lightness represented by a pixel in the extracted background area, and the generation The computer is caused to execute a procedure for correcting the color of the image data to be processed using the color correction parameter.

本発明の実施の形態について図面を参照しながら説明する。本発明の第1の実施の形態に係る画像処理装置は、図1に示すように、制御部11と記憶部12と画像入力部13と画像出力部14とを含んで構成されている。   Embodiments of the present invention will be described with reference to the drawings. As shown in FIG. 1, the image processing apparatus according to the first embodiment of the present invention includes a control unit 11, a storage unit 12, an image input unit 13, and an image output unit 14.

制御部11は、記憶部12に格納されているプログラムに従って動作しており、画像入力部13から入力される画像データに対して下地除去処理を行って画像出力部14から出力する動作を行っている。この制御部11の動作の具体的な内容については後に述べる。記憶部12は、制御部11によって実行されるプログラムを格納しており、また、制御部11の処理中に生成される種々のデータを保持するワークメモリとしても動作する。   The control unit 11 operates according to a program stored in the storage unit 12, performs a background removal process on the image data input from the image input unit 13, and outputs it from the image output unit 14. Yes. Specific contents of the operation of the control unit 11 will be described later. The storage unit 12 stores a program executed by the control unit 11, and also operates as a work memory that holds various data generated during the processing of the control unit 11.

画像入力部13は、スキャナ等の外部装置に接続されており、この外部装置から入力される画像データを制御部11に出力する。画像出力部14は、制御部11から入力される指示に従って画像データを外部の装置に出力する。   The image input unit 13 is connected to an external device such as a scanner, and outputs image data input from the external device to the control unit 11. The image output unit 14 outputs image data to an external device in accordance with an instruction input from the control unit 11.

ここで制御部11による下地除去処理の具体的内容について説明する。この制御部11が行う下地除去処理は、機能的には、図2に示すように、色空間変換部21と、明度特徴量算出部22と、明度下地閾値決定部23と、下地領域抽出部24と、明度補正LUT生成部25と、彩度特徴量算出部26と、彩度補正LUT生成部27と、補正部28とを含んで構成されている。   Here, specific contents of the background removal processing by the control unit 11 will be described. As shown in FIG. 2, the background removal process performed by the control unit 11 functionally includes a color space conversion unit 21, a brightness feature value calculation unit 22, a brightness background threshold value determination unit 23, and a background region extraction unit. 24, a lightness correction LUT generation unit 25, a saturation feature value calculation unit 26, a saturation correction LUT generation unit 27, and a correction unit 28.

色空間変換部21は、画像入力部13から入力される画像データの色空間を、処理に適した色空間に変換する。一般にスキャナ等から入力される画像データは、RGB色空間で表現されているのに対して、本実施の形態では明度と、それ以外の色成分とを分けて扱うので、画像データは、明度の成分が独立している色空間で表されていることが好ましい。そこで、この色空間変換部21は、例えば画像データの色空間をYCbCr等の色空間に変換する。この変換は、

Figure 2005217984
の数式によって行うことができる。なお、明度成分が独立している色空間としては、他にLab、HSVなどがあるが、これらのどれであってもよい。 The color space conversion unit 21 converts the color space of the image data input from the image input unit 13 into a color space suitable for processing. In general, image data input from a scanner or the like is expressed in an RGB color space, whereas in the present embodiment, brightness and other color components are handled separately. It is preferred that the components are represented in independent color spaces. Therefore, the color space conversion unit 21 converts, for example, the color space of the image data into a color space such as YCbCr. This conversion is
Figure 2005217984
It can be performed by the following formula. In addition, examples of the color space in which the brightness component is independent include Lab and HSV, and any of these may be used.

明度特徴量算出部22は、色空間変換部21が出力する画像データのうち、明度の成分について、ヒストグラムを生成する。明度下地閾値決定部23は、このヒストグラム上で、明度の低い(暗い)側から探索して所定のしきい値を超える頻度となっている明度値を取得する。以下では、この明度値をTHD1とする。この処理は、従来の下地閾値決定部2の処理と同様のものである。   The brightness feature amount calculation unit 22 generates a histogram for the brightness component in the image data output from the color space conversion unit 21. On the histogram, the lightness background threshold value determination unit 23 searches for the lightness value having a frequency exceeding a predetermined threshold value by searching from the low lightness (dark) side. Hereinafter, this brightness value is referred to as THD1. This process is similar to the process of the conventional background threshold value determination unit 2.

下地領域抽出部24は、色空間変換部21が出力する画像データのうち、明度値がTHD1を下回る(すなわち、THD1よりも明るい)部分を特定するマスク画像を、下地領域の画像データとして出力する。   The background area extraction unit 24 outputs, as image data of the background area, a mask image that specifies a portion of the image data output from the color space conversion unit 21 whose brightness value is lower than THD1 (that is, brighter than THD1). .

明度補正LUT生成部25は、予め定められているパラメータk,c,dを用いて、

Figure 2005217984
を生成する。なお、これらのパラメータは任意のTHD1について、k×THD1+c<d×THD1となるように設定されているものとする。 The lightness correction LUT generation unit 25 uses predetermined parameters k, c, and d,
Figure 2005217984
Is generated. Note that these parameters are set so that k × THD1 + c <d × THD1 for any THD1.

そして明度補正LUT生成部25は、0からTHD1′の入力値に対しては出力値が0となり、x≧THD2であるような入力値xに対しては出力値がxとなり、THD1′≦x<THD2については、座標(THD1′,0)から(THD2,THD2)までを結んだ直線に対応する出力値をとなるLUT(図7)を生成する。この処理は、従来のLUT生成部3における処理と同様のものである。   The lightness correction LUT generator 25 outputs 0 for input values from 0 to THD1 ′, x for input values x such that x ≧ THD2, and THD1 ′ ≦ x. For THD2, an LUT (FIG. 7) is generated that has an output value corresponding to a straight line connecting coordinates (THD1 ′, 0) to (THD2, THD2). This process is the same as the process in the conventional LUT generation unit 3.

彩度特徴量算出部26は、色空間変換部21が出力する画像データのうち、下地領域抽出部24が出力する下地領域の画像データによって特定される部分の画像データから所定の彩度特徴量を演算する。具体的には、上記特定される部分に含まれる各画素の画素値のうち、明度以外の色成分(ここではCbとCrの各色差成分)に基づいて彩度に関係する値を、彩度特徴量Cとして演算して出力する。ここで彩度に関係する値は例えばCbとCrとの二乗和(又はその平方根)とすることができる。また、彩度特徴量算出部26は、下地領域内の各画素についての上記彩度に関係する値のうち、最大のもの(以下、その値をCmaxとする)を彩度特徴量とともに出力する。   The saturation feature amount calculation unit 26 is a predetermined saturation feature amount from the image data of the part specified by the image data of the background region output from the background region extraction unit 24 in the image data output from the color space conversion unit 21. Is calculated. Specifically, among the pixel values of each pixel included in the specified portion, a value related to saturation is calculated based on a color component other than lightness (here, Cb and Cr color difference components). Calculate and output as a feature amount C. Here, the value related to the saturation can be, for example, the sum of squares of Cb and Cr (or the square root thereof). Further, the saturation feature amount calculation unit 26 outputs the maximum value (hereinafter referred to as Cmax) among the values related to the saturation for each pixel in the background region together with the saturation feature amount. .

さらに、この彩度特徴量は、複数の画素についての、上記彩度に関係する量に基づく統計量としてもよい。ここでの統計量は、例えばN×N画素で平滑化した値、又はN×N画素内での最小値、最大値、中央値などとすることができる。このようにすると、孤立点ノイズの影響を抑制できる。   Further, the saturation feature amount may be a statistic based on the amount related to the saturation for a plurality of pixels. The statistic here can be, for example, a value smoothed by N × N pixels, or a minimum value, maximum value, median value, or the like in N × N pixels. In this way, the influence of isolated point noise can be suppressed.

彩度補正LUT生成部27は、彩度特徴量を用いて彩度を補正するためのLUT(彩度補正LUT)を生成する。具体的にこの彩度補正LUT生成部27は、彩度特徴量算出部26により彩度特徴量として下地領域内の画素に係る上記彩度に関係する量(ここでは彩度そのものとする)の平均値Caveが出力され、また最大値Cmaxがそれとともに出力されているときに、次のように彩度補正LUTを生成する。   The saturation correction LUT generation unit 27 generates an LUT (saturation correction LUT) for correcting the saturation using the saturation feature amount. Specifically, the saturation correction LUT generation unit 27 uses the saturation feature amount calculation unit 26 as a saturation feature amount of an amount related to the saturation related to the pixels in the background area (here, saturation itself). When the average value Cave is output and the maximum value Cmax is output together with it, the saturation correction LUT is generated as follows.

すなわち、

Figure 2005217984
として、彩度の入力値xに対して、
Figure 2005217984
となるようなLUTを生成する。ただしLはL≧0、P>Lなる値であって、通常はL=0,P=CTH2とすればよい。 That is,
Figure 2005217984
For an input value x of saturation,
Figure 2005217984
LUT is generated as follows. However, L is a value such that L ≧ 0 and P> L, and normally L = 0 and P = CTH2.

このLUTの一例を図示すれば、図3に示すようなものとなる。一般に紙面の一部に低彩度の画像が含まれていて、当該低彩度の画像部分が下地領域抽出部24の処理により下地として誤認されたとするとき、当該低彩度の画像部分の面積は下地全体の面積から見て小さいものと推定される。そうであれば下地部分の平均彩度値Caveは、真の下地(画像を構成する画素(有意な画素)以外の画素)の彩度に近くなる。一方、最大彩度値Cmaxは、誤認された低彩度領域の彩度に近いものとなっている。そこでここでは、平均彩度値Caveを第1のしきい値とし、これらの平均(Cave+Cmax)/2を第2のしきい値として、第1のしきい値未満では彩度をL(例えば「0」)と設定し、第1のしきい値から第2のしきい値(誤認された低彩度領域の彩度より低く、除去すべき下地の彩度より高い彩度値)までは、Lから連続的にP(例えば第2のしきい値に等しい値)まで変化させ、次いで第2のしきい値を越える部分では、彩度値を変化させないように設定したのである。つまり、これら第1のしきい値CTH1及び第2のしきい値CTH2は(2)式で示した例に限られるものではない。   An example of this LUT is shown in FIG. In general, when a low-saturation image is included in a part of the paper, and the low-saturation image portion is mistaken as a background by the processing of the background region extraction unit 24, the area of the low-saturation image portion Is estimated to be small from the area of the entire substrate. If so, the average saturation value Cave of the background portion is close to the saturation of the true background (pixels other than the pixels (significant pixels) constituting the image). On the other hand, the maximum saturation value Cmax is close to the saturation of the erroneously recognized low saturation region. Therefore, here, the average saturation value Cave is set as the first threshold value, the average (Cave + Cmax) / 2 is set as the second threshold value, and the saturation is set to L (for example, “ 0 "), and from the first threshold value to the second threshold value (saturation value lower than the saturation value of the low-saturated region that was misidentified and higher than the saturation value of the background to be removed) It is set so that the chroma value is continuously changed from L to P (for example, a value equal to the second threshold value), and then the saturation value is not changed in the portion exceeding the second threshold value. That is, the first threshold value CTH1 and the second threshold value CTH2 are not limited to the example shown by the expression (2).

なお、ここでLUT上の値Lは、利用者によって設定可能としておくことも好ましい。このLの値により、下地部分の彩度が決定されるからであり、例えば淡い黄色の用紙を用いている場合に、当該淡い黄色の彩度値にこのLを設定しておけば、下地除去処理を行いながら用紙の色を維持できるようになる。   Here, it is also preferable that the value L on the LUT can be set by the user. This is because the saturation of the background portion is determined by the value of L. For example, when light yellow paper is used, if this L is set to the light yellow saturation value, the background removal is performed. Paper color can be maintained while processing.

補正部28は、色空間変換部21が出力する画像データに対して、その彩度の成分については、彩度補正LUT生成部27で生成したLUT(彩度補正LUT、本発明の色補正パラメータに相当する)に基づいてその彩度を補正する。ここで彩度補正の方法としては、各画素を順次、補正対象として選択しながら、補正対象となった画素の彩度(彩度特徴量算出部26におけるのと同様にして演算する)Cinを彩度補正LUTによって変換し、変換結果Coutを得る。そしてその変化比、k=Cout/Cinを演算する。   For the image data output from the color space conversion unit 21, the correction unit 28 uses the LUT (saturation correction LUT, color correction parameter of the present invention) generated by the saturation correction LUT generation unit 27 for the saturation component. The saturation is corrected based on the Here, as a saturation correction method, each pixel is sequentially selected as a correction target, and the saturation (calculated in the same manner as in the saturation feature amount calculation unit 26) Cin of the pixel to be corrected is calculated. Conversion is performed by the saturation correction LUT, and a conversion result Cout is obtained. Then, the change ratio, k = Cout / Cin, is calculated.

補正部28は、そして、補正対象となっている画素値のCb,Crの各成分について

Figure 2005217984
と補正する。 The correction unit 28 then corrects the Cb and Cr components of the pixel value to be corrected.
Figure 2005217984
And correct.

またこの補正部28は、明度Yについてはまず、明度補正LUT生成部25が生成したLUT(明度補正LUT、本発明の明度を補正するパラメータに相当する)に基づいて、明度を仮に補正し、仮補正明度Y_LUTを生成する。そして、この仮補正後の明度Y_LUTと補正前の明度Yとの間で彩度値の変化比に応じた重みづけ平均を演算して補正後の明度Y_outを演算する。すなわち、

Figure 2005217984
とする。なお、ここでは直線的な重みづけとしているが、k=0でY_out=Y,k=1でY_out=Y_LUTとなるような重みづけであれば他の重みづけ方法であってもよい。 Further, for the lightness Y, the correction unit 28 temporarily corrects the lightness based on the LUT generated by the lightness correction LUT generation unit 25 (lightness correction LUT, which corresponds to the parameter for correcting the lightness of the present invention). Temporary correction lightness Y_LUT is generated. Then, a weighted average according to the change ratio of the saturation value is calculated between the lightness Y_LUT after the temporary correction and the lightness Y before the correction to calculate the lightness Y_out after the correction. That is,
Figure 2005217984
And Note that although linear weighting is used here, other weighting methods may be used as long as k = 0, Y_out = Y, k = 1, Y_out = Y_LUT.

このようにすることで、明度のみで判定すれば、下地領域と誤認される低彩度部分においても、当該部分の彩度を低下させることがなく、また、彩度に関する第1、第2のしきい値CTH1,CTH2の間で、明度も彩度も連続的に補正するので、低彩度部分と下地との間の境目に、画像処理に伴う偽色部分が生じることがない。   In this way, if only the lightness is determined, even in a low saturation portion that is mistaken for the background region, the saturation of the portion is not lowered, and the first and second saturations are not related. Since the lightness and saturation are continuously corrected between the threshold values CTH1 and CTH2, no false color portion due to image processing occurs at the boundary between the low saturation portion and the background.

また、ここまでの説明では、彩度の情報を用いて色に関する補正を行うこととしていたが、これに代えて、特定の画素値(例えば白色)からの色空間上の距離を用いて色に関する補正を行ってもよいので、以下、そのような補正を行う、本発明の第2の実施の形態に係る画像処理装置について説明する。   Further, in the above description, the color-related correction is performed using the saturation information. Instead, the color-related correction is performed using a distance in a color space from a specific pixel value (for example, white). Since correction may be performed, an image processing apparatus according to the second embodiment of the present invention that performs such correction will be described below.

本実施の形態の画像処理装置は、図1に示した第1の実施の形態の画像処理装置と略同様の構成をとるものであるが、制御部11における処理が異なっている。すなわち、本実施の形態における制御部11の処理は、機能的には図4に示すように、色空間変換部21と、明度特徴量算出部22と、明度下地閾値決定部23と、下地領域抽出部24と、明度補正LUT生成部25と、距離面算出部31と、距離特徴量算出部32と、補正パラメータ生成部33と、補正部28とを含んで構成されている。なお、第1の実施の形態における制御部11の処理と同様の動作を行う部分については、同一の符号を付しており、その詳細な説明を省略することとする。   The image processing apparatus according to the present embodiment has substantially the same configuration as that of the image processing apparatus according to the first embodiment shown in FIG. 1, but the processing in the control unit 11 is different. That is, the processing of the control unit 11 in the present embodiment functionally includes a color space conversion unit 21, a brightness feature value calculation unit 22, a brightness background threshold value determination unit 23, and a background area, as shown in FIG. The extraction unit 24, the brightness correction LUT generation unit 25, the distance plane calculation unit 31, the distance feature amount calculation unit 32, the correction parameter generation unit 33, and the correction unit 28 are configured. In addition, about the part which performs the operation | movement similar to the process of the control part 11 in 1st Embodiment, the same code | symbol is attached | subjected and the detailed description is abbreviate | omitted.

距離面算出部31は、色空間変換部21が出力する画像データの各画素の値を順次、注目画素値として選択し、注目画素値と予め定められた特定画素値との間の距離を演算して出力する。ここでこの距離は、注目画素値の明度成分とそれ以外の成分とにおいて、それぞれ互いに異なる重みを付して定義される距離として演算される。   The distance plane calculation unit 31 sequentially selects each pixel value of the image data output from the color space conversion unit 21 as a target pixel value, and calculates a distance between the target pixel value and a predetermined specific pixel value. And output. Here, this distance is calculated as a distance defined by assigning different weights to the brightness component of the target pixel value and the other components.

具体的に、画素値(Y,Cb,Cr)について、特定画素値を白色(0,0,0)としたときの距離wを次のように定める。   Specifically, for the pixel value (Y, Cb, Cr), the distance w when the specific pixel value is white (0, 0, 0) is determined as follows.

Figure 2005217984
Figure 2005217984

ここで、kyは明度成分に対する重み、kcは明度以外の成分に対する重みであり、本実施の形態のように、この距離が色に関する補正に用いられる場合は、色彩に関係する成分として、明度以外の成分に対する重みが大きくなるように設定しておく。例えばky=1,kc=2とすることができる。   Here, ky is a weight for a lightness component, kc is a weight for a component other than lightness, and when this distance is used for correction relating to color as in this embodiment, as a component related to color, other than lightness The weight is set so as to increase the weight of the component. For example, ky = 1 and kc = 2.

距離特徴量算出部32は、距離面算出部31から注目画素ごとに出力される特定画素値からの距離を、その注目画素の位置の情報に関連づけて記憶部12に格納する。具体的に、距離特徴量算出部32は、元の画像データと同一サイズの画像データを格納する領域を記憶部12内に確保し、当該領域内で注目画素に対応する位置に、注目画素について距離面算出部31が出力する距離の値を格納すればよい。   The distance feature quantity calculation unit 32 stores the distance from the specific pixel value output for each target pixel from the distance plane calculation unit 31 in the storage unit 12 in association with the position information of the target pixel. Specifically, the distance feature amount calculation unit 32 secures an area for storing image data having the same size as the original image data in the storage unit 12, and sets the target pixel at a position corresponding to the target pixel in the area. What is necessary is just to store the value of the distance which the distance plane calculation part 31 outputs.

距離特徴量算出部32は、下地領域抽出部24から、下地領域を特定するマスク画像のデータの入力を受けて、下地領域として特定されている各画素に関する上記距離の情報に基づき、その統計値(例えば平均値、最小値、最大値、中央値、標準偏差、ヒストグラムのピーク値など)を距離特徴量として算出して出力する。   The distance feature amount calculation unit 32 receives the input of the mask image data specifying the background region from the background region extraction unit 24, and based on the distance information regarding each pixel specified as the background region, the statistical value (For example, average value, minimum value, maximum value, median value, standard deviation, histogram peak value, etc.) are calculated and output as distance feature amounts.

補正パラメータ生成部33は、まずLUTを生成する。具体的には、距離特徴量算出部32が算出する距離特徴量の平均値Wave及び、標準偏差Wstd(つまり、下地領域に含まれる画素値についての特定画素値からの距離の平均及び標準偏差)を用いて、次のようなLUTを生成する。すなわち、所定画素値からの距離xに対して、変換後の距離Xを次のように定める。   The correction parameter generation unit 33 first generates an LUT. Specifically, the average value Wave and the standard deviation Wstd of the distance feature value calculated by the distance feature value calculation unit 32 (that is, the average and standard deviation of the distance from the specific pixel value for the pixel value included in the background region). Is used to generate the following LUT. That is, the converted distance X is determined as follows with respect to the distance x from the predetermined pixel value.

Figure 2005217984
なお、第1の距離しきい値XTH1及び、第2の距離しきい値XTH2は、それぞれ、
Figure 2005217984
とすることができ、各しきい値での変換後の距離値XTH1_New及びXTH2_Newについては、
Figure 2005217984
とすることができる。ここでr0は「0」としてもよい。
Figure 2005217984
The first distance threshold value XTH1 and the second distance threshold value XTH2 are respectively
Figure 2005217984
For the distance values XTH1_New and XTH2_New after conversion at each threshold,
Figure 2005217984
It can be. Here, r0 may be “0”.

つまり、下地領域として抽出された部分での特定画素値からの距離の平均から標準偏差だけ下がった距離未満では、色味が淡いものであるので、距離を0に設定して特定画素値と同値にする。また、特定画素値からの距離の平均から標準偏差だけ上がった距離を越えるところでは、元の距離値をそのまま用いて色味を変えないようにしている。   That is, since the color is light when the distance is less than the standard deviation from the average distance from the specific pixel value in the portion extracted as the background area, the distance is set to 0 and the same value as the specific pixel value. To. Further, where the distance exceeding the standard deviation from the average distance from the specific pixel value is exceeded, the original distance value is used as it is so as not to change the color.

そして補正パラメータ生成部33は、こうして生成したLUT(距離LUT)を用いて、画素ごとに明度以外の成分を補正するためのパラメータk(n,m)を生成する。ここで(n,m)は、パラメータを適用するべき画素の位置を表す座標情報である。具体的に位置(n,m)にある画素の画素値と特定画素値との距離がx(n,m)であるときには、当該距離の変換後の値、x_New(n,m)を用いて、補正パラメータを

Figure 2005217984
と定めて、補正部28に出力する。 Then, the correction parameter generation unit 33 uses the LUT (distance LUT) generated in this way to generate a parameter k (n, m) for correcting components other than brightness for each pixel. Here, (n, m) is coordinate information representing the position of the pixel to which the parameter is to be applied. Specifically, when the distance between the pixel value of the pixel at the position (n, m) and the specific pixel value is x (n, m), the converted value of the distance, x_New (n, m) is used. , The correction parameter
Figure 2005217984
And output to the correction unit 28.

補正部28は、この補正パラメータの入力を受けて、位置(n,m)の画素値(Y,Cb,Cr)を補正後の画素値(Y_out,Cb_out,Cr_out)のうち、明度以外の成分を次のように演算する。   The correction unit 28 receives the input of the correction parameter, and the component other than the lightness among the pixel values (Y_out, Cb_out, Cr_out) after correcting the pixel values (Y, Cb, Cr) at the position (n, m). Is calculated as follows.

Figure 2005217984
Figure 2005217984

さらに、明度については、明度補正LUT生成部25が生成したLUT(明度補正LUT、本発明の明度を補正するパラメータに相当する)に基づいて、明度を仮に補正し、仮補正明度Y_LUTを生成する。そして、この仮補正後の明度Y_LUTと補正前の明度Yとの間で明度以外の成分の変化比(つまりここでの補正パラメータ)に応じた重みづけ平均を演算して補正後の明度Y_outを演算する。すなわち、

Figure 2005217984
とする。 Further, with respect to the lightness, the lightness is temporarily corrected based on the LUT generated by the lightness correction LUT generation unit 25 (lightness correction LUT, which corresponds to a parameter for correcting the lightness of the present invention), and a temporary correction lightness Y_LUT is generated. . Then, a weighted average corresponding to the change ratio of components other than lightness (that is, the correction parameter here) is calculated between the lightness Y_LUT after the temporary correction and the lightness Y before the correction, and the lightness Y_out after the correction is calculated. Calculate. That is,
Figure 2005217984
And

具体的に、ここでの特定画素値を白色とすることで、これらの処理により、明度のみで判定すれば、下地領域と誤認される低彩度部分においても、当該部分の彩度を低下させることがなく、また、白からの色空間上の距離に関する第1、第2の距離しきい値XTH1,XTH2の間で、明度も彩度も連続的に補正するので、低彩度部分と下地との間の境目に、画像処理に伴う偽色部分が生じることがない。さらに、彩度に係る補正においても、明度の状態を反映させることができるようになっている。   Specifically, by setting the specific pixel value here to be white, if the determination is based only on the lightness by these processes, the saturation of the portion is reduced even in a low-saturation portion that is mistaken for the background region. In addition, since the brightness and saturation are continuously corrected between the first and second distance threshold values XTH1 and XTH2 regarding the distance in the color space from white, the low saturation portion and the background No false color portion associated with image processing occurs at the boundary between the two. Further, the brightness state can be reflected also in the correction relating to the saturation.

また、ここまでの説明では、これらの下地除去処理を経た画像データを外部の装置(例えばディスプレイやプリンタ、ディスク装置など)に出力する例について述べたが、制御部11がさらに、この下地除去後の画像データについて処理を行ってもよい。   In the above description, the example in which the image data that has undergone the background removal processing is output to an external device (for example, a display, a printer, a disk device, etc.) has been described. The image data may be processed.

かかる処理の一例は画像データの圧縮処理である。具体的に制御部11は、下地除去処理後の画像データを記憶部12に格納し、これを処理対象として次の圧縮処理を行う。この圧縮処理は、図5に機能的に示すように、処理対象となった画像データに対して絵柄部分の候補となる部分(絵柄候補部分)を特定する絵柄候補部分特定処理部41と、文字線画を抽出する文字線画抽出処理部42と、レイアウト処理を遂行するレイアウト処理部43と、同一色文字領域分離部44と、穴埋処理部45と、圧縮処理部46とを含んで構成される。   An example of such processing is image data compression processing. Specifically, the control unit 11 stores the image data after the background removal processing in the storage unit 12, and performs the next compression processing on the processing target. As shown functionally in FIG. 5, this compression processing includes a pattern candidate portion specifying processing unit 41 that specifies a portion (design candidate portion) that is a candidate pattern portion for the image data to be processed, A character line drawing extraction processing unit 42 that extracts line drawings, a layout processing unit 43 that performs layout processing, a same color character region separation unit 44, a hole filling processing unit 45, and a compression processing unit 46 are configured. .

絵柄候補部分特定処理部41は、例えば処理対象となった画像データを明度に関する所定のしきい値で二値化(明度のしきい値より高い部分を「白」、明度のしきい値より低い部分を「黒」)し、二値化後の画像データ内で黒画素の連結画素領域を画定し、当該連結画素領域のうち予め定めたサイズしきい値より大きいサイズの領域を絵柄候補部分として特定する。   The pattern candidate portion specifying processing unit 41 binarizes the image data to be processed, for example, with a predetermined threshold value regarding brightness (“white” is a portion higher than the brightness threshold value, and is lower than the brightness threshold value) "Black"), demarcate the connected pixel area of black pixels in the binarized image data, and select an area of the connected pixel area larger than a predetermined size threshold as a pattern candidate part Identify.

文字線画抽出処理部42は、記憶部12に格納されている処理対象の画像データから、広く知られている方法で文字線画としての性状を有する画像領域を文字線画領域として特定する。   The character / line drawing extraction processing unit 42 specifies an image region having a property as a character / line drawing as a character / line drawing region from a processing target image data stored in the storage unit 12 by a widely known method.

レイアウト処理部43は、絵柄候補部分として特定された画像について、レイアウト処理を実行し、複数の連結画素の配列状態が文字列の配列として認識される部分を絵柄候補部分から除去し、文字線画領域に含める。またこの処理後の絵柄候補部分(すなわちレイアウト処理の結果、文字列としての配列を除去した部分)を、絵柄部分として特定する。   The layout processing unit 43 performs a layout process on the image specified as the pattern candidate part, removes a part in which the arrangement state of the plurality of connected pixels is recognized as the character string arrangement from the pattern candidate part, Include in Further, the pattern candidate portion after this processing (that is, the portion from which the arrangement as a character string has been removed as a result of the layout processing) is specified as the pattern portion.

同一色文字領域分離部44は、記憶部12に格納されている処理対象の画像データのうち、文字線画領域として特定される領域内の文字・線画について、色別の画像データを生成し、色別の画像データごとに、当該色を特定する情報と、当該画像データを二値化してランレングス圧縮したデータとを生成し、これらを関連づけて文字・線画領域圧縮データを生成する。このとき、各文字・線画圧縮データには、その文字・線画部分を抽出した部分を特定する座標情報を関連づけておく。   The same color character area separation unit 44 generates image data for each color for the character / line drawing in the area specified as the character line drawing area among the processing target image data stored in the storage unit 12. For each piece of image data, information specifying the color and data obtained by binarizing the image data and run-length compression are generated, and the character / line drawing area compressed data is generated by associating them. At this time, each character / line drawing compressed data is associated with coordinate information for specifying a portion from which the character / line drawing portion is extracted.

一方、穴埋処理部45は、記憶部12に格納されている処理対象の画像データのうち、絵柄部分として特定された部分の画像データを抽出し、当該部分には含まれない画素(文字・線画として抜き出された部分の画素)を、所定の方法で決定して設定(穴埋)する。   On the other hand, the hole-filling processing unit 45 extracts image data of a part specified as a pattern part from the image data to be processed stored in the storage unit 12, and includes pixels (characters / characters) not included in the part. The pixel of the portion extracted as a line drawing) is determined and set (filled) by a predetermined method.

圧縮処理部46は、穴埋処理部45が出力する穴埋処理後の絵柄部分の画像データをJPEG(Joint Picture Experts Group)等の絵柄圧縮に適した圧縮方法で圧縮処理し、これと文字・線画領域圧縮データとを連結して所定フォーマットのデータ(例えばPDF(Portable Document Format)のデータ)として記憶部12に書き出す。   The compression processing unit 46 compresses the image data of the pattern portion after the hole filling process output from the hole filling processing unit 45 by a compression method suitable for pattern compression such as JPEG (Joint Picture Experts Group). The line drawing area compressed data is concatenated and written to the storage unit 12 as data in a predetermined format (for example, PDF (Portable Document Format) data).

この制御部11の処理により、文字・線画と、絵柄とを個別に適した圧縮処理にて圧縮し、圧縮効率を高めたデータを生成することができるようになる。   By the processing of the control unit 11, it becomes possible to compress the character / line drawing and the picture by a compression process suitable for each of them and generate data with improved compression efficiency.

なお、このデータを伸長する際には、絵柄部分の圧縮処理結果と、文字・線画領域圧縮データとを分離し、絵柄部分については圧縮処理に対応する伸長処理(例えばJPEGの伸長処理)を行う。   When decompressing this data, the compression processing result of the pattern portion and the character / line drawing area compression data are separated, and the decompression processing corresponding to the compression processing (for example, JPEG decompression processing) is performed on the pattern portion. .

一方、文字・線画部分については、ランレングス圧縮を伸長して二値化画像データと、それに付するべき色の情報とを得て、二値化画像データの黒画素部分を、当該色の情報で示される画素値に設定して色別の画像データを復元する。そして、伸長した絵柄部分の対応する位置(関連づけられた座標情報によって特定される位置)に、各文字・線画部分の色別の画像データを不透明合成し、元の画像データを復元する。   On the other hand, for character / line drawing parts, run-length compression is expanded to obtain binarized image data and color information to be attached thereto, and the black pixel part of the binarized image data is replaced with the color information. The image data for each color is restored by setting the pixel value indicated by. Then, the image data for each color of each character / line drawing part is opaquely combined with the corresponding position (position specified by the associated coordinate information) of the decompressed picture part to restore the original image data.

本発明の実施の形態に係る画像処理装置の構成ブロック図である。1 is a configuration block diagram of an image processing apparatus according to an embodiment of the present invention. 本発明の第1の実施の形態に係る画像処理装置の処理例を表す機能ブロック図である。It is a functional block diagram showing the process example of the image processing apparatus which concerns on the 1st Embodiment of this invention. 彩度補正LUTの例を表す説明図である。It is explanatory drawing showing the example of saturation correction | amendment LUT. 本発明の第2の実施の形態に係る画像処理装置の処理例を表す機能ブロック図である。It is a functional block diagram showing the process example of the image processing apparatus which concerns on the 2nd Embodiment of this invention. 補正後の画像データに対する利用例である処理の一例を表す機能ブロック図である。It is a functional block diagram showing an example of the process which is a usage example with respect to the image data after correction | amendment. 従来の画像処理装置の機能ブロック図である。It is a functional block diagram of the conventional image processing apparatus. 明度補正LUTの例を表す説明図である。It is explanatory drawing showing the example of the brightness correction | amendment LUT. 補正前後の明度ヒストグラムの例を表す説明図である。It is explanatory drawing showing the example of the brightness histogram before and behind correction | amendment.

符号の説明Explanation of symbols

1 明度ヒストグラム演算部、2 下地閾値決定部、3 LUT生成部、4 明度補正部、11 制御部、12 記憶部、13 画像入力部、14 画像出力部、21 色空間変換部、22 明度特徴量算出部、23 明度下地閾値決定部、24 下地領域抽出部、25 明度補正LUT生成部、26 彩度特徴量算出部、27 彩度補正LUT生成部、28 補正部、31 距離面算出部、32 距離特徴量算出部、33 補正パラメータ生成部、41 絵柄候補部分特定処理部、42 文字線画抽出処理部、43 レイアウト処理部、44 同一色文字領域分離部、45 穴埋処理部、46 圧縮処理部。
DESCRIPTION OF SYMBOLS 1 Lightness histogram calculation part, 2 Background threshold determination part, 3 LUT production | generation part, 4 Lightness correction part, 11 Control part, 12 Storage part, 13 Image input part, 14 Image output part, 21 Color space conversion part, 22 Brightness feature-value Calculation unit 23 Brightness background threshold determination unit 24 Background region extraction unit 25 Brightness correction LUT generation unit 26 Saturation feature amount calculation unit 27 Saturation correction LUT generation unit 28 Correction unit 31 Distance plane calculation unit 32 Distance feature amount calculation unit, 33 correction parameter generation unit, 41 picture candidate part specification processing unit, 42 character line drawing extraction processing unit, 43 layout processing unit, 44 same color character region separation unit, 45 burial processing unit, 46 compression processing unit .

Claims (7)

処理対象となった画像データから有意な画像の下地となる下地部分を除去する処理を行う画像処理装置であって、
前記処理対象の画像データのうちから、下地領域を抽出する手段と、
前記抽出された下地領域内の画素が表す、明度以外の色成分に関係する色関係情報に基づいて色補正パラメータを生成する手段と、
前記生成した色補正パラメータを用いて、前記処理対象の画像データの色を補正する補正手段と、
を含むことを特徴とする画像処理装置。
An image processing apparatus that performs processing to remove a background portion that is a background of a significant image from image data to be processed,
Means for extracting a background area from the image data to be processed;
Means for generating a color correction parameter based on color relationship information related to a color component other than lightness represented by a pixel in the extracted background region;
Correction means for correcting the color of the image data to be processed using the generated color correction parameter;
An image processing apparatus comprising:
請求項1に記載の画像処理装置であって、
前記色関係情報は、下地領域内の画素によって表される彩度の情報であり、
前記色補正パラメータは、彩度の補正を行うパラメータであって、前記色を補正する手段は、処理対象の画像データに含まれる各画素の彩度を、前記色補正パラメータを用いて補正することを特徴とする画像処理装置。
The image processing apparatus according to claim 1,
The color-related information is saturation information represented by pixels in the background area,
The color correction parameter is a parameter for correcting saturation, and the means for correcting the color corrects the saturation of each pixel included in the image data to be processed using the color correction parameter. An image processing apparatus.
請求項2に記載の画像処理装置であって、
前記抽出された下地領域内の画素が表す、明度に関係する情報に基づいて、明度を補正するパラメータを生成する手段をさらに含み、
前記補正手段は、前記処理対象の画像データの明度成分を、前記明度を補正するパラメータと前記色補正パラメータとを用いて補正することを特徴とする画像処理装置。
The image processing apparatus according to claim 2,
Means for generating a parameter for correcting the brightness based on the information related to the brightness represented by the pixel in the extracted background region;
The image processing apparatus according to claim 1, wherein the correction unit corrects a brightness component of the image data to be processed using a parameter for correcting the brightness and the color correction parameter.
請求項1に記載の画像処理装置であって、
前記色関係情報は、色空間上での下地領域内の画素値と特定画素値との距離に関する情報であることを特徴とする画像処理装置。
The image processing apparatus according to claim 1,
The image processing apparatus according to claim 1, wherein the color relationship information is information relating to a distance between a pixel value in a base area in a color space and a specific pixel value.
請求項4に記載の画像処理装置であって、
前記距離に関する情報は、明度成分とそれ以外の成分とにおいて、それぞれ互いに異なる重みを付して定義される距離であることを特徴とする画像処理装置。
The image processing apparatus according to claim 4,
The information regarding the distance is a distance defined by assigning different weights to each of the brightness component and the other components.
コンピュータを用い、処理対象となった画像データから有意な画像の下地となる下地部分を除去する処理を行う画像処理方法であって、
前記処理対象の画像データのうちから、下地領域を抽出する工程と、
前記抽出された下地領域内の画素が表す、明度以外の色成分に関係する色関係情報に基づいて色補正パラメータを生成する工程と、
前記生成した色補正パラメータを用いて、前記処理対象の画像データの色を補正する工程と、
を含むことを特徴とする画像処理方法。
An image processing method for performing a process of removing a background portion that becomes a background of a significant image from image data to be processed using a computer,
Extracting a background area from the image data to be processed;
Generating color correction parameters based on color relationship information related to color components other than lightness represented by the pixels in the extracted background region;
Correcting the color of the image data to be processed using the generated color correction parameter;
An image processing method comprising:
コンピュータに、処理対象となった画像データから有意な画像の下地となる下地部分を除去する処理を行わせる画像処理プログラムであって、
前記処理対象の画像データのうちから、下地領域を抽出する手順と、
前記抽出された下地領域内の画素が表す、明度以外の色成分に関係する色関係情報に基づいて色補正パラメータを生成する手順と、
前記生成した色補正パラメータを用いて、前記処理対象の画像データの色を補正する手順と、
をコンピュータに実行させることを特徴とする画像処理プログラム。
An image processing program for causing a computer to perform a process of removing a background portion that is a background of a significant image from image data to be processed,
A procedure for extracting a background area from the image data to be processed;
A procedure for generating a color correction parameter based on color relationship information related to a color component other than lightness represented by a pixel in the extracted background region;
A procedure for correcting the color of the image data to be processed using the generated color correction parameter;
An image processing program for causing a computer to execute.
JP2004024824A 2004-01-30 2004-01-30 Image processing device Pending JP2005217984A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2004024824A JP2005217984A (en) 2004-01-30 2004-01-30 Image processing device

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2004024824A JP2005217984A (en) 2004-01-30 2004-01-30 Image processing device

Publications (1)

Publication Number Publication Date
JP2005217984A true JP2005217984A (en) 2005-08-11

Family

ID=34907391

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2004024824A Pending JP2005217984A (en) 2004-01-30 2004-01-30 Image processing device

Country Status (1)

Country Link
JP (1) JP2005217984A (en)

Cited By (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2007155840A (en) * 2005-11-30 2007-06-21 Nec Lcd Technologies Ltd Image display device, drive circuit and driving method used for image display device
JP2009005068A (en) * 2007-06-21 2009-01-08 Ricoh Co Ltd Image processing apparatus and image processing method
JP2009284408A (en) * 2008-05-26 2009-12-03 Fuji Xerox Co Ltd Background removing apparatus and program, and image forming device
JP2012518303A (en) * 2009-02-13 2012-08-09 オセ−テクノロジーズ ビーブイ Image processing system for processing digital image and image processing method for processing digital image
JP2012205190A (en) * 2011-03-28 2012-10-22 Fuji Xerox Co Ltd Image processing apparatus and program
CN102164287B (en) * 2006-01-10 2013-01-30 松下电器产业株式会社 Color correction device and color correction method
WO2019087403A1 (en) * 2017-11-06 2019-05-09 Eizo株式会社 Image processing device, image processing method, and image processing program

Cited By (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2007155840A (en) * 2005-11-30 2007-06-21 Nec Lcd Technologies Ltd Image display device, drive circuit and driving method used for image display device
CN102164287B (en) * 2006-01-10 2013-01-30 松下电器产业株式会社 Color correction device and color correction method
JP2009005068A (en) * 2007-06-21 2009-01-08 Ricoh Co Ltd Image processing apparatus and image processing method
JP2009284408A (en) * 2008-05-26 2009-12-03 Fuji Xerox Co Ltd Background removing apparatus and program, and image forming device
JP2012518303A (en) * 2009-02-13 2012-08-09 オセ−テクノロジーズ ビーブイ Image processing system for processing digital image and image processing method for processing digital image
JP2012205190A (en) * 2011-03-28 2012-10-22 Fuji Xerox Co Ltd Image processing apparatus and program
WO2019087403A1 (en) * 2017-11-06 2019-05-09 Eizo株式会社 Image processing device, image processing method, and image processing program
US11363245B2 (en) 2017-11-06 2022-06-14 Eizo Corporation Image processing device, image processing method, and image processing program

Similar Documents

Publication Publication Date Title
JP4016342B2 (en) Apparatus and method for code recognition
JP5875637B2 (en) Image processing apparatus and image processing method
US8023147B2 (en) Image processing method and image processing apparatus
US10523843B2 (en) Image processing apparatus, image processing method, and non-transitory computer-readable storage medium
US11943547B2 (en) Information processing apparatus that illuminates a printed image during capture when embedded information is to be processed, information processing system, information processing method, and storage medium
JP2008099149A (en) Image processor, image processing method and image processing program
JP4582204B2 (en) Image processing apparatus, image conversion method, and computer program
JP6362632B2 (en) Image processing apparatus and image processing method
JP4582200B2 (en) Image processing apparatus, image conversion method, and computer program
JP2005217984A (en) Image processing device
JP6370080B2 (en) Image processing apparatus, image processing method, and program.
JP3899872B2 (en) Image processing apparatus, image processing method, image processing program, and computer-readable recording medium recording the same
JP4370950B2 (en) Image processing device
US11245810B2 (en) Image processing apparatus, method, and program product for embedding corresponding information in an area overlapping a recognized object
JP4742632B2 (en) Image processing apparatus, image processing method, and program
JP6641982B2 (en) Image processing apparatus, image processing method, and program
JP7362405B2 (en) Image processing device, image processing method, and program
JP2010068198A (en) Image forming apparatus
JP2012231261A (en) Image processing apparatus and control method thereof
JP2005244649A (en) Image processing apparatus
JP2005190010A (en) Image processor
JP2004242075A (en) Image processing apparatus and method therefor
JP2010074394A (en) Image processing apparatus and method, and program
JP2005217983A (en) Image processing device
JP2006092050A (en) Image processor