Nothing Special   »   [go: up one dir, main page]

JP2023143726A - Image processing apparatus, reading device, image forming apparatus, data management system, and method - Google Patents

Image processing apparatus, reading device, image forming apparatus, data management system, and method Download PDF

Info

Publication number
JP2023143726A
JP2023143726A JP2023012946A JP2023012946A JP2023143726A JP 2023143726 A JP2023143726 A JP 2023143726A JP 2023012946 A JP2023012946 A JP 2023012946A JP 2023012946 A JP2023012946 A JP 2023012946A JP 2023143726 A JP2023143726 A JP 2023143726A
Authority
JP
Japan
Prior art keywords
image
image data
image processing
visible
unit
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2023012946A
Other languages
Japanese (ja)
Inventor
歩 橋本
Ayumi Hashimoto
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Ricoh Co Ltd
Original Assignee
Ricoh Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Ricoh Co Ltd filed Critical Ricoh Co Ltd
Priority to CN202310245369.8A priority Critical patent/CN116805955A/en
Priority to US18/123,348 priority patent/US12063337B2/en
Priority to EP23162872.8A priority patent/EP4250712A1/en
Publication of JP2023143726A publication Critical patent/JP2023143726A/en
Pending legal-status Critical Current

Links

Images

Landscapes

  • Facsimile Scanning Arrangements (AREA)
  • Editing Of Facsimile Originals (AREA)
  • Facsimile Image Signal Circuits (AREA)

Abstract

To generate image data that can display a specified color intended to be displayed as a visible image.SOLUTION: An image processing apparatus according to the present invention has: an input unit that receives input of visible image data obtained by reading a subject with a sensor having sensitivity to light from a light source in a visible wavelength range and invisible image data obtained by reading the subject with a sensor having sensitivity to light from the light source in an invisible wavelength range; and an image processing unit that generates image data that displays, in a specified color, a portion of the visible data corresponding to a specified area being a portion having a predetermined absorptance or more in the invisible image data.SELECTED DRAWING: Figure 1

Description

本発明は、画像処理装置、読取装置、画像形成装置、データ管理システムおよび方法に関する。 The present invention relates to an image processing device, a reading device, an image forming device, a data management system, and a method.

従来、スキャンした画像から自動で文字情報を抽出するOCR(Optical Character Recognition)の技術がある。文書に印字されている会社名に印鑑が打たれている場合などは、その印影を除去するためにカラードロップアウト機能を用いて特定色を除去してから、OCRを行う。 Conventionally, there is an optical character recognition (OCR) technology that automatically extracts character information from scanned images. If the company name printed on the document has a stamp stamped on it, the color dropout function is used to remove the specific color in order to remove the stamp impression, and then OCR is performed.

特許文献1に、赤外光読取と可視光読取の情報を用いて文字領域を判定し、可視光情報を用いて黒領域を判定し、これらの結果から黒文字判定を行うという技術もある。 Patent Document 1 also discloses a technique in which character areas are determined using infrared light reading and visible light reading information, black areas are determined using visible light information, and black characters are determined based on these results.

しかし、特定色で印影を除去すると、印影が重なることで黒文字部も特定色に色づくため、一緒に除去されてしまうという問題がある。 However, if the seal impression is removed using a specific color, the black text will also be colored in the specific color due to the overlapping of the seal impressions, causing the problem that it will be removed together.

本発明は、上記に鑑みてなされたものであって、表示させたい指定色を可視画像として表示させることができる画像データを生成可能な画像処理装置、読取装置、画像形成装置、データ管理システムおよび方法を提供することを目的とする。 The present invention has been made in view of the above, and includes an image processing device, a reading device, an image forming device, a data management system, and a data management system capable of generating image data that can display a specified color to be displayed as a visible image. The purpose is to provide a method.

上述した課題を解決し、目的を達成するために、本発明にかかる画像処理装置は、被写体を可視波長域の光源の光に感度をもつセンサで読み取った可視画像データおよび前記被写体を不可視波長域の光源の光に感度をもつセンサで読み取った不可視画像データが入力される入力部と、前記可視画像データの、前記不可視画像データにおける所定の吸収率以上の部分である指定領域に該当する部分を指定色で表示させる画像データを生成する画像処理部と、を有することを特徴とする。 In order to solve the above-mentioned problems and achieve the objects, an image processing device according to the present invention provides visible image data of a subject read by a sensor sensitive to light from a light source in the visible wavelength range, and visible image data of the subject read by a sensor sensitive to light from a light source in the visible wavelength range. an input section into which invisible image data read by a sensor sensitive to light from a light source is input; and a portion of the visible image data that corresponds to a designated area that is a portion of the invisible image data that has a predetermined absorption rate or higher; An image processing unit that generates image data to be displayed in a designated color.

本発明によれば、表示させたい指定色を可視画像として表示させることができる画像データを生成することができるという効果を奏する。 According to the present invention, it is possible to generate image data that can display a designated color that is desired to be displayed as a visible image.

図1は、第1の実施の形態にかかる画像処理装置の構成の一例を示す図である。FIG. 1 is a diagram showing an example of the configuration of an image processing apparatus according to the first embodiment. 図2は、不可視光として近赤外光を使用する場合の一例を示す図である。FIG. 2 is a diagram showing an example of using near-infrared light as invisible light. 図3は、色材の光吸収特性を示す図である。FIG. 3 is a diagram showing the light absorption characteristics of coloring materials. 図4は、読取装置の構成の一例を示す図である。FIG. 4 is a diagram showing an example of the configuration of a reading device. 図5は、読取装置の制御ブロックの構成の一例を示す図である。FIG. 5 is a diagram showing an example of the configuration of a control block of the reading device. 図6は、陰影除去に際し、黒文字を補正するための構成を模式的に示した図である。FIG. 6 is a diagram schematically showing a configuration for correcting black characters when removing shadows. 図7は、無彩化部で処理される画像の説明図である。FIG. 7 is an explanatory diagram of an image processed by the achromatic section. 図8は、実施の形態の変形例1にかかる読取装置の構成の一例を示す図である。FIG. 8 is a diagram illustrating an example of the configuration of a reading device according to Modification 1 of the embodiment. 図9は、実施の形態の変形例2にかかる読取装置の構成の一例を示す図である。FIG. 9 is a diagram illustrating an example of the configuration of a reading device according to a second modification of the embodiment. 図10は、実施の形態の変形例3にかかる読取装置の構成の一例を示す図である。FIG. 10 is a diagram illustrating an example of the configuration of a reading device according to modification 3 of the embodiment. 図11は、変形例3を応用した実施例の一例を示す図である。FIG. 11 is a diagram showing an example of an embodiment to which Modification 3 is applied. 図12は、変形例4にかかる黒文字領域判定部の説明図である。FIG. 12 is an explanatory diagram of a black character area determination unit according to modification example 4. 図13は、変形例5にかかる黒文字領域判定部において閾値の決定を行う説明図である。FIG. 13 is an explanatory diagram for determining a threshold value in the black character area determination unit according to modification 5. 図14は、黒文字領域判定部において閾値の決定を行う構成の説明図である。FIG. 14 is an explanatory diagram of a configuration for determining a threshold value in a black character area determining section. 図15は、変形例6にかかる黒文字領域判定部の構成の一例を示す図である。FIG. 15 is a diagram illustrating an example of the configuration of a black character area determining section according to modification example 6. 図16は、変形例7にかかる無彩化処理部における処理の一例を示す図である。FIG. 16 is a diagram illustrating an example of processing in the achromatic processing unit according to Modification Example 7. 図17は、無彩化処理の輝度成分調整を行うUI設定画面の一例を示す図である。FIG. 17 is a diagram illustrating an example of a UI setting screen for adjusting the brightness component of the achromatic process. 図18は、罫線等の指定色を除去するための構成の説明図である。FIG. 18 is an explanatory diagram of a configuration for removing designated colors such as ruled lines. 図19は、変形例8にかかる画像補正部の構成の一例を示す図である。FIG. 19 is a diagram illustrating an example of the configuration of an image correction section according to modification example 8. 図20は、変形例9にかかる構成の一例を示す図である。FIG. 20 is a diagram illustrating an example of a configuration according to modification example 9. 図21は、変形例10にかかる構成の一例を示す図である。FIG. 21 is a diagram illustrating an example of a configuration according to modification 10. 図22は、第2の実施の形態にかかる画像処理装置を含むシステムの構成の一例を示す図である。FIG. 22 is a diagram illustrating an example of the configuration of a system including the image processing device according to the second embodiment. 図23は、第3の実施の形態にかかる画像形成装置の構成の一例を示す図である。FIG. 23 is a diagram illustrating an example of the configuration of an image forming apparatus according to the third embodiment. 図24は、従来方式で特定色の除去を行った場合の比較図である。FIG. 24 is a comparison diagram when specific colors are removed using the conventional method.

以下に添付図面を参照して、画像処理装置、読取装置、画像形成装置、データ管理システムおよび方法の実施の形態を詳細に説明する。 Embodiments of an image processing device, a reading device, an image forming device, a data management system, and a method will be described in detail below with reference to the accompanying drawings.

(第1の実施の形態)
図1は、第1の実施の形態にかかる画像処理装置の構成の一例を示す図である。画像処理装置00は、入力部1a、画像処理部2a、特定部3a、および出力部4aを有する。
入力部1aは、被写体画像を入力する。被写体画像は、被写体の可視画像データD1と被写体の不可視画像データD2である。特定部3aは、入力部1aから入力した不可視画像データD2に基づいて黒文字領域を特定する。なお、「黒文字領域」は、「指定領域」に相当し、説明を分かり易くするため黒(指定色)の文字が使用された領域として説明する。「黒文字領域」は、黒印字されている領域であれば、これに限定されない。
画像処理部2aは、入力部1aから入力した可視画像データD1と、特定部3aが特定した黒文字領域に基づいて、可視画像データD1の黒文字領域に該当する部分を黒で表示させる画像データD3を生成する。出力部4aは、画像データD3を出力する。出力部4aが出力する出力先は、例えば、画像処理装置00の表示部や、画像処理装置00に接続された外部装置など、適宜決めてよい。
第1の実施の形態として、画像処理装置00を読取装置に適用した場合の例を示す。まず読取装置の全体構成を示し、読取装置内で被写体の可視画像データD1の黒文字領域に該当する部分を黒で表示させる画像データD3を生成する処理を説明する。
なお、読取装置において、撮像部が入力部1aに相当する。ここに示す読取装置の構成は一例であり、光源の光を被写体に照射して、被写体からの光を撮像部で撮像することにより被写体画像を読み取る読取装置であればよい。
(First embodiment)
FIG. 1 is a diagram showing an example of the configuration of an image processing apparatus according to the first embodiment. The image processing device 00 includes an input section 1a, an image processing section 2a, a specifying section 3a, and an output section 4a.
The input unit 1a inputs a subject image. The subject image includes visible image data D1 of the subject and invisible image data D2 of the subject. The specifying unit 3a specifies a black character area based on the invisible image data D2 input from the input unit 1a. Note that the "black text area" corresponds to the "designated area" and will be described as an area in which black (designated color) text is used to make the explanation easier to understand. The "black text area" is not limited to this as long as it is an area printed in black.
The image processing unit 2a generates image data D3 for displaying a portion of the visible image data D1 corresponding to the black text area in black based on the visible image data D1 input from the input unit 1a and the black text area specified by the specifying unit 3a. generate. The output unit 4a outputs image data D3. The output destination of the output unit 4a may be determined as appropriate, such as the display unit of the image processing device 00 or an external device connected to the image processing device 00.
As a first embodiment, an example will be shown in which the image processing device 00 is applied to a reading device. First, the overall configuration of the reading device will be shown, and the process of generating image data D3 for displaying in black the portion corresponding to the black character area of the visible image data D1 of the subject in the reading device will be explained.
Note that in the reading device, the imaging section corresponds to the input section 1a. The configuration of the reading device shown here is an example, and any reading device may be used as long as it reads a subject image by irradiating the subject with light from a light source and capturing the light from the subject with an imaging unit.

また、画像処理部2aと特定部3aの処理は、後述する被写体画像に対する印影除去のための処理に相当する。この処理の一部またはすべては、読取装置内で行ってもよいし、読取装置とは別体に設けた画像処理装置で、読取装置が読み取った被写体画像を入力するなどして行ってもよい。画像処理装置ですべて行う場合、サーバまたはメモリに保存されている被写体画像を画像処理装置が入力してもよい。本実施の形態では、画像処理装置を読取装置に適用した例を示すが、画像処理装置は、読取装置とは別体で設けることができる。 Further, the processing by the image processing section 2a and the identifying section 3a corresponds to processing for removing a seal imprint from a subject image, which will be described later. Part or all of this processing may be performed within the reading device, or may be performed by an image processing device provided separately from the reading device, by inputting the subject image read by the reading device. . If the image processing device performs all the processing, the image processing device may input a subject image stored in a server or memory. Although this embodiment shows an example in which an image processing device is applied to a reading device, the image processing device can be provided separately from the reading device.

以下で被写体のことを読取対象と言う場合がある。読取対象は、黒色の文字などが印字されている黒文字領域に印影などの除去対象が重なっているものである。一例として、印鑑が押されている各種証明書、文書、あるいは帳票などのような紙原稿を示すが、除去対象を印影に限定するものではない。また、読取対象を紙原稿に限定するものではない。 In the following, the subject may be referred to as a reading target. The object to be read is one in which the object to be removed, such as a seal imprint, overlaps a black character area where black characters are printed. As an example, paper documents such as various certificates, documents, or forms with stamps are shown, but the object to be removed is not limited to seal impressions. Furthermore, the object to be read is not limited to paper manuscripts.

また、「可視画像データ」とは、可視波長域の光源の光(可視光)に感度をもつイメージセンサ等のセンシングデバイスで読み取った画像データを指す。また、「不可視画像データ」とは、赤外線(近赤外を含む)や紫外線などの不可視波長域の光源の光に感度をもつイメージセンサ等のセンシングデバイスで読み取った画像データを指す。以下では「不可視画像データ」の一例として近赤外画像データ(以下では、単に近赤外画像と言う)を示すが、近赤外画像に限定するものではない。一例として、不可視光として近赤外光を使用する例を示す(図2参照)。図2に示されるように、一般的なシリコンのイメージセンサでは近赤外領域(おおよそ750nm~1100nm付近)で感度を持っている。そのため、従来使用されている汎用のイメージセンサを使用できるため、簡易な構成で実現することが可能となる。
黒文字に使用される黒インク、黒トナー、あるいは黒鉛筆は、カーボンを含んでいる。カーボンは可視領域、赤外領域の光を吸収する特徴がある。そのため、可視領域及び赤外領域でも黒く読み取ることができる。一方、カラーインクおよびCMY色トナーは、赤外領域の光を透過する特徴がある。この特徴を図3に示す。横軸は光の波長、縦軸は光の吸収率を示す。図3で黒とは上記のようにカーボンを含んだ材料の色を、グレーとはグレーインク又は黒トナーで間引きながら印字した色、カラー混合とはCMY色を混合して作成した色(以下、カラー混合黒とする)を示している。カラー混合黒は、可視領域は光を吸収するが、近赤外領域の光は透過するため、近赤外領域では白紙の白として読み取れる。ここで、可視領域及び不可視領域(近赤外領域)にわたって吸収率が所定値以上の部分(画素)を、「指定領域」と定義する。一例として、吸収率40%以上の色(画素)を指定領域(黒領域)としている。
Furthermore, "visible image data" refers to image data read by a sensing device such as an image sensor that is sensitive to light from a light source in the visible wavelength range (visible light). Furthermore, "invisible image data" refers to image data read by a sensing device such as an image sensor that is sensitive to light from a light source in an invisible wavelength range such as infrared (including near-infrared) and ultraviolet rays. Although near-infrared image data (hereinafter simply referred to as near-infrared image) will be shown below as an example of "invisible image data," it is not limited to near-infrared images. As an example, an example in which near-infrared light is used as invisible light is shown (see FIG. 2). As shown in FIG. 2, a typical silicon image sensor has sensitivity in the near-infrared region (around 750 nm to 1100 nm). Therefore, since a conventionally used general-purpose image sensor can be used, it is possible to realize a simple configuration.
Black ink, black toner, or black pencil used for black text contains carbon. Carbon has the characteristic of absorbing light in the visible and infrared regions. Therefore, it can be read as black even in the visible and infrared regions. On the other hand, color inks and CMY color toners have the characteristic of transmitting light in the infrared region. This feature is shown in FIG. The horizontal axis shows the wavelength of light, and the vertical axis shows the light absorption rate. In Figure 3, black is the color of the material containing carbon as described above, gray is the color printed while thinning out with gray ink or black toner, and color mixture is the color created by mixing CMY colors (hereinafter referred to as The color mixture is black). Color mixed black absorbs light in the visible region, but transmits light in the near-infrared region, so it can be read as blank white in the near-infrared region. Here, a portion (pixel) where the absorption rate is equal to or higher than a predetermined value across the visible region and the invisible region (near infrared region) is defined as a “designated region”. As an example, a color (pixel) with an absorption rate of 40% or more is set as a designated area (black area).

図4は、読取装置の構成の一例を示す図である。読取装置1の本体10は、上面にコンタクトガラス11を有し、本体10の内部に撮像部を有する。本体10の内部には、光源13、第1キャリッジ14、第2キャリッジ15、レンズユニット16、イメージセンサ17などが備えられている。第1キャリッジ14は光源13と反射ミラー14-1とを有し、第2キャリッジ15は反射ミラー15-1、15-2を有する。また、本体10は制御ボードを備える。制御ボードは、図5に示す制御部300であり、読取装置1全体を制御する。 FIG. 4 is a diagram showing an example of the configuration of a reading device. The main body 10 of the reading device 1 has a contact glass 11 on the top surface, and has an imaging section inside the main body 10. Inside the main body 10, a light source 13, a first carriage 14, a second carriage 15, a lens unit 16, an image sensor 17, and the like are provided. The first carriage 14 has a light source 13 and a reflection mirror 14-1, and the second carriage 15 has reflection mirrors 15-1 and 15-2. The main body 10 also includes a control board. The control board is the control unit 300 shown in FIG. 5, and controls the entire reading device 1.

制御ボードは、第1キャリッジ14および第2キャリッジ15を移動させながら、光源13の光を照射するなどして、コンタクトガラス11上に配置された読取対象からの反射光をイメージセンサ17で順次読み取る。光源13の光の照射により、読取対象で反射した光は第1キャリッジ14のミラー14-1と第2キャリッジ15のミラー15-1、15-2で折り返されてレンズユニット16に入射し、レンズユニット16から出射した光がイメージセンサ17上に結像する。イメージセンサ17は、読取対象からの反射光を受光して画像信号を出力する。イメージセンサ17は、例えばCCD(Charge Coupled Device)またはCMOS(Complementary MOS)などのイメージセンサであり、読取対象の画像を読み取る読取部に相当する。 While moving the first carriage 14 and the second carriage 15, the control board irradiates light from the light source 13 and sequentially reads reflected light from the reading target placed on the contact glass 11 using the image sensor 17. . Due to the irradiation of light from the light source 13, the light reflected from the object to be read is reflected by the mirror 14-1 of the first carriage 14 and the mirrors 15-1 and 15-2 of the second carriage 15, and enters the lens unit 16, where it enters the lens unit 16. The light emitted from the unit 16 forms an image on the image sensor 17. The image sensor 17 receives reflected light from the object to be read and outputs an image signal. The image sensor 17 is, for example, an image sensor such as a CCD (Charge Coupled Device) or a CMOS (Complementary MOS), and corresponds to a reading unit that reads an image to be read.

光源13には、可視光源と近赤外光源とを設けている。イメージセンサ17は、読取対象に照射した可視光の反射光を受光して画像を出力する第1のイメージセンサと、読取対象に照射した近赤外光の反射光を受光して画像を出力する第2のイメージセンサとを有する。読取対象に対し可視光の照射で受光した画像を可視画像と呼び、読取対象に対し近赤外光の照射で受光した画像を近赤外画像と呼ぶ。なお、光源として可視光源と近赤外光源を別々に設けているが、一つの光源であってもよい。 The light source 13 is provided with a visible light source and a near-infrared light source. The image sensor 17 is a first image sensor that receives reflected light of visible light irradiated onto the reading target and outputs an image, and a first image sensor that receives reflected light of near-infrared light irradiated onto the read target and outputs an image. and a second image sensor. An image received by irradiating a reading object with visible light is called a visible image, and an image received by irradiating a reading object with near-infrared light is called a near-infrared image. Note that although a visible light source and a near-infrared light source are separately provided as light sources, a single light source may be used.

第1のイメージセンサおよび第2のイメージセンサは、可視画像と近赤外画像とをそれぞれ出力することが可能であれば、一つのイメージセンサで構成してもよいし、それぞれのイメージセンサを個別に設けてもよい。 The first image sensor and the second image sensor may be configured as a single image sensor as long as they can each output a visible image and a near-infrared image, or each image sensor may be configured individually. may be provided.

基準白板12は白補正用の部材である。 The reference white plate 12 is a member for white correction.

図4に示す読取装置1はADF(Automatic Document Feeder)20を搭載したものである。ADF20は片側を上に持ち上げると上に開き、コンタクトガラス11の面が露出する。ユーザは、コンタクトガラス11上に読取対象をセットして、ADF20を下げ、ADF20を読取対象の背面からコンタクトガラス11上の面に押し当てる。そして、スキャン開始のボタンが押されると、第1キャリッジ14と第2キャリッジ15が主走査方向および副走査方向に駆動し、読取対象全体が読み取られる。 The reading device 1 shown in FIG. 4 is equipped with an ADF (Automatic Document Feeder) 20. When one side of the ADF 20 is lifted upward, it opens upward and the surface of the contact glass 11 is exposed. The user sets the object to be read on the contact glass 11, lowers the ADF 20, and presses the ADF 20 against the surface of the contact glass 11 from the back side of the object to be read. When the scan start button is pressed, the first carriage 14 and the second carriage 15 are driven in the main scanning direction and the sub-scanning direction, and the entire object to be read is read.

また、コンタクトガラス11上に読取対象をセットして読み取る方法の他に、次の方法でも読取対象の読み取りが可能である。ADF20は、読取対象をシートスルー方式で読み取ることもできるようになっている。ADF20では、ADF20のトレイ21から読取対象の束をピックアップローラ22が1枚ずつに分離し、各種搬送ローラ24等の制御により、搬送路23を搬送する読取対象の片面または両面を読み取って排紙トレイ25に排出する。 In addition to the method of setting and reading the object to be read on the contact glass 11, the following method can also be used to read the object. The ADF 20 is also capable of reading the object to be read using a sheet-through method. In the ADF 20, a pickup roller 22 separates the bundle of objects to be read one by one from the tray 21 of the ADF 20, and by controlling various conveyance rollers 24, etc., reads one or both sides of the object to be read that is conveyed through a conveyance path 23 and discharges the sheet. It is discharged onto the tray 25.

ADF20によるシートスルー方式での読取対象の読み取りは、読取窓19を介して行う。この例では第1キャリッジ14および第2キャリッジ15を所定のホームポジションに移動して固定し、読取窓19と背景部26との間を読取対象が通過する際、読取窓19側に向けられている読取対象の表面に光源13の光を照射して画像を読み取る。読取窓19はコンタクトガラス11の一部に設けられたスリット状の読取窓である。また、背景部26は背景部材である。 The ADF 20 reads the object using the sheet-through method through the reading window 19 . In this example, the first carriage 14 and the second carriage 15 are moved to a predetermined home position and fixed, and when the object to be read passes between the reading window 19 and the background part 26, it is directed toward the reading window 19 side. The image is read by illuminating the surface of the object to be read with light from the light source 13. The reading window 19 is a slit-shaped reading window provided in a part of the contact glass 11. Further, the background portion 26 is a background member.

ADF20により読取対象の両面読取を行う場合には、読取対象が読取窓19を通過した後に、読取対象の背面側に設けられている第2の読取手段の読取モジュール27により裏面を読み取る。読取モジュール27は、光源を含む照射部と、第2の読取部である密着型イメージセンサとを有し、第2面に照射された光の反射光を密着型イメージセンサで読み取る。なお、この光源にも可視光源と近赤外光源とを設け、可視画像と近赤外画像との読み取りができるようにしてもよい。背景部材28は濃度基準部材である。 When performing double-sided reading of the object to be read using the ADF 20, after the object to be read passes through the reading window 19, the back side is read by the reading module 27 of the second reading means provided on the back side of the object to be read. The reading module 27 includes an irradiation unit including a light source and a contact type image sensor as a second reading unit, and reads reflected light of the light irradiated onto the second surface with the contact type image sensor. Note that this light source may also be provided with a visible light source and a near-infrared light source so that visible images and near-infrared images can be read. The background member 28 is a density reference member.

次に、読取装置1の制御ブロックの構成について説明する。
図5は、読取装置1の制御ブロックの構成の一例を示す図である。読取装置1は、図5に示すように、制御部300、操作パネル301、各種センサ302、スキャナモータ303、搬送路の各種モータ304、駆動モータ305、出力部306、および撮像部40を有する。その他にも各種の制御対象が接続されている。各種センサ302は、読取対象を検知するセンサである。スキャナモータ303は、本体10の第1キャリッジ14と第2キャリッジ15を駆動するモータである。搬送路の各種モータ304は、ADF20に設けられている各種モータである。出力部306は、出力部4aが画像データを外部装置に出力するための出力インターフェースに相当する。出力インターフェースは、USB等のインターフェースでもネットワークに接続する通信インターフェースでもよい。
Next, the configuration of the control block of the reading device 1 will be explained.
FIG. 5 is a diagram showing an example of the configuration of a control block of the reading device 1. As shown in FIG. As shown in FIG. 5, the reading device 1 includes a control section 300, an operation panel 301, various sensors 302, a scanner motor 303, various conveyance path motors 304, a drive motor 305, an output section 306, and an imaging section 40. Various other control objects are also connected. Various sensors 302 are sensors that detect objects to be read. The scanner motor 303 is a motor that drives the first carriage 14 and the second carriage 15 of the main body 10. The various motors 304 of the conveyance path are various motors provided in the ADF 20. The output unit 306 corresponds to an output interface through which the output unit 4a outputs image data to an external device. The output interface may be an interface such as a USB or a communication interface connected to a network.

操作パネル301は、例えばタッチパネル式の液晶表示装置である。操作パネル301は、ユーザからの各種設定や読取実行(スキャン開始)などの入力操作を操作ボタンやタッチ入力等で受け付け、対応する操作信号を制御部300に送信する。また、操作パネル301は、制御部300からの各種表示情報を表示画面に表示する。例えば、操作パネル301は、ユーザが被写体などに押された印鑑の印影を除去するための各種設定ボタンを備え、設定ボタンの入力操作があると制御部300に設定を指示する。表示画面の設定画面において印影の除去を行うか否かの選択を行うようにしてもよい。また、スキャン実行のボタンが操作されると常に印影の除去が実行されるような設定としてもよい。また、印影の除去に使用した各種データを外付けメモリに保存したり、外部装置に出力したりしてもよい。 The operation panel 301 is, for example, a touch panel type liquid crystal display device. The operation panel 301 receives input operations such as various settings and reading execution (scan start) from the user using operation buttons, touch input, etc., and transmits corresponding operation signals to the control unit 300. Further, the operation panel 301 displays various display information from the control unit 300 on the display screen. For example, the operation panel 301 includes various setting buttons for the user to remove the imprint of a seal stamped on a subject, etc., and instructs the control unit 300 to make settings when the setting button is inputted. It may be possible to select whether or not to remove the seal imprint on the setting screen of the display screen. Further, the setting may be such that the removal of the seal imprint is always executed when the scan execution button is operated. Further, various data used for removing the seal impression may be stored in an external memory or output to an external device.

撮像部40は、入力部1aに対応する。撮像部40は、光源部401と、センサチップ402と、増幅器403と、A/D404と、画像補正処理部405と、フレームメモリ406と、出力制御回路407と、I/F回路408とを有し、読取対象から読み取った画像がフレーム毎に出力制御回路407からI/F回路408を通じて制御部300に出力される。各センサチップ402は、イメージセンサ17の画素センサである。光源部401は、光源13である。 The imaging section 40 corresponds to the input section 1a. The imaging unit 40 includes a light source unit 401, a sensor chip 402, an amplifier 403, an A/D 404, an image correction processing unit 405, a frame memory 406, an output control circuit 407, and an I/F circuit 408. The image read from the object to be read is output frame by frame from the output control circuit 407 to the control unit 300 via the I/F circuit 408. Each sensor chip 402 is a pixel sensor of the image sensor 17. The light source section 401 is the light source 13.

撮像部40は、コントローラ307によって駆動される。例えば撮像部40は、コントローラ307からの点灯信号に基づいて光源部401を点灯して読取対象に可視光と近赤外光とを設定したタイミングで照射する。また、撮像部40は、イメージセンサ17のセンサ面に結像した読取対象からの光を各センサチップ402で電気信号に変換して出力する。 The imaging unit 40 is driven by a controller 307. For example, the imaging unit 40 turns on the light source unit 401 based on a lighting signal from the controller 307, and irradiates the reading target with visible light and near-infrared light at set timings. Further, the imaging unit 40 converts the light from the object to be read, which is imaged on the sensor surface of the image sensor 17, into an electrical signal using each sensor chip 402, and outputs the electrical signal.

撮像部40は、各センサチップ402から出力された画素信号を、増幅器403により増幅し、A/D404によりアナログ信号からデジタル信号に変換して画素のレベル信号を出力する。画像補正処理部405は、各画素からの出力信号に対する画像補正処理を施す。例えば画像補正処理部405は、各画素からの出力信号に対しシェーディング補正等を行う。 The imaging unit 40 amplifies the pixel signal output from each sensor chip 402 using an amplifier 403, converts the analog signal into a digital signal using an A/D 404, and outputs a pixel level signal. The image correction processing unit 405 performs image correction processing on the output signal from each pixel. For example, the image correction processing unit 405 performs shading correction and the like on the output signal from each pixel.

画像補正処理後、各データはフレームメモリ406に蓄積され、蓄積された読取画像が出力制御回路407、I/F回路408を介して制御部300に転送される。 After the image correction processing, each data is accumulated in the frame memory 406, and the accumulated read image is transferred to the control unit 300 via the output control circuit 407 and I/F circuit 408.

制御部300は、CPU(Central Processing Unit)やメモリ等を備え、CPUが装置全体を制御して読取対象に対する読取動作や、読取動作で得た読取画像に対し印影除去などの処理を実行する。
制御部300は、処理部30および黒文字領域判定部32を有する。処理部30および黒文字領域判定部32は、CPUが所定のプログラムを実行して発揮する機能部により実現することができる。また、この他にもASIC(Application Specific Integrated Circuit)等のハードウェアにより実現することもできる。
The control unit 300 includes a CPU (Central Processing Unit), a memory, and the like, and the CPU controls the entire apparatus to perform a reading operation on a reading target and processing such as seal imprint removal on a read image obtained by the reading operation.
The control section 300 includes a processing section 30 and a black character area determination section 32. The processing section 30 and the black character area determination section 32 can be realized by functional sections that are performed by the CPU by executing a predetermined program. In addition, it can also be realized by hardware such as an ASIC (Application Specific Integrated Circuit).

(印影除去について)
続いて、印影除去について詳しく説明する。読取対象として文書等を例示し、その文書等をスキャンして読み取った読取画像から、印鑑の印影を、特定色を除去する指定色除去機能を用いて除去するための構成や方法を示す。なお、黒文字に使用される黒インク、黒トナー、あるいは黒鉛筆は、カーボンを含んでいる。カーボンは赤外領域の光を吸収する特徴がある。一方、カラーインクおよびCMY色トナーは、赤外領域の光を透過する特徴がある。カラーインクやCMY色トナーのような黒以外の色を色インクや色トナーなどのように「色***」と称する場合がある。
(About seal imprint removal)
Next, seal imprint removal will be explained in detail. A document or the like is exemplified as an object to be read, and a configuration and method for removing a seal imprint from a read image obtained by scanning the document or the like using a specified color removal function that removes a specific color will be described. Note that the black ink, black toner, or black pencil used for black characters contains carbon. Carbon has the characteristic of absorbing light in the infrared region. On the other hand, color inks and CMY color toners have the characteristic of transmitting light in the infrared region. Colors other than black, such as color ink and CMY color toner, are sometimes referred to as "color ***", such as color ink and color toner.

従って、読取対象に近赤外光を照射して近赤外画像を読み取ると、紙媒体上に色成分により形成されている部分では、近赤外光が透過し、その近赤外光が紙媒体で反射するため、紙媒体が輝度値の大きい白色などの明るい色として読み取られる。 Therefore, when near-infrared light is irradiated onto the object to be read and a near-infrared image is read, the near-infrared light is transmitted through the areas formed by the color components on the paper medium, and the near-infrared light is transmitted through the paper medium. Since the light is reflected by the medium, the paper medium is read as a bright color such as white with a large luminance value.

これに対し、黒の印字領域は、可視光でも近赤外光でも光が吸収される。黒文字領域は近赤外光が吸収されるため、反射する光量が少なく、輝度値が小さい黒色として読み取られる。印影が重なっている黒文字領域も、印影を近赤外光が透過するが、印影が重なっている黒文字領域の部分で近赤外光が吸収されるため、可視光下では赤みがかった色であっても近赤外画像では同じく黒色として読み取られる。また、黒文字領域は、印影が重なっていない部分は可視光でも黒色として読み取られる。 On the other hand, in the black printed area, both visible light and near-infrared light are absorbed. Since near-infrared light is absorbed in the black text area, the amount of reflected light is small and the area is read as black with a small luminance value. Near-infrared light also passes through the black text area where the seal impressions overlap, but near-infrared light is absorbed in the black text area where the seal impressions overlap, so the color appears reddish under visible light. It is also read as black in near-infrared images. Further, in the black text area, the part where the seal impression does not overlap can be read as black even with visible light.

図6は、陰影除去に際し、黒文字を補正するための構成を模式的に示した図である。撮像部40は、図5において説明した可視光光源13-1および可視イメージセンサ17-1と、近赤外光源13-2および近赤外イメージセンサ17-2とを、それぞれ含む。撮像部40は、読取対象に可視光光源13-1の光を照射し、読取対象からの反射光を可視イメージセンサ17-1で受光して可視画像(一例としてRGB画像)を出力する。また、撮像部40は、同じ読取対象に近赤外光源13-2の光を照射し、読取対象からの反射光を近赤外イメージセンサ17-2で受光して近赤外画像(NIR画像)を出力する。撮像部40は、同じ読取対象から可視画像と近赤外画像を両方同時に読み取ることができる。なお、読取対象が同じものであれば、撮像部40は、可視画像と近赤外画像とを両方同時に読み取る必要はなく、それぞれの撮像対象の位置が一致していれば異なるタイミングでも良い。 FIG. 6 is a diagram schematically showing a configuration for correcting black characters when removing shadows. The imaging unit 40 includes the visible light source 13-1 and the visible image sensor 17-1, and the near-infrared light source 13-2 and the near-infrared image sensor 17-2, respectively, described in FIG. The imaging unit 40 irradiates the object to be read with light from the visible light source 13-1, receives reflected light from the object to be read by the visible image sensor 17-1, and outputs a visible image (an RGB image, for example). The imaging unit 40 also irradiates the same object to be read with light from the near-infrared light source 13-2, receives reflected light from the object to be read by the near-infrared image sensor 17-2, and generates a near-infrared image (NIR image). ) is output. The imaging unit 40 can simultaneously read both a visible image and a near-infrared image from the same reading target. Note that if the object to be read is the same, the imaging unit 40 does not need to read both the visible image and the near-infrared image at the same time, and they may be read at different timings as long as the positions of the respective objects to be imaged match.

処理部30は、無彩化処理部31および黒文字領域判定部32を有する。無彩化処理部31および黒文字領域判定部32は、無彩化部30-1としてまとめて示している。この構成では、処理部30の無彩化処理部31が、画像処理部2a(図1参照)に対応し、黒文字領域判定部32が特定部3a(図1参照)に対応する。
無彩化部30-1は、撮像部40が撮像したと近赤外画像を入力する。黒文字領域判定部32は、近赤外画像から黒文字領域を特定し、特定した黒文字領域の画素の位置を無彩化処理部31に出力する。無彩化処理部31は、黒文字領域判定部32が特定した黒文字領域の画素の位置に基づき可視画像上の対応する位置の色画素を無彩化する処理を行うことにより、黒文字領域に該当する部分を黒で表示させる画像データD3として、対象の色画素が無彩化されたR´G´B´画像を出力する。R´G´B´画像は、第一処理画像に相当する。
The processing section 30 includes an achromatic processing section 31 and a black character area determination section 32. The achromatic processing section 31 and the black character area determination section 32 are collectively shown as an achromatic section 30-1. In this configuration, the achromatic processing section 31 of the processing section 30 corresponds to the image processing section 2a (see FIG. 1), and the black character area determination section 32 corresponds to the identification section 3a (see FIG. 1).
The achromatic unit 30-1 receives the near-infrared image captured by the imaging unit 40 as input. The black text area determination unit 32 specifies a black text area from the near-infrared image, and outputs the position of the pixel in the specified black text area to the achromatic processing unit 31. The achromatic processing unit 31 performs a process of achromaticizing the color pixels at the corresponding position on the visible image based on the position of the pixel in the black text area specified by the black text area determination unit 32, thereby determining whether the pixel corresponds to the black text area. As image data D3 for displaying a portion in black, an R'G'B' image in which the target color pixels are achromatic is output. The R'G'B' image corresponds to the first processed image.

ここで、RGB画像は、R(Red)版画像、G(Green)版画像、およびB(Blue)版画像であり、無彩化処理部31は、R版画像、G版画像、およびB版画像のそれぞれを対象に、対象の色画素を無彩化する。R´G´B´画像は、R´版画像、G´版画像、およびB´版画像である。 Here, the RGB images are an R (Red) version image, a G (Green) version image, and a B (Blue) version image, and the achromatic processing unit 31 processes the R version image, the G version image, and the B version image. For each image, target color pixels are neutralized. The R'G'B' images are an R' version image, a G' version image, and a B' version image.

ここで無彩色を除く有彩色に対応する画素のことを色画素と呼んでいる。黒文字に印影が重なると色味が変わるため、その色画素を無彩化することにより、色味が変わっている黒文字部分を黒に復元する。これにより、印影が重なっている部分と重なっていない部分の黒文字部分を途切れなく黒で復元することができる。 Here, pixels corresponding to chromatic colors other than achromatic colors are called color pixels. When a seal imprint overlaps a black character, the color tone changes, so by making the color pixels achromatic, the black character part whose color tone has changed is restored to black. As a result, it is possible to seamlessly restore the black text in the areas where the seal impressions overlap and the areas where the seals do not overlap.

図7は、無彩化部30-1で処理される画像の説明図である。読取対象には、一例として、黒文字「株式会社印影サンプル」の一部に朱色の印影が重なっている文書を使用する。 FIG. 7 is an explanatory diagram of an image processed by the achromatic unit 30-1. As an example, a document is used as a reading target, in which a part of the black text "Seal Imprint Sample Co., Ltd." is overlapped with a vermilion seal impression.

図7(a)は、無彩化部30-1に入力される可視画像M10である。可視画像M10においては、可視光下で人の目で元の文書を見たときと同じ状態、つまり黒文字の「株式会社印影サンプル」t1の一部に朱色の印影t2が重なったままで、黒文字領域において印影t2が重なっている部分は印影t2により朱色に色味がかっている。この状態ではOCRを行っても「株式会社印影サンプル」のすべてを文字判別することができない。 FIG. 7(a) shows a visible image M10 input to the achromatic unit 30-1. In the visible image M10, the state is the same as when the original document is viewed with the human eye under visible light, that is, the vermilion stamp t2 still overlaps a part of the black text "Seal Imprint Sample Co., Ltd." t1, and the black text area is The area where the seal impression t2 overlaps has a vermilion tint due to the seal impression t2. In this state, even if OCR is performed, it is not possible to distinguish all the characters in "Seal Imprint Sample Co., Ltd.".

図7(b)は、無彩化部30-1に入力される近赤外画像M20である。近赤外画像M20は、可視画像M10と同じ黒文字の「株式会社印影サンプル」t1がすべて黒で浮き上がって示される。印影t2が重なっている黒文字部分が、近赤外光の照射により、他の黒文字部分と同様に黒に浮き上がる。黒文字領域判定部32は、近赤外画像M20を用いることで、印影t2が重なっている黒文字部分も、他の黒文字部分と同様に黒文字領域と特定することができる。 FIG. 7(b) is a near-infrared image M20 input to the achromatic unit 30-1. In the near-infrared image M20, "Seal Imprint Sample Co., Ltd." t1 in black letters, which is the same as in the visible image M10, is shown entirely in black and raised. The black text portion where the seal imprint t2 overlaps stands out in black like the other black text portions by irradiation with near-infrared light. By using the near-infrared image M20, the black text area determination unit 32 can identify the black text area where the seal imprint t2 overlaps as a black text area as well as other black text areas.

図7(c)は、可視画像M10の印影t2が重なることにより朱色を帯びた「株式会社印影サンプル」t1の黒文字領域の色画素を無彩化した後の画像、すなわち第1の処理画像M11である。可視画像M10においては印影t2が重なる「株式会社印影サンプル」t1の黒文字部分が朱色を帯びていたが、無彩化により黒になり、第1の処理画像M11のように、「株式会社印影サンプル」t1は印影が重なっている部分も重なっていない部分も途切れなく黒で復元される。 FIG. 7(c) shows an image after the color pixels in the black text area of “Seal Imprint Sample Co., Ltd.” t1, which has a vermilion tinge due to the overlap of the seal impression t2 of the visible image M10, are achromatic, that is, the first processed image M11 It is. In the visible image M10, the black text portion of "Inkaku Sample Co., Ltd." t1, which overlaps with the seal imprint t2, was tinged with vermilion, but it turned black due to achromatization, and as in the first processed image M11, the black text part of "Inkaku Sample Co., Ltd." t1 overlapped with the seal imprint t2 was tinged with vermillion. "t1 is restored in black without interruption, both in the areas where the seal impressions overlap and in the areas where they do not overlap.

図7(d)は、第1の処理画像M11を用いて特定色の除去を実行した場合の、印影除去後の画像M12である。印影t2の朱色を除去することにより、印影t2は除去されるが、黒文字の「株式会社印影サンプル」t1はかすれや欠損なく綺麗に残っている。 FIG. 7D shows an image M12 after the seal imprint has been removed when the specific color is removed using the first processed image M11. By removing the vermilion color of the seal impression t2, the seal impression t2 is removed, but the black letter "Seal Imprint Sample Co., Ltd." t1 remains clean without any fading or loss.

なお、従来方式で特定色の除去を行った場合は、このようにはならず、黒文字の「株式会社印影サンプル」はかすれや欠損が発生し、その部分のOCR認識は困難になる(図24参照)。 Note that when specific colors are removed using the conventional method, this does not happen, and the black text "Seal impression sample" will be blurred or missing, making OCR recognition of that part difficult (Figure 24 reference).

このように、本実施の形態では、無彩化処理部31と黒文字領域判定部32とを設け、可視画像と同時読取りするなどして得た近赤外画像から黒文字領域を判定し、黒文字領域と判定された可視画像上の同位置の色画素を無彩化する。 As described above, in this embodiment, the achromatic processing unit 31 and the black character area determination unit 32 are provided, and the black character area is determined from the near-infrared image obtained by simultaneous reading with the visible image, and the black character area is determined. Color pixels at the same position on the visible image determined to be achromatic.

これにより、印影の重なりにより色がついた黒文字も黒に復元されるため、後段処理で特定色の除去による印影除去を実施した場合でも黒文字のかすれや欠損を抑制することができる。従って、OCR認識率も向上することが可能になる。 As a result, black characters colored due to overlapping seal impressions are restored to black, so even when seal impression removal is performed by removing a specific color in subsequent processing, it is possible to suppress blurring and loss of black characters. Therefore, the OCR recognition rate can also be improved.

(実施の形態の変形例1)
無彩化されたRGB画像を読取装置1の装置外の外部装置に出力する場合について説明する。なお、後述する他の形態や変形例についても同様であるが、実施の形態と重複する説明は適宜省略し、主に異なる箇所について説明する。
(Modification 1 of the embodiment)
A case will be described in which a neutralized RGB image is output to an external device outside the reading device 1. Note that the same applies to other forms and modifications described later, but explanations that overlap with the embodiment will be omitted as appropriate, and different parts will be mainly explained.

ここで、読取装置1と外部装置との接続は、有線接続でも無線接続でもよい。また、読取装置1と外部装置とはUSB等の接続ケーブルで接続されてもよいし、通信インターフェースにより通信ネットワークを介して接続されてもよい。 Here, the connection between the reading device 1 and the external device may be a wired connection or a wireless connection. Further, the reading device 1 and an external device may be connected by a connection cable such as a USB, or may be connected via a communication network using a communication interface.

また、外部装置は、一例としてユーザPC等のコンピュータ構成の情報処理装置、あるいはサーバ装置等である。CPUを備え、CPUが所定のプログラムを実行するなどして、無彩化されたRGB画像からの印影除去やOCR処理等を行う。外部装置へは出力部306(図5参照)から出力される。 Further, the external device is, for example, an information processing device having a computer configuration such as a user PC, or a server device. It is equipped with a CPU, and the CPU executes a predetermined program to remove a seal imprint from a neutralized RGB image, perform OCR processing, etc. The output unit 306 (see FIG. 5) outputs the signal to the external device.

図8は、実施の形態の変形例1にかかる読取装置の構成の一例を示す図である。処理部30に画像補正部33を設ける。画像補正部33は、無彩化部30-1から出力されるR´G´B´画像に対しフィルタ処理や色補正処理等を行い、外部装置にoutR´G´B´画像を出力するように機能する。外部装置に出力される画像は、特定色の除去による印影除去が行われる前のデータである。 FIG. 8 is a diagram illustrating an example of the configuration of a reading device according to Modification 1 of the embodiment. An image correction section 33 is provided in the processing section 30. The image correction section 33 performs filter processing, color correction processing, etc. on the R'G'B' image output from the achromatic section 30-1, and outputs the outR'G'B' image to an external device. functions. The image output to the external device is data before the seal impression is removed by removing a specific color.

このように、変形例1の構成では、読取装置1から、通常のRGBスキャナ画像と同等に扱うことが可能なoutR´G´B´画像を出力することができる。outR´G´B´画像は、印影が重なった黒文字部分の無彩化処理が施されているので、後段で後処理を行う場合であっても、後段の外部装置は、印影が元々無い他の文書画像等のRGBスキャナ画像と同等に扱うことができる。また、outR´G´B´画像は、見た目も通常のRGBスキャナ画像と遜色のない品質で出力されるため、保存用途の画像として使用可能である。 In this way, with the configuration of Modification 1, the reading device 1 can output an outR'G'B' image that can be treated in the same manner as a normal RGB scanner image. The outR'G'B' image has been subjected to achromatic processing for the black text area where the seal impression overlaps, so even if post-processing is performed at a later stage, the external device at the later stage will be able to detect the area where there is no seal impression in the first place. It can be treated in the same way as an RGB scanner image such as a document image. Furthermore, since the outR'G'B' image is outputted with a quality comparable in appearance to that of a normal RGB scanner image, it can be used as an image for storage purposes.

後処理として、外部装置でOCRを実施する場合は、印影が重なった黒文字部分は無彩化処理が施されているので、特定色の除去の実施により印影を除去した後でも、文字がかすれたり欠落したりすることが少なく、OCRの誤認識を抑えることが可能である。 When performing OCR with an external device as post-processing, the black characters where the seal impression overlaps are achromatized, so even after the seal impression is removed by removing a specific color, the characters may become blurred. It is less likely to be missing, and it is possible to suppress erroneous recognition by OCR.

(実施の形態の変形例2)
無彩化されたRGB画像をOCR専用の画像として外部に出力する構成について説明する。図9は、実施の形態の変形例2にかかる読取装置の構成の一例を示す図である。
(Modification 2 of embodiment)
A configuration for outputting a neutralized RGB image to the outside as an OCR-dedicated image will be described. FIG. 9 is a diagram illustrating an example of the configuration of a reading device according to a second modification of the embodiment.

図9に示されるように、画像補正部33に、印影除去部34と、単色化処理部35とを設けている。印影除去部34は、無彩化処理まで実施したR´G´B´画像に対し、特定色の除去を実施して印影除去を行う。単色化処理部35は、OCR認識がしやすいように、印影除去後のR´´G´´B´´画像に対しK単色化処理を行う。画像補正部33から外部には、K単色化処理後の画像が出力されることになる。単色化処理後の画像は「第2の処理画像」に相当する。 As shown in FIG. 9, the image correction section 33 is provided with a seal imprint removal section 34 and a monochrome processing section 35. The seal imprint removing unit 34 performs seal imprint removal by removing a specific color from the R'G'B' image that has been subjected to the achromatic process. The monochromatic processing unit 35 performs K monochromatic processing on the R''G''B'' image after the seal imprint has been removed to facilitate OCR recognition. The image after the K monochrome processing is output from the image correction section 33 to the outside. The image after the monochromatic processing corresponds to a "second processed image."

変形例2の構成では、同一システム内において、無彩化されたR´G´B´画像に対し最適な除去パラメータを利用して印影除去を実施することができる。そのため、例えば黒文字が無彩化されていることを前提に色判定しやすい除去パラメータを使用することができ、少しくすんだ印影に対しても除去対象とすることが可能となる。従って、変形例2の構成においては、印影を除去する精度の向上が見込まれる。 In the configuration of the second modification, seal imprint removal can be performed on the achromatic R'G'B' image using the optimum removal parameters within the same system. Therefore, for example, it is possible to use a removal parameter that facilitates color determination on the premise that black characters are achromatic, and even slightly dull seal impressions can be targeted for removal. Therefore, in the configuration of Modification 2, it is expected that the accuracy of removing the seal impression will be improved.

(実施の形態の変形例3)
帳票をOCRする場合、元の帳票をエビデンスとして保管するケースが存在する。その場合は、帳票に押されている印影などの情報も残しておくことが求められる。OCRを行うのに最適な処理まで実施した画像では、文字以外の不要な情報を除去してしまっているため、エビデンスとして保存する画像としては適さない。
(Variation 3 of the embodiment)
When performing OCR on a form, there are cases where the original form is stored as evidence. In that case, information such as the impression of the seal stamped on the form must also be preserved. Images that have been processed to the optimum level for OCR have unnecessary information other than text removed, so they are not suitable as images to be saved as evidence.

そこで、変形例3では、変形例2に示すOCR専用に単色化されたOCR用画像だけでなく、OCR用の処理が実施されていない元の画像も出力できるようにした構成を示す。 Therefore, in the third modification, a configuration is shown in which not only the monochromatic OCR image shown in the second modification, but also the original image that has not been subjected to OCR processing, can be output.

図10は、実施の形態の変形例3にかかる読取装置の構成の一例を示す図である。図10に示されるように、可視イメージセンサ17-1から出力されたRGB画像は、保存用画像の出力を行うための処理部と、OCR用画像の出力を行うための処理部の両方に出力される。保存用画像の出力を行うための処理部は、図10において第2の画像処理部36に相当する。第2の画像処理部36は、可視イメージセンサ17-1から出力されたRGB画像に保存用の画像補正処理を行って、保存用のRGB画像を出力する。OCR用画像を出力するための処理部の構成は、図9に示される無彩化部30-1と画像補正部33の構成と同様であるため説明を省略する。 FIG. 10 is a diagram illustrating an example of the configuration of a reading device according to modification 3 of the embodiment. As shown in FIG. 10, the RGB image output from the visible image sensor 17-1 is output to both a processing unit for outputting an image for storage and a processing unit for outputting an image for OCR. be done. The processing unit for outputting the storage image corresponds to the second image processing unit 36 in FIG. The second image processing unit 36 performs image correction processing for storage on the RGB image output from the visible image sensor 17-1, and outputs an RGB image for storage. The configuration of the processing unit for outputting the OCR image is similar to the configurations of the achromatic unit 30-1 and the image correction unit 33 shown in FIG. 9, and therefore a description thereof will be omitted.

変形例3の構成では、一つの読取対象について、1回の読み取りで、保存用画像とOCR用画像とが共に出力される。これにより、ユーザは、PC装置などにより保存用画像とOCR画像とを共に取得することができ、保存用画像とOCR画像とをそれぞれ個別に手に入れるなどの手間を省くことができる。 In the configuration of Modification 3, for one reading target, both the storage image and the OCR image are output in one reading. As a result, the user can obtain both the storage image and the OCR image using a PC device or the like, thereby saving the user the trouble of obtaining the storage image and the OCR image separately.

なお、図10において、OCR用画像を出力するための処理部に対して、図9に示される無彩化部30-1と画像補正部33の構成を適用しているが、これは一例であり、この構成に限定されない。例えば、図8に示す構成にしてoutR´G´B´画像を出力するようにしてもよい。outR´G´B´画像は、無彩化処理は施しているが、特定色の除去は行っていない画像である。 Note that in FIG. 10, the configuration of the achromatic unit 30-1 and image correction unit 33 shown in FIG. 9 is applied to the processing unit for outputting the OCR image, but this is just an example. Yes, but not limited to this configuration. For example, the configuration shown in FIG. 8 may be used to output an outR'G'B' image. The outR'G'B' image is an image that has been subjected to achromatic processing, but no specific color has been removed.

(変形例3の実施例)
次に、変形例3を応用した実施例を示す。図11は、図10で示した装置構成を応用したデータ管理システムである。PCまたはサーバは、記憶装置を備えており、処理部30から送信されてくる保存用画像データとOCR画像データを、1セットとして保存し管理する。保存用画像データとOCR画像用データは、お互いに関係が判るように紐づけられた名称で、共通の記憶装置に管理される。本データ管理システムを用いることで、OCR画像データの原本となる画像データの紛失を防ぐことが可能となり、共通に管理することで管理が容易になるという効果を有している。
(Example of modification 3)
Next, an example to which Modification 3 is applied will be shown. FIG. 11 shows a data management system to which the device configuration shown in FIG. 10 is applied. The PC or server is equipped with a storage device, and stores and manages the storage image data and OCR image data sent from the processing unit 30 as one set. The storage image data and the OCR image data are managed in a common storage device with names linked to each other so that the relationship can be understood. By using this data management system, it is possible to prevent the image data that is the original of OCR image data from being lost, and the common management facilitates management.

(実施の形態の変形例4)
次に、変形例4として、近赤外画像において印影が薄く浮かびあがる場合の黒文字領域判定部における判定方法の変形例について説明する。
(Modification 4 of embodiment)
Next, as a fourth modification, a modification of the determination method in the black character area determination section when a seal impression stands out faintly in a near-infrared image will be described.

図12は、変形例4にかかる黒文字領域判定部32の説明図である。図12(a)に示されるように、黒文字領域判定部32は、2値化処理部3000を有する。図12(b)は、印影が薄く浮かびあがる近赤外画像の一例である。図12(b)に示されるように、近赤外画像において印影t2が薄く浮かびあがっている。既に説明したように、黒文字部分は近赤外光が吸収され、近赤外センサに受光される光量が少ないため、黒で表される。一方、印影などの色部分は近赤外光の吸収量は小さいものの、少量の吸収特性があるため、図12(b)に示されるように薄いグレーで表される場合がある。 FIG. 12 is an explanatory diagram of the black character area determination unit 32 according to the fourth modification. As shown in FIG. 12A, the black character area determination section 32 includes a binarization processing section 3000. FIG. 12(b) is an example of a near-infrared image in which a seal imprint appears faintly. As shown in FIG. 12(b), the seal imprint t2 stands out faintly in the near-infrared image. As already explained, the black text portion absorbs near-infrared light and the amount of light received by the near-infrared sensor is small, so it is represented in black. On the other hand, although a colored part such as a seal impression has a small amount of absorption of near-infrared light, it has a small amount of absorption characteristic, so it may be represented in light gray as shown in FIG. 12(b).

このような場合、近赤外画像のまま黒文字領域t1を特定するのは難しい。そこで2値化処理を行う。図12(a)に示される2値化処理部3000は、入力された赤外画像の画素の値を閾値と比較することにより、黒側の値をとる画素を黒文字領域の画素、白側の値をとる画素を、黒文字以外の非黒文字領域の画素とする2値化処理を行う。印影t2の画素が白ではないので、黒文字領域t1の画素値と印影t2の画素値との間に閾値を設定し、印影t2のみからなる画素が非黒文字領域に分類されるようにしている。なお、この閾値は三色混合の黒と区別するためにも用いることができる。 In such a case, it is difficult to specify the black text area t1 using the near-infrared image. Therefore, binarization processing is performed. The binarization processing unit 3000 shown in FIG. 12(a) compares the pixel values of the input infrared image with a threshold value, and selects pixels with values on the black side, pixels on the black text area, pixels on the white side, etc. Binarization processing is performed in which pixels that take a value are pixels in a non-black character area other than black characters. Since the pixels of the seal impression t2 are not white, a threshold is set between the pixel values of the black character area t1 and the pixel values of the seal impression t2, so that pixels consisting only of the seal impression t2 are classified into the non-black character area. Note that this threshold value can also be used to distinguish from black, which is a mixture of three colors.

黒文字領域判定部32は、このように2値化処理を行って黒文字画素と非黒文字画素の結果を、無彩化処理部31に出力する。 The black character area determination unit 32 performs the binarization process in this way and outputs the results of black character pixels and non-black character pixels to the achromatic processing unit 31.

このように、黒文字領域判定において2値化処理を利用すると、黒文字領域部と、印影などの色部との切り分けが容易になる。 In this way, when the binarization process is used to determine the black text area, it becomes easy to distinguish between the black text area and the colored part such as a seal impression.

(実施の形態の変形例5)
次に、変形例5として、黒文字領域判定部における閾値決定を行う変形例について説明する。
(Variation 5 of the embodiment)
Next, as a fifth modification, a modification in which a threshold value is determined in a black character area determination section will be described.

図13および図14は、変形例5にかかる黒文字領域判定部32において閾値の決定を行う構成の説明図である。 FIGS. 13 and 14 are explanatory diagrams of a configuration for determining a threshold value in the black character area determination unit 32 according to the fifth modification.

図13(a)は、黒文字と印影が重なった原稿の一例である。黒文字と、印影との重なり部分を拡大して示している。図13(b)は図13(a)の原稿のRGB可視画像のイメージであり、図13(c)は図13(a)の原稿の近赤外画像のイメージである。 FIG. 13(a) is an example of a document in which black characters and seal impressions overlap. The overlap between the black text and the seal impression is shown enlarged. 13(b) is an image of an RGB visible image of the original in FIG. 13(a), and FIG. 13(c) is an image of a near-infrared image of the original in FIG. 13(a).

読取装置1では、RGB画像と近赤外画像とを共に、同一の光学系(レンズ、ミラーなど)で読み取りを行う。このため、RGB画像の画質に合わせた調整を実施すると、図13(b)および図13(c)のように、RGB画像に比べ近赤外画像がボケの強い画像となる。 The reading device 1 reads both the RGB image and the near-infrared image using the same optical system (lenses, mirrors, etc.). Therefore, when adjustments are made in accordance with the image quality of the RGB image, the near-infrared image becomes more blurred than the RGB image, as shown in FIGS. 13(b) and 13(c).

つまり図13(d)に示されるように、黒文字のエッジ付近の画素変化を見ると、RGB画像に比べ近赤外画像は、よりなまった画素値変化を示す。この場合に、近赤外画像における黒文字領域判定のための2値化閾値を、原稿の地肌レベルからの変化が起こった付近に取ると、近赤外画像とRGB画像とで黒文字のエッジの位置がずれることがわかる。近赤外画像では黒文字の領域が太めに判定され、その結果、RGB画像において黒文字の領域のエッジ外側にある印影の一部を無彩化してしまう可能性がある。 In other words, as shown in FIG. 13(d), when looking at pixel changes near the edges of black characters, the near-infrared image shows more rounded pixel value changes than the RGB image. In this case, if the binarization threshold for determining the black character area in the near-infrared image is set near the area where the change from the background level of the document occurs, the position of the edge of the black character in the near-infrared image and the RGB image will be It can be seen that there is a shift. In the near-infrared image, the black character area is determined to be thicker, and as a result, there is a possibility that a part of the seal impression outside the edge of the black character area in the RGB image becomes achromatic.

そこで、図14(a)に示されるように、地肌レベル設定部37-1および黒レベル設定部37-2と、閾値決定部3500とを設ける。 Therefore, as shown in FIG. 14(a), a background level setting section 37-1, a black level setting section 37-2, and a threshold value determining section 3500 are provided.

ユーザインタフェース(UI)での設定や設計値として、システムが地肌レベルや黒レベルの設定値を予め保持しておき、閾値決定部3500が、地肌レベル設定部37-1および黒レベル設定部37-2の各設定値を元に閾値を決定する。 The system holds setting values for the background level and black level in advance as settings and design values on the user interface (UI), and the threshold value determination unit 3500 sets the background level setting unit 37-1 and the black level setting unit 37-. The threshold value is determined based on each setting value of 2.

図14(b)に示されるように、ある地肌レベルからある黒レベルへのエッジ変化において、それらの間のレベル変化量の中間領域においては、画像のボケ具合に依存せずに一定の位置となる。よって、閾値を地肌レベルと黒レベルの中間に設定することで、近赤外画像で判定された黒文字領域と、ボケ具合の異なるRGB画像での黒文字領域の位置の誤差を最小化することができる。 As shown in FIG. 14(b), when an edge changes from a certain background level to a certain black level, in the intermediate region of the amount of level change between them, the position remains constant regardless of the degree of blurring of the image. Become. Therefore, by setting the threshold between the background level and the black level, it is possible to minimize the error in the position of the black text area determined from the near-infrared image and the black text area from the RGB image with different degrees of blur. .

(実施の形態の変形例6)
次に、変形例6として、黒文字領域判定部における閾値決定を行う第2変形例について説明する。変形例5では、UIから設定された設定値や設計値で閾値決定を行った。しかし、入力される画像によって、地肌レベルや文字の黒レベルは異なる。1枚の原稿でも位置によって地肌の色や濃さ、黒文字の濃さが異なる場合がある。予め設定された値では、地肌レベルが想定のレベルよりも濃く、黒文字として検出されてしまうなど対応できないケースが存在する、そこで、変形例6では、システムが画像から地肌レベルと黒レベルとを自動検出して閾値を決定する構成を示す。
(Variation 6 of the embodiment)
Next, as a sixth modification, a second modification in which a threshold value is determined in a black character area determination section will be described. In modification 5, the threshold value was determined using the setting value and design value set from the UI. However, the background level and the black level of characters differ depending on the input image. Even on a single document, the color and density of the background and the density of black characters may vary depending on the position. With the preset values, there are cases where the background level is darker than the expected level and cannot be handled, such as being detected as black text. Therefore, in modification example 6, the system automatically determines the background level and black level from the image. A configuration for detecting and determining a threshold value is shown.

図15は、変形例6にかかる黒文字領域判定部32の構成の一例を示す図である。図15に示されるように、黒文字領域判定部32に地肌レベル検出部3600と黒レベル検出部3700とを設けている。 FIG. 15 is a diagram illustrating an example of the configuration of the black character area determination section 32 according to modification 6. As shown in FIG. 15, the black character area determination section 32 is provided with a background level detection section 3600 and a black level detection section 3700.

地肌レベル検出部3600は、近赤外画像において注目画素を設定し、注目画素に対し、任意の範囲で周辺画素を参照し、注目画素付近の地肌レベルを検出する。 The background level detection unit 3600 sets a pixel of interest in a near-infrared image, refers to surrounding pixels in an arbitrary range with respect to the pixel of interest, and detects the background level near the pixel of interest.

黒レベル検出部3700は、注目画素に対し、任意の範囲で周辺画素を参照し、注目画素付近に存在する黒文字の黒レベルを検出する。 The black level detection unit 3700 refers to surrounding pixels in an arbitrary range with respect to the pixel of interest, and detects the black level of a black character existing in the vicinity of the pixel of interest.

閾値決定部3500は、地肌レベル検出部3600と黒レベル検出部3700が検出した地肌レベルと黒レベルを用いて、閾値を決定する。2値化処理部3000は、その閾値を用いて2値化処理を行う。 The threshold determining section 3500 determines a threshold using the background level and black level detected by the background level detecting section 3600 and the black level detecting section 3700. The binarization processing unit 3000 performs binarization processing using the threshold value.

この構成では、地肌レベルと黒レベルの検出が入力される画像毎に行われるため、入力される画像によって地肌レベルや文字の黒レベルが異なる場合でも、入力される画像に応じて適切な閾値で2値化することができる。
また、この構成では、1枚の画像に対し、エリア毎に地肌レベルと黒レベルの検出を行うこともできる。そのようにエリア毎に行うことにより、エリア毎に最適な閾値を使い分けて2値化することが可能となり、精度の高い黒文字領域の抽出が可能となる。
With this configuration, the background level and black level are detected for each input image, so even if the background level and black level of characters differ depending on the input image, an appropriate threshold value can be used depending on the input image. It can be binarized.
Furthermore, with this configuration, it is also possible to detect the background level and black level for each area in one image. By performing this for each area, it becomes possible to perform binarization using an optimal threshold value for each area, and it becomes possible to extract black text areas with high accuracy.

(実施の形態の変形例7)
次に、変形例7として、無彩化処理部31の処理の一例を示す。
(Modification 7 of embodiment)
Next, as a seventh modification, an example of processing by the achromatic processing section 31 will be described.

図16は、変形例7にかかる無彩化処理部31における処理の一例を示す図である。図16に示されるように、無彩化処理部31において、RGBtоYUV変換3101と、無彩化処理3102と、YUVtоRGB変換3103とを行う。ここで、RGBtоYUV変換3101が「輝度色差変換部」に相当し、YUVtоRGB変換3103が「RGB変換部」に相当する。 FIG. 16 is a diagram illustrating an example of processing in the achromatic processing unit 31 according to Modification Example 7. As shown in FIG. 16, the achromatic processing unit 31 performs RGB to YUV conversion 3101, achromatic processing 3102, and YUV to RGB conversion 3103. Here, the RGB to YUV conversion 3101 corresponds to a "luminance and color difference conversion section", and the YUV to RGB conversion 3103 corresponds to an "RGB conversion section".

RGBtоYUV変換3101では、入力されたRGB画像を、YUV信号(輝度色差信号)に変換する。 In the RGB to YUV conversion 3101, the input RGB image is converted into a YUV signal (luminance color difference signal).

無彩化処理3102では、入力されたYUV信号に対し、黒文字領域判定の結果を参照して黒文字領域の位置の画素についてUV信号を補正し、無彩化を行う。一方、非黒文字領域の位置の画素に対しては無彩化を行わずに出力する。 In the achromatic processing 3102, the input YUV signal is achromatized by correcting the UV signal for pixels at the position of the black character area with reference to the result of the black character area determination. On the other hand, pixels located in non-black character areas are output without being achromatic.

YUVtоRGB変換3103では、無彩化後のYUV信号をRGB画像に戻す逆変換を行い、後段に無彩化後のR´G´B´画像を出力する。 In the YUV to RGB conversion 3103, an inverse conversion is performed to return the achromatic YUV signal to an RGB image, and an achromatic R'G'B' image is output to the subsequent stage.

(計算処理例) (Example of calculation process)

無彩化処理部31の計算処理の一例を以下に示す。
黒文字領域:out_Y = in_Y , out_U=0 , out_V=0
非黒文字領域:out_Y = in_Y , out_U=in_U , out_V=in_V
An example of calculation processing by the achromatic processing unit 31 is shown below.
Black character area: out_Y = in_Y, out_U=0, out_V=0
Non-black character area: out_Y = in_Y, out_U=in_U, out_V=in_V

この処理では、一度YUVのような輝度色差信号に変換することで、輝度成分は維持したまま、彩度のみ無彩に調整することが可能となり、これにより、入力画像の黒文字の濃さなどは維持した画像無彩化処理が可能となる。 In this process, once converted to a luminance color difference signal such as YUV, it is possible to adjust only the saturation to achromatic while maintaining the luminance component.This allows the intensity of black characters in the input image to be adjusted It becomes possible to maintain image achromatic processing.

なお、ここでは一例としてYUV信号に変換する例を示したが、これに限定されない。輝度と色差変換された画像で処理することができればよいので、フォーマットはYUV以外、例えばYCbYCrなどであってもよい。 Note that although an example of conversion to a YUV signal is shown here, the present invention is not limited to this. The format may be other than YUV, for example, YCbYCr, etc., as long as the image can be processed using luminance and color difference converted images.

(輝度成分の調整)
無彩化処理3102における輝度成分調整について説明する。無彩化処理部31は、無彩化の処理を実施する際に、ユーザからの設定に応じて輝度成分を切り替えてもよい。
(Adjustment of brightness component)
Luminance component adjustment in the achromatic processing 3102 will be explained. When performing the achromatic process, the achromatic processing unit 31 may switch the luminance component according to settings from the user.

図17は、無彩化処理3102の輝度成分調整を行うUI設定画面の一例を示す図である。UI設定画面1000は、設定確認タブ1001を有し、設定確認ボタン1001がタッチ操作されることにより、図17に表示されている設定情報を表示する。 FIG. 17 is a diagram showing an example of a UI setting screen for adjusting the brightness component of the achromatic processing 3102. The UI setting screen 1000 has a setting confirmation tab 1001, and when the setting confirmation button 1001 is touched, the setting information displayed in FIG. 17 is displayed.

設定情報には、文字1002のモード設定に対応した設定が表示されている。調整情報1003は、輝度成分を調整する調整情報である。 In the setting information, settings corresponding to the mode setting of character 1002 are displayed. Adjustment information 1003 is adjustment information for adjusting the luminance component.

調整情報1003は、黒文字または非黒文字を、そのまま維持、より薄くする、あるいは、より濃くするなど、輝度を調整する調整ボタンを有する。ユーザが黒文字の黒さを強調したい場合などに輝度成分調整を行う。 The adjustment information 1003 includes adjustment buttons for adjusting the brightness of black characters or non-black characters, such as keeping them as they are, making them lighter, or making them darker. The brightness component is adjusted when the user wants to emphasize the blackness of black characters.

UI設定画面1000は、それら調整ボタンにより、黒文字および非黒文字の輝度成分の設定を受け付け、スタートボタン1004がタッチ操作されると、その設定を無彩化処理部31に設定する。 The UI setting screen 1000 accepts settings for brightness components of black characters and non-black characters using these adjustment buttons, and sets the settings in the achromatic processing unit 31 when the start button 1004 is touched.

例えば黒文字「濃く」、非黒文字「薄く」と設定した場合は、次の計算処理の例のようにY成分に係数をかけ、出力値を調整する。 For example, if black characters are set to be "dark" and non-black characters are set to be "light", the output value is adjusted by multiplying the Y component by a coefficient as in the following example of calculation processing.

(計算処理例)
黒文字領域: out_Y = in_Y*0.9 , out_U=0 , out_V=0
非黒文字領域:out_Y = in_Y*1.1 , out_U=in_U , out_V=in_V
(Example of calculation process)
Black character area: out_Y = in_Y*0.9, out_U=0, out_V=0
Non-black character area: out_Y = in_Y*1.1, out_U=in_U, out_V=in_V

この調整情報により、無彩化するだけでなく、ユーザが意図した濃さに黒文字や非黒文字を調整することが可能になる。 This adjustment information makes it possible not only to make the text achromatic, but also to adjust black characters and non-black characters to the darkness intended by the user.

(実施の形態の変形例8)
次に、変形例8として、罫線等の指定色を除去するための構成について説明する。
(Modification 8 of embodiment)
Next, as a modified example 8, a configuration for removing designated colors such as ruled lines will be described.

図18および図19は、罫線等の指定色を除去するための構成の説明図である。図18(a)に示されるように、帳票は、記入欄を明確にするために罫線t3が引かれていることが多い。活字でのプリント位置のズレや、手書きの入力位置のズレにより、記入された黒文字の黒文字領域t1が罫線t3と重なることがあり得る。この状態でOCRを行うと、罫線t3が邪魔になり文字情報を適切に抽出することができない。そこで、図18(b)に示されるように、UI設定画面1000において、指定色の除去を指示する設定部1003を設ける。設定部1003は、ユーザが除去したい色を指定するための設定部である。図18(b)に示される例では、有彩色、赤、緑、青、シアン、マゼンタ、およびイエローなどの色指定ボタンが用意されており、その中から除去したい色をユーザが選択する。なお、色の種類や、色の指定方法は、これに限定されず、適宜変形してよい。 FIGS. 18 and 19 are explanatory diagrams of a configuration for removing specified colors such as ruled lines. As shown in FIG. 18(a), ruled lines t3 are often drawn on the form to make entry fields clear. Due to a misalignment in the printing position of typefaces or a misalignment in the input position of handwriting, the black character area t1 of the written black character may overlap the ruled line t3. If OCR is performed in this state, the ruled line t3 will get in the way, making it impossible to properly extract character information. Therefore, as shown in FIG. 18(b), a setting section 1003 is provided on the UI setting screen 1000 to instruct removal of the specified color. A setting section 1003 is a setting section for specifying a color that the user wants to remove. In the example shown in FIG. 18(b), color specification buttons such as chromatic colors, red, green, blue, cyan, magenta, and yellow are provided, and the user selects the color to be removed from among them. Note that the types of colors and the method of specifying colors are not limited to these, and may be modified as appropriate.

図19は、変形例8にかかる画像補正部33の構成の一例を示す図である。図19に示されるように、画像補正部33に、指定色除去部38を設けている。 FIG. 19 is a diagram illustrating an example of the configuration of the image correction section 33 according to Modification Example 8. As shown in FIG. 19, the image correction section 33 is provided with a specified color removal section 38.

指定色除去部38は、無彩化部30-1で無彩化されたR´G´B´画像に対し、UI50がUI設定画面1000を介してユーザから受け付けた指定色について除去処理を行う。 The designated color removing unit 38 performs a removal process on the R′G′B′ image that has been achromatic by the achromatic unit 30-1, regarding the designated color that the UI 50 has received from the user via the UI setting screen 1000. .

例えば罫線を除去する場合には、ユーザが設定部1003で罫線の色に対応する色を指定し、その指定色を除去することにより罫線を除去する。 For example, when removing a ruled line, the user specifies a color corresponding to the color of the ruled line in the setting unit 1003, and removes the specified color by removing the ruled line.

このような構成により、罫線などを除去することが可能となり、OCR認識時の文字誤認識を抑える効果がある。 Such a configuration makes it possible to remove ruled lines and the like, and has the effect of suppressing character recognition errors during OCR recognition.

(実施の形態の変形例9)
OCR用画像の出力時に、単色化処理後の画像を多値画像として出力する構成を示す。
(Modification 9 of embodiment)
A configuration is shown in which an image after monochrome processing is output as a multivalued image when outputting an image for OCR.

図20は、変形例9にかかる構成の一例を示す図である。図20に示されるように、単色化処理部35から単色化画像を出力する場合に、2値ではなく、多値の単色化画像を出力する。他値の単色化画像は、一例としてグレースケール画像である。 FIG. 20 is a diagram illustrating an example of a configuration according to modification example 9. As shown in FIG. 20, when outputting a monochrome image from the monochrome processing unit 35, a multi-valued monochrome image is output instead of a binary image. The monochromatic image of other values is, for example, a grayscale image.

このように多値を出力することで、文字周辺の詳細情報も失われずに後段のOCRソフトにデータを渡すことが可能であり、後段のOCRソフトで高度な2値化処理などを実施している場合は、その処理を活かすことが可能になり、OCR認識率のさらなる向上につなげることが可能となる。 By outputting multiple values in this way, it is possible to pass the data to the subsequent OCR software without losing detailed information around the characters, and the subsequent OCR software can perform advanced binarization processing. If there is, it becomes possible to take advantage of that processing, leading to further improvement in the OCR recognition rate.

また、図20には、単色化画像のみのシングル画像出力の構成を示しているが、図10に示されるようなRGB画像を含むマルチイメージ画像の出力にも適用可能である。 Further, although FIG. 20 shows a configuration for outputting a single image of only a monochrome image, it is also applicable to outputting a multi-image image including RGB images as shown in FIG.

(実施の形態の変形例10)
OCR用画像の出力時に、単色化処理後の画像に対し2値化処理を行い、2値画像として出力する構成を示す。
(Modification 10 of the embodiment)
A configuration is shown in which, when outputting an image for OCR, binarization processing is performed on the image after monochrome processing and output as a binary image.

図21は、変形例10にかかる構成の一例を示す図である。図21に示されるように、画像補正部33に、2値化処理部39を設ける。 FIG. 21 is a diagram illustrating an example of a configuration according to modification 10. As shown in FIG. 21, the image correction section 33 is provided with a binarization processing section 39.

単色化処理部35から出力された単色化処理後の画像に対し、2値化処理部39が2値化処理を行い、単色化画像として2値の画像を出力する。 The binarization processing unit 39 performs binarization processing on the monochrome-processed image output from the monochrome processing unit 35, and outputs a binary image as a monochrome image.

このように2値の画像を出力とすることでデータ量を減らす効果がある。また、画像補正部33の中で2値化処理を実施することで、読取装置に適したパラメータで2値化を行うことが可能である。この場合、後段のOCRソフトが備える2値化処理が精度の低い方式の場合であっても、読取装置側で2値化を行ってデータを渡すため、OCRソフトが備える2値化の精度によらず、OCR認識率の向上につなげることが可能となる。 Outputting a binary image in this way has the effect of reducing the amount of data. Further, by performing the binarization process in the image correction unit 33, it is possible to perform the binarization using parameters suitable for the reading device. In this case, even if the binarization process provided by the subsequent OCR software is a low-accuracy method, the reading device performs the binarization and passes the data, so the accuracy of the binarization provided by the OCR software cannot be improved. However, it is possible to improve the OCR recognition rate.

また、図21においても、単色化画像のみのシングル画像出力の構成を示しているが、図10に示されるようなRGB画像を含むマルチイメージ画像の出力にも適用可能である。 Further, although FIG. 21 also shows a configuration for outputting a single image of only a monochrome image, it is also applicable to outputting a multi-image image including RGB images as shown in FIG.

(第2の実施の形態)
第1の実施の形態に示す読取装置1または外部装置が行う、可視画像に対する印影除去のための処理の一部またはすべてを、画像処理装置で行ってもよい。
(Second embodiment)
A part or all of the process for removing a seal imprint from a visible image, which is performed by the reading device 1 or the external device shown in the first embodiment, may be performed by an image processing device.

図22は、第2の実施の形態にかかる画像処理装置を含むシステムの構成の一例を示す図である。画像処理装置2は、読取装置1が出力する可視画像と不可視画像を入力して印影除去のための処理を行う。また、画像処理装置2は、サーバSSに保存された可視画像と不可視画像とを取得して、印影除去のための処理を行ってもよい。また、画像処理装置2は、半導体メモリ等の可搬型記憶媒体DAから可視画像と不可視画像とを読み取って、印影除去のための処理を行ってもよい。 FIG. 22 is a diagram illustrating an example of the configuration of a system including the image processing device according to the second embodiment. The image processing device 2 inputs the visible image and the invisible image output by the reading device 1 and performs processing for removing the seal impression. Further, the image processing device 2 may acquire the visible image and the invisible image stored in the server SS and perform processing for removing the seal impression. Further, the image processing device 2 may read a visible image and an invisible image from a portable storage medium DA such as a semiconductor memory, and perform processing for removing the seal impression.

画像処理装置2は、CPUを備え、CPUが所定のプログラムを実行するなどして、処理部30および黒文字領域判定部32などに対応する機能や、画像からの印影除去やOCR処理等を行う各種機能を発揮することができる。なお、各種の機能の一部またはすべてをASIC(Application Specific Integrated Circuit)等のハードウェアにより実現してもよい。画像処理装置2は、出力部からPC等の外部装置へ各種の画像を出力する。 The image processing device 2 includes a CPU, and the CPU executes a predetermined program to perform various functions such as the processing section 30 and the black character area determination section 32, as well as removing seal impressions from images, OCR processing, etc. be able to perform its functions. Note that some or all of the various functions may be realized by hardware such as an ASIC (Application Specific Integrated Circuit). The image processing device 2 outputs various images from an output unit to an external device such as a PC.

各種機能については、第1の実施の形態において読取装置と外部装置とを例に説明済みであるため、ここでのさらなる説明は省略する。 Since the various functions have already been explained using the reading device and the external device as examples in the first embodiment, further explanation will be omitted here.

(第3の実施の形態)
第1の実施の形態に示す読取装置や、第2の実施の形態に示す画像処理装置は、画像形成装置に搭載してもよい。
(Third embodiment)
The reading device shown in the first embodiment and the image processing device shown in the second embodiment may be installed in an image forming apparatus.

図23は、第3の実施の形態にかかる画像形成装置の構成の一例を示す図である。図23は一般に複合機(MFP)と称される画像形成装置3を一例として示している。図23に示す画像形成装置3は、上部に読取装置(読取装置本体10およびADF20)を備える。読取装置の構成については第1の実施の形態の説明の繰り返しになるため、ここでは詳しい説明は省略する。 FIG. 23 is a diagram illustrating an example of the configuration of an image forming apparatus according to the third embodiment. FIG. 23 shows an example of an image forming apparatus 3 generally referred to as a multifunction peripheral (MFP). The image forming apparatus 3 shown in FIG. 23 includes a reading device (reading device main body 10 and ADF 20) on the top. Since the configuration of the reading device is a repetition of the description of the first embodiment, detailed description thereof will be omitted here.

図23に示す画像形成装置3は、読取装置本体10の下方に画像形成部80および給紙部90を有する。 The image forming apparatus 3 shown in FIG. 23 has an image forming section 80 and a paper feeding section 90 below the reading device main body 10.

画像形成部80は、読取装置本体10で読み取った読取画像を、記録媒体の一例である記録紙に印刷する。読取画像は、可視画像または近赤外画像である。 The image forming unit 80 prints the read image read by the reading device main body 10 on recording paper, which is an example of a recording medium. The read image is a visible image or a near-infrared image.

画像形成部80は、光書込装置81や、タンデム方式の作像ユニット(Y、M、C、K)82や、中間転写ベルト83や、二次転写ベルト84などを有する。画像形成部80では、印刷対象の画像について光書込装置81が作像ユニット82の感光体ドラム820に画像を書き込み、各感光体ドラム820から中間転写ベルト83上にそれぞれの版のトナー画像を転写する。K版はカーボンブラックを含有するKトナーで形成される。 The image forming section 80 includes an optical writing device 81, a tandem image forming unit (Y, M, C, K) 82, an intermediate transfer belt 83, a secondary transfer belt 84, and the like. In the image forming section 80, an optical writing device 81 writes an image to be printed on the photosensitive drum 820 of the image forming unit 82, and transfers the toner image of each plate from each photosensitive drum 820 onto the intermediate transfer belt 83. Transcribe. The K plate is formed with K toner containing carbon black.

作像ユニット(Y、M、C、K)82は、回転可能な4つの感光体ドラム(Y、M、C、K)820を有し、各感光体ドラム820の周囲に、帯電ローラ、現像器、一次転写ローラ、クリーナーユニット、及び除電器を含む作像要素をそれぞれ備える。各感光体ドラム820の周囲で各作像要素が所定の作像プロセスで動作することにより、各感光体ドラム820上に画像が形成され、各感光体ドラム820に形成された画像が一次転写ローラにより中間転写ベルト83上にそれぞれトナー画像として転写される。 The image forming unit (Y, M, C, K) 82 has four rotatable photoreceptor drums (Y, M, C, K) 820, and around each photoreceptor drum 820, a charging roller and a developing roller are arranged. Each image forming element includes an image forming apparatus, a primary transfer roller, a cleaner unit, and a static eliminator. An image is formed on each photoreceptor drum 820 by each image forming element operating in a predetermined image forming process around each photoreceptor drum 820, and the image formed on each photoreceptor drum 820 is transferred to the primary transfer roller. As a result, each toner image is transferred onto the intermediate transfer belt 83 as a toner image.

中間転写ベルト83は、各感光体ドラム820と各一次転写ローラとの間のニップに、駆動ローラと従動ローラとにより張架して配置されている。中間転写ベルト83に一次転写されたトナー画像は、中間転写ベルト83の走行により、二次転写装置で二次転写ベルト84上の記録紙に二次転写される。その記録紙は、二次転写ベルト84の走行により、定着装置85に搬送され、記録紙上にトナー画像が定着する。その後、記録紙は、機外の排紙トレイへと排出される。 The intermediate transfer belt 83 is disposed in a nip between each photoreceptor drum 820 and each primary transfer roller, and is stretched between a driving roller and a driven roller. The toner image that has been primarily transferred to the intermediate transfer belt 83 is secondarily transferred to the recording paper on the secondary transfer belt 84 by a secondary transfer device as the intermediate transfer belt 83 runs. The recording paper is conveyed to a fixing device 85 by the running of the secondary transfer belt 84, and the toner image is fixed on the recording paper. Thereafter, the recording paper is ejected to a paper ejection tray outside the machine.

なお、記録紙は、例えば給紙部90が用紙サイズの異なる記録紙を収納する給紙カセット91、92から所定の記録紙を繰り出して、各種ローラからなる搬送手段93で搬送して二次転写ベルト84に供給する。 Note that the recording paper is, for example, fed by the paper feed section 90 from paper feed cassettes 91 and 92 that store recording paper of different paper sizes, and transported by a conveying means 93 consisting of various rollers for secondary transfer. It is supplied to the belt 84.

なお、画像形成部80は、上述したような電子写真方式によって画像を形成するものに限るものではなく、インクジェット方式によって画像を形成するものであってもよい。
また、画像形成装置は、MFPに限定されない。画像形成装置は、例えば、別体である画像処理装置が生成した画像データを通信を介するなどして受信し、受信した画像データを印刷するプリンタなどでもよい。
Note that the image forming section 80 is not limited to one that forms images using the electrophotographic method as described above, but may also form images using an inkjet method.
Further, the image forming apparatus is not limited to an MFP. The image forming device may be, for example, a printer that receives image data generated by a separate image processing device via communication and prints the received image data.

以上、本発明の実施の形態および変形例を説明したが、各実施の形態および変形例は、例として提示したものであり、発明の範囲を限定することは意図していない。これらの新規な実施の形態および変形例は、その他の様々な形態で実施されることが可能であり、発明の要旨を逸脱しない範囲で、種々の省略、置き換え、変更を行うことができる。これらの各実施の形態および変形例は、発明の範囲や要旨に含まれるとともに、特許請求の範囲に記載された発明とその均等の範囲に含まれる。 Although the embodiments and modified examples of the present invention have been described above, each embodiment and modified example are presented as examples, and are not intended to limit the scope of the invention. These novel embodiments and modifications can be implemented in various other forms, and various omissions, substitutions, and changes can be made without departing from the gist of the invention. Each of these embodiments and modifications are included within the scope and gist of the invention, as well as within the scope of the invention described in the claims and its equivalents.

本発明の態様は、例えば、以下のとおりである。
<1> 被写体を可視波長域の光源の光に感度をもつセンサで読み取った可視画像データおよび前記被写体を不可視波長域の光源の光に感度をもつセンサで読み取った不可視画像データが入力される入力部と、
前記可視画像データの、前記不可視画像データにおける所定の吸収率以上の部分である指定領域に該当する部分を指定色で表示させる画像データを生成する画像処理部と、
を有する画像処理装置。
<2> 前記画像処理部が生成した前記画像データを外部装置に出力する出力部をさらに有する
<1>に記載の画像処理装置。
<3> 前記出力部は、前記被写体の前記可視画像データと、前記画像処理部が生成した前記画像データとを前記外部装置に出力する
<2>に記載の画像処理装置。
<4> 前記画像処理部が生成した前記画像データから指定色を除去する指定色除去部と、
前記指定色の除去後の画像データに単色化処理を行う単色化処理部と、
をさらに有し、
前記出力部は、前記単色化処理後の画像データを前記外部装置に出力する
<2>または<3>に記載の画像処理装置。
<5> 前記指定色除去部は、ユーザが設定した指定色を、前記画像処理部が生成した前記画像データから除去する
<4>に記載の画像処理装置。
<6> 前記単色化処理部で単色化された画像データを多値画像データとして出力する
<4>または<5>に記載の画像処理装置。
<7> 前記単色化処理部で単色化された画像データを2値化した2値画像データを出力する
<4>または<5>に記載の画像処理装置。
<8> 前記不可視画像データに基づいて所定の吸収率以上の部分を指定領域と特定する特定部を有し、
前記特定部は、前記不可視画像データの2値化処理により前記指定領域を決定する
<1>乃至<7>のうちの何れか一に記載の画像処理装置。
<9> 前記特定部は、
設定された地肌レベルおよび黒レベルに基づき閾値を決定する閾値決定部を有し、
前記閾値決定部が決定した閾値を基準に前記2値化処理を行う
<8>に記載の画像処理装置。
<10> 前記閾値決定部は、
前記被写体の可視画像データの地肌レベルを検出する地肌レベル検出部と、
前記被写体の可視画像データの黒レベルを検出する黒レベル検出部と
を有し、
前記地肌レベル検出部で検出した地肌レベルと前記黒レベル検出部で検出した黒レベルとに基づき前記被写体の前記可視画像データの各領域に対応する前記閾値を決定する
<9>に記載の画像処理装置。
<11> 前記画像処理部は、
RGB画像データを輝度色差データに変換する輝度色差変換部を有し、
輝度色差信号に対して、前記可視画像データの前記指定領域に該当する部分を前記指定色で表示させる処理を行い、前記処理後の信号データを再度RGB画像データに変換するRGB変換部を有する
<1>乃至<10>のうちの何れか一に記載の画像処理装置。
<12> 前記画像処理部は、輝度信号に対して、ユーザが設定した輝度成分調整の設定値に応じて、輝度成分の出力値を調整する
<11>に記載の画像処理装置。
<13> 前記画像処理部は、前記可視画像データの前記指定領域に該当する部分を表示する前記指定色を黒とする、
<1>乃至<12>のうちの何れか一に記載の画像処理装置。
<14> <1>乃至<13>のうちの何れか一に記載の画像処理装置と、
前記被写体に可視波長の光を照射する可視光源と、
前記被写体に不可視波長の光を照射する不可視光源と、
前記被写体からの可視波長の反射光を受光し、可視画像データを出力する第一のイメージセンサと、
前記被写体からの不可視波長の反射光を受光し、不可視画像データを出力する第二のイメージセンサと、
を有する読取装置。
<15> 前記画像処理部は、
前記第二のイメージセンサが出力した前記不可視画像データと、前記第一のイメージセンサが出力した前記可視画像データとを入力する
<14>に記載の読取装置。
<16> <1>乃至<13>のうちの何れか一に記載の画像処理装置、あるいは、<14>または<15>に記載の読取装置と、
前記画像処理部で生成した前記画像データに基づき画像を形成する画像形成部と、
を有する画像形成装置。
<17> <3>または<4>に記載の画像処理装置と、
前記画像処理装置から送信される、前記可視画像データと、前記画像処理部が生成した前記画像データとを、紐づけて管理する情報処理装置と、
を有するデータ管理システム。
<18> 被写体を可視波長域の光源の光に感度をもつセンサで読み取った可視画像データを画像処理する方法であって、
前記被写体の前記可視画像データおよび前記被写体を不可視波長域の光源の光に感度をもつセンサで読み取った不可視画像データを入力するステップと、
前記可視画像データの、前記不可視画像データにおける所定の吸収率以上の部分である指定領域に該当する部分を指定色で表示させる画像データを生成するステップと、
を含む方法。
<19> 被写体を可視波長域の光源の光に感度をもつセンサで読み取った可視画像データおよび前記被写体を不可視波長域の光源の光に感度をもつセンサで読み取った不可視画像データが入力される入力部と、
前記可視画像データの、前記不可視画像データにおけるカーボンを材料として含む画像である指定領域に該当する部分を指定色で表示させる画像データを生成する画像処理部と、
を有する画像処理装置。
Aspects of the present invention are, for example, as follows.
<1> An input into which visible image data of the subject is read by a sensor sensitive to light from a light source in the visible wavelength range and invisible image data is read by a sensor sensitive to the light of the light source in the invisible wavelength range. Department and
an image processing unit that generates image data that causes a portion of the visible image data that corresponds to a designated area, which is a portion of the invisible image data that has an absorption rate of at least a predetermined value, to be displayed in a designated color;
An image processing device having:
<2> The image processing device according to <1>, further comprising an output unit that outputs the image data generated by the image processing unit to an external device.
<3> The image processing device according to <2>, wherein the output unit outputs the visible image data of the subject and the image data generated by the image processing unit to the external device.
<4> a designated color removal unit that removes a designated color from the image data generated by the image processing unit;
a monochrome processing unit that performs monochrome processing on the image data after the specified color has been removed;
It further has
The image processing device according to <2> or <3>, wherein the output unit outputs the image data after the monochrome processing to the external device.
<5> The image processing device according to <4>, wherein the specified color removal unit removes a specified color set by a user from the image data generated by the image processing unit.
<6> The image processing device according to <4> or <5>, wherein the image data monochromated by the monochromatic processing section is output as multivalued image data.
<7> The image processing device according to <4> or <5>, which outputs binary image data obtained by binarizing image data monochromated by the monochromatic processing section.
<8> A specifying unit that specifies a portion having a predetermined absorption rate or more as a designated area based on the invisible image data,
The image processing device according to any one of <1> to <7>, wherein the specifying unit determines the designated area by binarizing the invisible image data.
<9> The specific part is
It has a threshold value determination unit that determines a threshold value based on the set background level and black level,
The image processing device according to <8>, wherein the binarization process is performed based on the threshold determined by the threshold determining unit.
<10> The threshold value determination unit includes:
a background level detection unit that detects a background level of visible image data of the subject;
a black level detection unit that detects a black level of visible image data of the subject;
The image processing according to <9>, wherein the threshold value corresponding to each region of the visible image data of the subject is determined based on the background level detected by the background level detection unit and the black level detected by the black level detection unit. Device.
<11> The image processing unit includes:
It has a luminance-chrominance conversion unit that converts RGB image data into luminance-chrominance data,
The apparatus includes an RGB conversion unit that performs processing on the luminance color difference signal to display a portion of the visible image data that corresponds to the specified area in the specified color, and converts the processed signal data into RGB image data again. The image processing device according to any one of items 1> to <10>.
<12> The image processing device according to <11>, wherein the image processing unit adjusts the output value of the brightness component of the brightness signal according to a brightness component adjustment setting value set by the user.
<13> The image processing unit sets the designated color for displaying the portion of the visible image data that corresponds to the designated area to be black.
The image processing device according to any one of <1> to <12>.
<14> The image processing device according to any one of <1> to <13>;
a visible light source that irradiates the subject with light of a visible wavelength;
an invisible light source that irradiates the subject with light of an invisible wavelength;
a first image sensor that receives visible wavelength reflected light from the subject and outputs visible image data;
a second image sensor that receives reflected light of an invisible wavelength from the subject and outputs invisible image data;
A reading device having a
<15> The image processing unit includes:
The reading device according to <14>, wherein the invisible image data output by the second image sensor and the visible image data output by the first image sensor are input.
<16> The image processing device according to any one of <1> to <13>, or the reading device according to <14> or <15>,
an image forming unit that forms an image based on the image data generated by the image processing unit;
An image forming apparatus having:
<17> The image processing device according to <3> or <4>;
an information processing device that links and manages the visible image data transmitted from the image processing device and the image data generated by the image processing unit;
A data management system with
<18> A method of image processing visible image data obtained by reading a subject with a sensor sensitive to light from a light source in the visible wavelength range,
inputting the visible image data of the subject and invisible image data obtained by reading the subject with a sensor sensitive to light from a light source in an invisible wavelength range;
generating image data for displaying a portion of the visible image data that corresponds to a designated area, which is a portion of the invisible image data that has an absorption rate of at least a predetermined value, in a designated color;
method including.
<19> An input into which visible image data of the subject is read by a sensor sensitive to light from a light source in the visible wavelength range and invisible image data is input in which the subject is read by a sensor sensitive to light from a light source in the invisible wavelength range. Department and
an image processing unit that generates image data that causes a portion of the visible image data that corresponds to a designated area of the invisible image data that is an image containing carbon as a material to be displayed in a designated color;
An image processing device having:

00 画像処理装置
1a 入力部
2a 画像処理部
3a 特定部
4a 出力部
13-1 可視光源
13-2 近赤外光源
17-1 可視イメージセンサ
17-2 近赤外イメージセンサ
30-1 無彩化部
31 無彩化処理部
32 黒文字領域判定部
40 撮像部
D1 可視画像データ
D2 不可視画像データ
D3 画像データ
00 Image processing device 1a Input section 2a Image processing section 3a Specification section 4a Output section 13-1 Visible light source 13-2 Near-infrared light source 17-1 Visible image sensor 17-2 Near-infrared image sensor 30-1 Achromatic section 31 Achromatic processing unit 32 Black character area determination unit 40 Imaging unit D1 Visible image data D2 Invisible image data D3 Image data

特開平11-205618号公報Japanese Patent Application Publication No. 11-205618

Claims (19)

被写体を可視波長域の光源の光に感度をもつセンサで読み取った可視画像データおよび前記被写体を不可視波長域の光源の光に感度をもつセンサで読み取った不可視画像データが入力される入力部と、
前記可視画像データの、前記不可視画像データにおける所定の吸収率以上の部分である指定領域に該当する部分を指定色で表示させる画像データを生成する画像処理部と、
を有する画像処理装置。
an input section into which visible image data of the subject is read by a sensor sensitive to light from a light source in the visible wavelength range and invisible image data read by a sensor sensitive to the light of the light source in the invisible wavelength range are input;
an image processing unit that generates image data that causes a portion of the visible image data that corresponds to a designated area, which is a portion of the invisible image data that has an absorption rate of at least a predetermined value, to be displayed in a designated color;
An image processing device having:
前記画像処理部が生成した前記画像データを外部装置に出力する出力部をさらに有する
請求項1に記載の画像処理装置。
The image processing apparatus according to claim 1, further comprising an output section that outputs the image data generated by the image processing section to an external device.
前記出力部は、前記被写体の前記可視画像データと、前記画像処理部が生成した前記画像データとを前記外部装置に出力する
請求項2に記載の画像処理装置。
The image processing device according to claim 2, wherein the output unit outputs the visible image data of the subject and the image data generated by the image processing unit to the external device.
前記画像処理部が生成した前記画像データから指定色を除去する指定色除去部と、
前記指定色の除去後の画像データに単色化処理を行う単色化処理部と、
をさらに有し、
前記出力部は、前記単色化処理後の画像データを前記外部装置に出力する
請求項2に記載の画像処理装置。
a designated color removal unit that removes a designated color from the image data generated by the image processing unit;
a monochrome processing unit that performs monochrome processing on the image data after the specified color has been removed;
It further has
The image processing device according to claim 2, wherein the output unit outputs the image data after the monochromatic processing to the external device.
前記指定色除去部は、ユーザが設定した指定色を、前記画像処理部が生成した前記画像データから除去する
請求項4に記載の画像処理装置。
The image processing apparatus according to claim 4, wherein the specified color removal section removes a specified color set by a user from the image data generated by the image processing section.
前記単色化処理部で単色化された画像データを多値画像データとして出力する
請求項4に記載の画像処理装置。
The image processing apparatus according to claim 4, wherein the image data monochromated by the monochromatic processing section is outputted as multivalued image data.
前記単色化処理部で単色化された画像データを2値化した2値画像データを出力する
請求項4に記載の画像処理装置。
5. The image processing apparatus according to claim 4, wherein the image processing unit outputs binary image data obtained by binarizing the monochromatic image data in the monochromatic processing section.
前記不可視画像データに基づいて所定の吸収率以上の部分を指定領域と特定する特定部を有し、
前記特定部は、前記不可視画像データの2値化処理により前記指定領域を決定する
請求項1に記載の画像処理装置。
a specifying unit that specifies a portion having an absorption rate of a predetermined value or higher as a designated area based on the invisible image data;
The image processing device according to claim 1, wherein the specifying unit determines the designated area by binarizing the invisible image data.
前記特定部は、
設定された地肌レベルおよび黒レベルに基づき閾値を決定する閾値決定部を有し、
前記閾値決定部が決定した閾値を基準に前記2値化処理を行う
請求項8に記載の画像処理装置。
The specific part is
It has a threshold value determination unit that determines a threshold value based on the set background level and black level,
The image processing device according to claim 8, wherein the binarization process is performed based on the threshold determined by the threshold determining unit.
前記閾値決定部は、
前記被写体の可視画像データの地肌レベルを検出する地肌レベル検出部と、
前記被写体の可視画像データの黒レベルを検出する黒レベル検出部と
を有し、
前記地肌レベル検出部で検出した地肌レベルと前記黒レベル検出部で検出した黒レベルとに基づき前記被写体の前記可視画像データの各領域に対応する前記閾値を決定する
請求項9に記載の画像処理装置。
The threshold value determination unit includes:
a background level detection unit that detects a background level of visible image data of the subject;
a black level detection unit that detects a black level of visible image data of the subject;
The image processing according to claim 9, wherein the threshold value corresponding to each region of the visible image data of the subject is determined based on the background level detected by the background level detection unit and the black level detected by the black level detection unit. Device.
前記画像処理部は、
RGB画像データを輝度色差データに変換する輝度色差変換部を有し、
輝度色差信号に対して、前記可視画像データの前記指定領域に該当する部分を前記指定色で表示させる処理を行い、前記処理後の信号データを再度RGB画像データに変換するRGB変換部を有する
請求項1に記載の画像処理装置。
The image processing unit includes:
It has a luminance-chrominance conversion unit that converts RGB image data into luminance-chrominance data,
The apparatus further comprises an RGB conversion unit that performs processing on the luminance color difference signal to display a portion of the visible image data that corresponds to the specified area in the specified color, and converts the processed signal data into RGB image data again. Item 1. The image processing device according to item 1.
前記画像処理部は、輝度信号に対して、ユーザが設定した輝度成分調整の設定値に応じて、輝度成分の出力値を調整する
請求項11に記載の画像処理装置。
The image processing device according to claim 11, wherein the image processing unit adjusts the output value of the brightness component of the brightness signal according to a brightness component adjustment setting value set by a user.
前記画像処理部は、前記可視画像データの前記指定領域に該当する部分を表示する前記指定色を黒とする、
請求項1に記載の画像処理装置。
The image processing unit sets the specified color for displaying a portion of the visible image data that corresponds to the specified area to be black.
The image processing device according to claim 1.
請求項1乃至13のうちの何れか一項に記載の画像処理装置と、
前記被写体に可視波長の光を照射する可視光源と、
前記被写体に不可視波長の光を照射する不可視光源と、
前記被写体からの可視波長の反射光を受光し、可視画像データを出力する第一のイメージセンサと、
前記被写体からの不可視波長の反射光を受光し、不可視画像データを出力する第二のイメージセンサと、
を有する読取装置。
An image processing device according to any one of claims 1 to 13;
a visible light source that irradiates the subject with light of a visible wavelength;
an invisible light source that irradiates the subject with light of an invisible wavelength;
a first image sensor that receives visible wavelength reflected light from the subject and outputs visible image data;
a second image sensor that receives reflected light of an invisible wavelength from the subject and outputs invisible image data;
A reading device having a
前記画像処理部は、
前記第二のイメージセンサが出力した前記不可視画像データと、前記第一のイメージセンサが出力した前記可視画像データとを入力する
請求項14に記載の読取装置。
The image processing unit includes:
The reading device according to claim 14, wherein the invisible image data output by the second image sensor and the visible image data output by the first image sensor are input.
請求項1乃至13のうちの何れか一項に記載の画像処理装置と、
前記画像処理部で生成した前記画像データに基づき画像を形成する画像形成部と、
を有する画像形成装置。
An image processing device according to any one of claims 1 to 13;
an image forming unit that forms an image based on the image data generated by the image processing unit;
An image forming apparatus having:
請求項3または4に記載の画像処理装置と、
前記画像処理装置から送信される、前記可視画像データと、前記画像処理部が生成した前記画像データとを、紐づけて管理する情報処理装置と、
を有するデータ管理システム。
An image processing device according to claim 3 or 4;
an information processing device that links and manages the visible image data transmitted from the image processing device and the image data generated by the image processing unit;
A data management system with
被写体を可視波長域の光源の光に感度をもつセンサで読み取った可視画像データを画像処理する方法であって、
前記被写体の前記可視画像データおよび前記被写体を不可視波長域の光源の光に感度をもつセンサで読み取った不可視画像データを入力するステップと、
前記可視画像データの、前記不可視画像データにおける所定の吸収率以上の部分である指定領域に該当する部分を指定色で表示させる画像データを生成するステップと、
を含む方法。
A method of image processing visible image data obtained by reading a subject with a sensor sensitive to light from a light source in the visible wavelength range,
inputting the visible image data of the subject and invisible image data obtained by reading the subject with a sensor sensitive to light from a light source in an invisible wavelength range;
generating image data for displaying a portion of the visible image data that corresponds to a designated area, which is a portion of the invisible image data that has an absorption rate of at least a predetermined value, in a designated color;
method including.
被写体を可視波長域の光源の光に感度をもつセンサで読み取った可視画像データおよび前記被写体を不可視波長域の光源の光に感度をもつセンサで読み取った不可視画像データが入力される入力部と、
前記可視画像データの、前記不可視画像データにおけるカーボンを材料として含む画像である指定領域に該当する部分を指定色で表示させる画像データを生成する画像処理部と、
を有する画像処理装置。
an input section into which visible image data of the subject is read by a sensor sensitive to light from a light source in the visible wavelength range and invisible image data read by a sensor sensitive to the light of the light source in the invisible wavelength range are input;
an image processing unit that generates image data that causes a portion of the visible image data that corresponds to a designated area of the invisible image data that is an image containing carbon as a material to be displayed in a designated color;
An image processing device having:
JP2023012946A 2022-03-23 2023-01-31 Image processing apparatus, reading device, image forming apparatus, data management system, and method Pending JP2023143726A (en)

Priority Applications (3)

Application Number Priority Date Filing Date Title
CN202310245369.8A CN116805955A (en) 2022-03-23 2023-03-14 Image processing apparatus, image processing method, image reading apparatus, image forming apparatus, and data management system
US18/123,348 US12063337B2 (en) 2022-03-23 2023-03-20 Image processing apparatus, scanner, image forming apparatus, data management system, and image processing method
EP23162872.8A EP4250712A1 (en) 2022-03-23 2023-03-20 Image processing apparatus, scanner, image forming apparatus, and image processing method

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2022046423 2022-03-23
JP2022046423 2022-03-23

Publications (1)

Publication Number Publication Date
JP2023143726A true JP2023143726A (en) 2023-10-06

Family

ID=88219711

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2023012946A Pending JP2023143726A (en) 2022-03-23 2023-01-31 Image processing apparatus, reading device, image forming apparatus, data management system, and method

Country Status (1)

Country Link
JP (1) JP2023143726A (en)

Similar Documents

Publication Publication Date Title
CN112135003B (en) Image processing apparatus, image forming apparatus, and image processing method
US8422091B2 (en) Image reading apparatus, image data output processing apparatus, and image reading method
CN112135004B (en) Image processing apparatus, image forming apparatus, and image processing method
CN113810557B (en) Image processing apparatus and image reading method
US8593707B2 (en) Image reading apparatus, image data output processing apparatus, and image reading method performing color correction based on UV and visible light
US20060082846A1 (en) Image processing apparatus, image processing program
US11553108B2 (en) Reading device, image forming apparatus, and method
EP3876509A1 (en) Reading device, image processing apparatus, and method of detecting feature amount
US11457121B2 (en) Reading device, image forming apparatus, and color mixture prevention method
US20220294925A1 (en) Image reading apparatus
JP2010157916A (en) Image reader, and wrinkle region determination method in the same, and program
US20060082833A1 (en) Image forming device, image processing device and image producing program
JP2023143726A (en) Image processing apparatus, reading device, image forming apparatus, data management system, and method
US20080187244A1 (en) Image processing apparatus and image processing method
US12063337B2 (en) Image processing apparatus, scanner, image forming apparatus, data management system, and image processing method
JP2024146731A (en) Image processing device, reading device, image forming device, data management system, biological imaging device and method
US20240333862A1 (en) Image processing device, reading device, image forming apparatus, data management system, biological imaging apparatus, and image processing method
JP2022059534A (en) Reading device, image forming apparatus, and correction method
CN116805955A (en) Image processing apparatus, image processing method, image reading apparatus, image forming apparatus, and data management system
JP7424203B2 (en) Image inspection equipment, image forming system, and control program
JP7559371B2 (en) Image reading device, image forming device, and image reading method
JP2021180397A (en) Image processing apparatus, control program, and control method
JP2023133084A (en) Image generation device, image forming apparatus, image forming method, program, and image generation system
JP2022129239A (en) Image processing apparatus, image forming apparatus, and method
JP2018085622A (en) Color processing apparatus, image forming apparatus, and image forming system