Nothing Special   »   [go: up one dir, main page]

JPH10336470A - Image reader - Google Patents

Image reader

Info

Publication number
JPH10336470A
JPH10336470A JP9147519A JP14751997A JPH10336470A JP H10336470 A JPH10336470 A JP H10336470A JP 9147519 A JP9147519 A JP 9147519A JP 14751997 A JP14751997 A JP 14751997A JP H10336470 A JPH10336470 A JP H10336470A
Authority
JP
Japan
Prior art keywords
image
line
filter
processing means
attribute
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP9147519A
Other languages
Japanese (ja)
Inventor
Hidetoshi Ikeda
英敏 池田
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Panasonic Holdings Corp
Original Assignee
Matsushita Electric Industrial Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Matsushita Electric Industrial Co Ltd filed Critical Matsushita Electric Industrial Co Ltd
Priority to JP9147519A priority Critical patent/JPH10336470A/en
Publication of JPH10336470A publication Critical patent/JPH10336470A/en
Pending legal-status Critical Current

Links

Landscapes

  • Transforming Electric Information Into Light Information (AREA)
  • Facsimile Image Signal Circuits (AREA)
  • Color Image Communication Systems (AREA)

Abstract

PROBLEM TO BE SOLVED: To provide an image reader capable of reducing the capacity of a delay memory. SOLUTION: This reader is provided with a read means of color image data by a three-line image sensor, a line correction processing means 21 that corrects an inter-line distance of the three-line image sensor, an in-area attribute discrimination processing means 22 that divides a read image M×N areas and discriminates the attribute of the image in each divided area as a character/ a photograph/a dot or the like, and a filter processing means 24 that applies two-dimension filter processing to the read image. Then the line correction processing means 21 and the in-area attribute discrimination processing means 22 receives the input image signal at the same time and conduct parallel processing on the circuit configuration.

Description

【発明の詳細な説明】DETAILED DESCRIPTION OF THE INVENTION

【0001】[0001]

【発明の属する技術分野】本発明は、カラーファクシミ
リ、カラーディジタル複写機、カラースキャナ等に用い
られるカラーの原稿画像の読み取りを行なうことができ
る画像読み取り装置に関するものである。
BACKGROUND OF THE INVENTION 1. Field of the Invention The present invention relates to an image reading apparatus capable of reading a color original image used in a color facsimile, a color digital copying machine, a color scanner and the like.

【0002】[0002]

【従来の技術】近年、カラースキャナを始めとして、カ
ラーディジタル複写機、カラーファクシミリ装置やカラ
ー電子ファイリング装置などのカラー画像を扱う機会が
増えてきた。これらの装置では、画像入力手段として
の、3ラインイメージセンサにより副走査方向に走査
し、原稿の画像データを3ラインイメージセンサにより
出力されるRGBに色分解し、1ライン毎に順次読み取
っていくことのできる画像読み取り装置が主流となって
きている。
2. Description of the Related Art In recent years, there have been increasing opportunities to handle color images such as color scanners, color digital copying machines, color facsimile machines and color electronic filing machines. In these apparatuses, scanning is performed in the sub-scanning direction by a three-line image sensor as image input means, image data of a document is color-separated into RGB output by the three-line image sensor, and sequentially read line by line. An image reading device capable of reading the image has become mainstream.

【0003】カラー画像を読み取るためには、光原色を
変えながら色分解し1ラインのセンサで読み取るタイプ
の装置や、あるいは1ラインセンサの受光部分において
画素単位に色フィルタをおいてカラー読み取りを行うタ
イプの装置もあるが、読み取りの速度や解像度の面で
は、3ラインイメージセンサの各ラインセンサ上に色フ
ィルタを置き色分解するタイプの装置の方が性能がよ
い。
In order to read a color image, an apparatus of the type that separates the color while changing the light primary color and reads it with a one-line sensor, or performs color reading with a color filter for each pixel in the light receiving portion of the one-line sensor. There are devices of the type, but in terms of reading speed and resolution, a device of the type in which a color filter is placed on each line sensor of a three-line image sensor and performs color separation has better performance.

【0004】以下、このような色分解フィルタを装備し
た3ラインイメージセンサを用いた従来の画像読み取り
装置について図面を参照しながら説明する。図9は従来
の画像読み取り装置の構成図である。図9に示すよう
に、画像読み取り装置は、原稿1を載置する原稿載置ガ
ラス2と、画像の読み取り開始前に画像処理手段にシェ
ーディング補正のための白基準データを与える白基準板
4と、原稿1を走査してライン毎に逐次、原稿1を読み
取るキャリッジ5とを有する。キャリッジ5は、支持シ
ャフト6上に連結され、キャリッジ5の動きは、原稿1
の読み取り方向だけに限定される。キャリッジを移動さ
せる場合は、駆動モータ7の回転が、駆動ワイヤ8、駆
動プーリ9、従動プーリ10を通じて、キャリッジ5の
直線方向の駆動力として伝達される。なお、駆動ワイヤ
8に張力を与えるためにスプリングなどの張力発生部材
11が接続されている。
Hereinafter, a conventional image reading apparatus using a three-line image sensor equipped with such a color separation filter will be described with reference to the drawings. FIG. 9 is a configuration diagram of a conventional image reading apparatus. As shown in FIG. 9, the image reading apparatus includes a document placing glass 2 on which a document 1 is placed, and a white reference plate 4 that supplies white reference data for shading correction to an image processing unit before starting image reading. And a carriage 5 that scans the original 1 and sequentially reads the original 1 line by line. The carriage 5 is connected on a support shaft 6, and the movement of the carriage 5
Is limited to only the reading direction. When the carriage is moved, the rotation of the drive motor 7 is transmitted as a linear driving force of the carriage 5 through the drive wire 8, the drive pulley 9, and the driven pulley 10. Note that a tension generating member 11 such as a spring is connected to apply a tension to the drive wire 8.

【0005】キャリッジ5は、原稿1を照射する光源1
2と、原稿1からの反射光を規制するアパーチャ13
と、反射ミラー14と、3ラインイメージセンサ17上
の照度分布を均一化するシェーディング補正板15と、
原稿1を3ラインイメージセンサ17上に結像させる結
像レンズ16と、原稿1からの反射像を読み取り、電気
信号に変換する3ラインイメージセンサ17を備える。
[0005] The carriage 5 includes a light source 1 for irradiating the original 1.
2 and an aperture 13 for regulating the reflected light from the original 1
A reflection mirror 14, a shading correction plate 15 for equalizing the illuminance distribution on the three-line image sensor 17,
An image forming lens 16 for forming an image of the original 1 on a three-line image sensor 17 and a three-line image sensor 17 for reading a reflected image from the original 1 and converting the image into an electric signal are provided.

【0006】図10は従来の電気回路ブロック図であ
る。図10に示すように、このものは、3ラインイメー
ジセンサ17から得られるイメージ信号を増幅し、3ラ
インイメージセンサ17の画素毎の変動を補正するサン
プリング回路などを含むアナログ処理手段18と、A/
D変換器19と、シェーディング補正処理手段20と、
ライン補正処理手段21と、色補正処理手段23と、領
域内属性判別処理手段22と、フィルタ処理手段24
と、読み取りデータを一時的に蓄えるバッファメモリ2
5と、外部機器とのデータの授受を行なうインターフェ
イス26から構成される。実際の装置では、3ラインイ
メージセンサ17やA/D変換器19などの動作を制御
するタイミング発生回路、全電気回路の制御を行なうC
PU、CPUの制御プログラムが格納されているRO
M、CPUのワーク用のRAM、各種制御対象物のオン
/オフや制御対象物の状態を観測するためのI/Oポー
ト、光源12を点灯させるための駆動回路、キャリッジ
駆動モータ13の駆動回路等も必要だが、省略し図示し
ていない。
FIG. 10 is a block diagram of a conventional electric circuit. As shown in FIG. 10, the analog signal processing means includes an analog processing means 18 including a sampling circuit for amplifying an image signal obtained from the three-line image sensor 17 and correcting a variation of each pixel of the three-line image sensor 17, and the like. /
A D converter 19, a shading correction processing means 20,
Line correction processing means 21, color correction processing means 23, area attribute discrimination processing means 22, filter processing means 24
And a buffer memory 2 for temporarily storing read data
5 and an interface 26 for exchanging data with an external device. In an actual device, a timing generation circuit for controlling the operations of the three-line image sensor 17 and the A / D converter 19 and a C for controlling all electric circuits are provided.
RO in which control programs for PU and CPU are stored
M, RAM for work of CPU, I / O port for monitoring on / off of various control objects and state of control objects, drive circuit for turning on light source 12, drive circuit for carriage drive motor 13 Are also required, but are omitted and not shown.

【0007】また、図11は従来の電気回路ブロック図
であり、3ラインイメージセンサ17の略式構造を示
す。3ラインイメージセンサ17は、ある一定の間隔を
もって3ラインに分割しており、3本のセンサの上には
有機フィルタ等によりR、G、Bの色フィルタが蒸着さ
れている。ここでは、Rのセンサを先頭に読み取りを行
うものとする。
FIG. 11 is a block diagram of a conventional electric circuit, and shows a schematic structure of a three-line image sensor 17. The three-line image sensor 17 is divided into three lines at a certain interval, and R, G, and B color filters are deposited on the three sensors by an organic filter or the like. Here, it is assumed that reading is performed with the R sensor at the top.

【0008】以上の様に構成された画像読み取り装置に
ついて、以下にその動作を図9、図10を参照しながら
説明する。まず、外部ホスト(図示せず)より原稿1の
読み取り命令が出されると、駆動モータ7を回動させ、
駆動プーリ9及び駆動ワイヤ8にて連結されたキャリッ
ジ5を、白基準板4の位置まで移動させる。その位置に
達したことを検出すると、CPUはキャリッジ5を停止
させ、光源12を点灯させる。
The operation of the image reading apparatus constructed as described above will be described below with reference to FIGS. First, when an external host (not shown) issues a command to read the document 1, the drive motor 7 is rotated,
The carriage 5 connected by the drive pulley 9 and the drive wire 8 is moved to the position of the white reference plate 4. When detecting that the position has been reached, the CPU stops the carriage 5 and turns on the light source 12.

【0009】光源12を点灯後、3ラインイメージセン
サ17によりその位置に配置された白色基準板4の読み
取り動作を開始する。3ラインイメージセンサ17のR
GB出力信号は、アナログ処理手段18により増幅され
てA/D変換器19に入力される。A/D変換されたデ
ータは、後で説明するシェーディング補正に使うため、
メモリ(図示せず)に保存される。白基準板4の読み取
りが終了した後、CPUは、再びキャリッジ5を一定速
度で移動させる。
After the light source 12 is turned on, the reading operation of the white reference plate 4 arranged at that position by the three-line image sensor 17 is started. R of 3-line image sensor 17
The GB output signal is amplified by the analog processing means 18 and input to the A / D converter 19. The A / D converted data is used for shading correction described later.
Stored in a memory (not shown). After the reading of the white reference plate 4 is completed, the CPU moves the carriage 5 again at a constant speed.

【0010】CPUはキャリッジ5が原稿1の読み取り
開始点に達したことを検出すると、3ラインイメージセ
ンサ17の画像読み取り動作を再開する。そして、光源
12よりの光束は、原稿1の読み取り部に照射され、原
稿1の読み取り部の反射像がキャリッジ5内に入射す
る。この反射像は、反射ミラー14で光路を変更して、
照度分布を均一化するシェーディング補正板15を通過
後、レンズ16で3ラインイメージセンサ17に結像
し、データとして取り込まれる。
When the CPU detects that the carriage 5 has reached the reading start point of the original 1, the CPU starts the image reading operation of the three-line image sensor 17 again. The light beam from the light source 12 is applied to the reading section of the original 1, and the reflected image of the reading section of the original 1 enters the carriage 5. This reflected image changes the optical path with the reflecting mirror 14, and
After passing through a shading correction plate 15 for uniformizing the illuminance distribution, an image is formed on a three-line image sensor 17 by a lens 16 and captured as data.

【0011】その後、3ラインイメージセンサ17のR
GB出力は、A/D変換器19にてディジタルデータに
変換される。この画像データに対して、先に保存してお
いた白基準データを基にシェーディング補正演算が行な
われる。シェーディング補正後の画像データは、3ライ
ンイメージセンサ17のRGBの読み取り位置のずれに
起因するデータの遅延を補正するため、ライン補正処理
手段21によりRGBの遅延補正を行う。
Thereafter, the R of the three-line image sensor 17
The A / D converter 19 converts the GB output into digital data. A shading correction operation is performed on the image data based on the previously stored white reference data. The image data after the shading correction is corrected by the line correction processing unit 21 to correct the RGB delay in order to correct the data delay caused by the shift of the RGB reading position of the three-line image sensor 17.

【0012】次に、RGBデータの色補正を色補正処理
手段23で行った後、領域内属性判別処理手段22によ
り、読み取りデータをM×Nの領域に分割し、その領域
内で画像の属性(文字/写真/網点等)を判別し、その
判別結果をもとにフィルタ処理手段24で適応フィルタ
処理を行う。そして、バッファメモリ25に順次取り込
まれ、インターフェース26を通じて出力される。
Next, after the color correction of the RGB data is performed by the color correction processing means 23, the read data is divided into M × N areas by the in-area attribute discriminating processing means 22, and the attribute of the image is set in the area. (Characters / photographs / halftone dots, etc.), and based on the result of the determination, the filter processing means 24 performs adaptive filter processing. Then, the data is sequentially taken into the buffer memory 25 and output through the interface 26.

【0013】原稿1の読み取り終了部までキャリッジ5
を移動すると、読み取りは終了し、光源12は消灯され
るとともに、駆動モータ13を駆動し、キャリッジ5を
原稿1の読み取り開始部へ移動させ動作を終了する。以
上の動作により2次元の原稿1のカラー画像を平面的に
読み取っていくことができる。
The carriage 5 reaches the end of reading the original 1.
When the is moved, the reading is terminated, the light source 12 is turned off, and the drive motor 13 is driven to move the carriage 5 to the reading start portion of the document 1 to finish the operation. With the above operation, the two-dimensional color image of the document 1 can be read two-dimensionally.

【0014】ここで、ライン補正処理手段21・領域内
属性判別処理手段22・フィルタ処理手段24について
詳細に説明を加える。図12は従来のライン補正処理ブ
ロック図である。ライン補正処理手段21は、RGBの
データの入力遅延を補正する訳だが、このため、データ
を遅延させるための遅延メモリが必要になる。27a、
27b、27cはそれぞれRGBのデータ遅延メモリで
ある。今、3ラインイメージセンサ17のセンサ間隔を
600dpi単位で8ライン離れていたとする。また、
3ラインイメージセンサ17の画素数を5000画素と
する。
Here, the line correction processing means 21, the area attribute discrimination processing means 22, and the filter processing means 24 will be described in detail. FIG. 12 is a block diagram of a conventional line correction processing. The line correction processing means 21 corrects the input delay of the RGB data. For this reason, a delay memory for delaying the data is required. 27a,
27b and 27c are RGB data delay memories, respectively. Now, it is assumed that the sensor interval of the three-line image sensor 17 is eight lines apart in units of 600 dpi. Also,
The number of pixels of the three-line image sensor 17 is 5000 pixels.

【0015】読み取りの最後端であるBセンサのデータ
入力時刻にそれ以外のR、Gセンサのデータを遅延させ
るとしたら、Rは16ライン遅延させるので80KBの
遅延メモリ容量が必要になり、Gは8ライン遅延させる
ので40KBの遅延メモリ容量が必要になる。Bは遅延
の必要が無いため遅延メモリは不要となる。
If the data of the other R and G sensors are to be delayed at the data input time of the B sensor, which is the last end of reading, R is delayed by 16 lines, so that a delay memory capacity of 80 KB is required. The delay of eight lines requires a delay memory capacity of 40 KB. Since B does not require a delay, a delay memory is not required.

【0016】図13は従来の領域内属性判別処理ブロッ
ク図である。色補正処理手段23を通過したRGBデー
タのうち、Gデータを領域内属性判別処理手段22への
入力とする。これは、Green信号が解像度に間して
他の色よりも感度が高いためである。G信号は、間引き
処理手段32でデータが間引かれる。これは、少ないデ
ータ量で判別する領域サイズを大きく取るためである。
今、主走査・副走査共に1画素おきに間引き処理を行う
ものとする。したがって、間引き処理後は300dpi
になる。
FIG. 13 is a block diagram of a conventional area attribute discrimination process. The G data of the RGB data that has passed through the color correction processing unit 23 is input to the in-region attribute determination processing unit 22. This is because the Green signal is more sensitive than the other colors in terms of resolution. The data of the G signal is thinned out by the thinning processing means 32. This is to increase the size of the area determined with a small amount of data.
Now, it is assumed that the thinning process is performed every other pixel in both the main scanning and the sub-scanning. Therefore, after the thinning-out processing, 300 dpi
become.

【0017】次に、MTF処理用ウインドウ形成処理手
段33とMTFウインドウメモリ28で、2次元のウイ
ンドウが形成される。ここでは、3×3のウインドウサ
イズとしMTF処理手段34でMTFの改善が行われる
ものとする。MTF処理後のデータにより、領域内属性
判別ウインドウ形成処理手段35と領域内属性判別ウイ
ンドウメモリ29でM×Nのウインドウが形成され、領
域内属性判別処理手段36で文字/写真/網点等の属性
が判別される。
Next, a two-dimensional window is formed by the MTF processing window forming means 33 and the MTF window memory 28. Here, it is assumed that the MTF is improved by the MTF processing means 34 with a window size of 3 × 3. Based on the data after the MTF processing, an M × N window is formed by the in-region attribute discrimination window forming processing means 35 and the in-region attribute discrimination window memory 29, and the in-region attribute discrimination processing means 36 forms characters / photos / halftone dots. Attributes are determined.

【0018】ここで、図14は従来の領域内での画像属
性を示す図である。判別ウインドウを8×8画素とす
る。図14(a)は、文字の場合であるが、これはMT
F処理したデータのエッジ成分を分析し、エッジが線状
につながっていることにより文字と判別できる。図14
(b)は、写真の場合であるが、これはMTF処理した
データのエッジ成分を分析しエッジが存在しないことに
より写真と判別できる。図14(c)は、網点の場合で
あるが、これはMTF処理したデータのエッジ成分を分
析し、エッジが粒状に存在していることにより網点と判
別できる。
FIG. 14 is a diagram showing image attributes in a conventional area. The determination window is 8 × 8 pixels. FIG. 14A shows the case of a character, which is MT
The edge component of the F-processed data is analyzed, and it can be determined that the character is a character by connecting the edges linearly. FIG.
(B) shows the case of a photograph, in which the edge component of the data subjected to the MTF processing is analyzed, and it can be determined that the photograph is a photograph because there is no edge. FIG. 14C shows a case of a halftone dot. The edge component of the data subjected to the MTF processing is analyzed, and it can be determined that the halftone dot exists because the edge exists in a granular form.

【0019】ところで、領域内属性判別処理手段22で
は、MTF処理用ウインドウ形成処理手段33と領域内
属性判別用ウインドウ形成処理手段35により、副走査
方向に300dpi単位で8ライン遅延してしまう。6
00dpi単位換算では16ライン遅延となる。この判
別遅延にRGB読み取りデータを合わせるため、RGB
読み取りデータ自身を、図13のデータ遅延処理手段3
7と遅延メモリ38で遅延させる必要がある。このため
に必要な遅延メモリ容量は240KBにもなる。
By the way, in the in-region attribute discriminating processing means 22, the MTF processing window forming processing means 33 and the in-region attribute discriminating window forming processing means 35 delay eight lines in units of 300 dpi in the sub-scanning direction. 6
When converted to 00 dpi units, the delay is 16 lines. In order to match the RGB read data to the discrimination delay, the RGB
The read data itself is transferred to the data delay processing unit 3 of FIG.
7 and the delay memory 38. The required delay memory capacity is as large as 240 KB.

【0020】図15は従来のフィルタ処理ブロック図、
図16は従来の回路ブロック図である。最後に、フィル
タ処理手段24の内部ブロックについて説明する。デー
タ遅延処理手段37によって遅延されたRGBデータに
基づいて、フィルタウインドウ形成処理手段39とフィ
ルタウインドウメモリ30により、ウインドウが形成さ
れる。このウインドウをもとに、フィルタ処理手段40
でフィルタがかけられる。ここには、先に領域内属性判
別処理手段22の属性判別結果に従い、文字の場合
(a)に示すハイパスフィルタが施され、写真の場合
(b)に示す弱いハイパスフィルタが施され、網点の場
合(c)に示すローパスフィルタが施される。
FIG. 15 is a block diagram of a conventional filtering process.
FIG. 16 is a conventional circuit block diagram. Finally, an internal block of the filter processing unit 24 will be described. Based on the RGB data delayed by the data delay processing unit 37, a window is formed by the filter window formation processing unit 39 and the filter window memory 30. Based on this window, the filter processing means 40
Is filtered. According to the attribute discrimination result of the in-region attribute discrimination processing means 22, a high-pass filter shown in FIG. 6A is applied to a character, a weak high-pass filter shown in FIG. In the case (1), a low-pass filter shown in (c) is applied.

【0021】[0021]

【発明が解決しようとする課題】しかしながら、従来の
画像読み取り装置では、領域内属性判別処理のために読
み取りデータを遅延させる必要があるため、大容量の遅
延メモリが必要となってしまう。
However, in the conventional image reading apparatus, it is necessary to delay the read data for the attribute discrimination processing within the area, so that a large-capacity delay memory is required.

【0022】そこで本発明は、遅延メモリの容量を削減
できる画像読み取り装置を提供することを目的とする。
Accordingly, an object of the present invention is to provide an image reading apparatus capable of reducing the capacity of a delay memory.

【0023】[0023]

【課題を解決するための手段】本発明は、3ラインイメ
ージセンサによるカラー画像データの読み取り手段と、
3ラインイメージセンサのライン間距離を補正するライ
ン補正処理手段と、読み取り画像をM×Nに領域に区分
し、区分けされた各領域内で文字/写真/網点等の画像
の属性を判別する領域内属性判別手段と、読み取り画像
に2次元のフィルタをかけるフィルタ手段とを備えてい
る。この構成により、遅延メモリの容量を削減できる画
像読み取り装置を実現できる。
SUMMARY OF THE INVENTION The present invention provides a means for reading color image data by a three-line image sensor,
Line correction processing means for correcting the distance between lines of the three-line image sensor, and the read image is divided into M × N regions, and image attributes such as characters / photos / halftone dots are determined in each of the divided regions. The image processing apparatus includes an in-region attribute determining unit and a filtering unit that applies a two-dimensional filter to the read image. With this configuration, an image reading device that can reduce the capacity of the delay memory can be realized.

【0024】[0024]

【発明の実施の形態】請求項1記載の発明は、3ライン
イメージセンサによるカラー画像データの読み取り手段
と、3ラインイメージセンサのライン間距離を補正する
ライン補正処理手段と、読み取り画像をM×Nに領域に
区分し、区分けされた各領域内で文字/写真/網点等の
画像の属性を判別する領域内属性判別手段と、読み取り
画像に2次元のフィルタをかけるフィルタ手段とを備え
てている。この構成により、読み取り画像に対し、適切
なフィルタ処理を行うことができ、読み取り画質の向上
が図れる。
According to the first aspect of the present invention, there is provided a means for reading color image data by a three-line image sensor, a line correction processing means for correcting a distance between lines of the three-line image sensor, and a method for reading a read image by M × An area attribute discriminating unit for discriminating image attributes such as characters, photographs, and halftone dots in each of the divided regions; and a filter unit for applying a two-dimensional filter to the read image. ing. With this configuration, an appropriate filter process can be performed on the read image, and the read image quality can be improved.

【0025】請求項2記載の発明では、ライン補正処理
手段と領域内属性判別手段とは、入力画像信号を同時刻
に入力し、回路構成上並列処理を行う。これにより、ラ
イン補正に必要な遅延のライン数分だけ領域内属性判別
に伴う遅延を削減することが可能となる。
According to the second aspect of the present invention, the line correction processing means and the in-area attribute discriminating means input the input image signal at the same time and perform parallel processing on the circuit configuration. As a result, it is possible to reduce the delay associated with the in-region attribute determination by the number of delay lines required for line correction.

【0026】請求項3記載の発明では、領域内属性判別
手段の判別結果に応じて、フィルタ手段のフィルタの種
類やフィルタの係数を制御する。これにより、読み取り
画像に対し、適切なフィルタ処理を行うことができ、読
み取り画質の向上が図れる。
According to the third aspect of the present invention, the type of the filter of the filter means and the coefficient of the filter are controlled in accordance with the result of the determination by the attribute determination means in the area. As a result, it is possible to perform an appropriate filtering process on the read image, and to improve the read image quality.

【0027】請求項4記載の発明では、フィルタ手段
は、領域内属性判別手段の判別結果とは無関係に、外部
より設定されたフィルタの種類やフィルタの係数を選択
可能とした。これにより、ユーザーが意図した通りに読
み取り画像全体をシャープにしたりソフトにしたりする
ことも可能となる。
According to the fourth aspect of the present invention, the filter means is capable of selecting a filter type and a filter coefficient set from outside, independently of the result of the determination by the in-region attribute determining means. This makes it possible to sharpen or soften the entire read image as intended by the user.

【0028】請求項5記載の発明では、3ラインイメー
ジセンサの先頭読み取り色を、領域内属性判別手段の入
力画像信号の色と一致させる。ライン補正に必要な遅延
のうち最大遅延の生じるセンサのライン数分だけ領域内
属性判別に伴う遅延を削減することが可能となる。
According to the fifth aspect of the present invention, the head reading color of the three-line image sensor is made to match the color of the input image signal of the area attribute discriminating means. It is possible to reduce the delay due to the attribute determination in the area by the number of sensor lines where the maximum delay occurs among the delays required for the line correction.

【0029】請求項6記載の発明では、ライン補正処理
手段に使用する遅延メモリと、領域内属性判別手段で使
用するMTFウインドウメモリと、領域内属性判別手段
で使用する前記M×N領域のウインドウメモリとを、兼
用する。これにより、ライン補正に必要な遅延のライン
数分だけ領域内属性判別に伴う遅延を削減することが可
能で、しかも領域内属性判別の内部のMTFウインドウ
メモリと領域内属性判別ウインドウメモリを兼用するた
め新たに設ける必要がなくなる。
According to the present invention, the delay memory used in the line correction processing means, the MTF window memory used in the area attribute discriminating means, and the window of the M × N area used in the area attribute discriminating means. The memory is also used. This makes it possible to reduce the delay associated with the intra-region attribute discrimination by the number of lines required for the line correction, and to use both the MTF window memory inside the intra-region attribute discrimination and the intra-region attribute discrimination window memory. Therefore, there is no need to provide a new one.

【0030】以下、本発明の実施の形態1について、図
1〜図4を用いて説明する。図1は本発明の実施の形態
1の画像読み取り装置の構成図、図2は本発明の実施の
形態1の電気回路ブロック図、図3は同データ処理ポイ
ントの説明図である。ここで、図1、図2において従来
技術を示す図9、図10と同様の構成要素については、
同一符号を付すことにより説明を省略する。
Hereinafter, the first embodiment of the present invention will be described with reference to FIGS. FIG. 1 is a configuration diagram of an image reading device according to a first embodiment of the present invention, FIG. 2 is a block diagram of an electric circuit according to the first embodiment of the present invention, and FIG. 3 is an explanatory diagram of the same data processing points. Here, in FIG. 1 and FIG. 2, the same components as those in FIG. 9 and FIG.
The description is omitted by attaching the same reference numerals.

【0031】次に、従来技術との相違点のみを説明す
る。図2に示すように、シェーディング補正後のRGB
データは、一方でライン補正処理手段21に入力され、
もう一方で、G信号のみを領域内属性判別処理手段22
に入力する。このときのデータの位置関係を図3(本発
明の実施の形態1のデータ処理ポイントの説明図)に示
す。図3において、細線のメッシュは600dpiの解
像度で表現した画素を表わす。
Next, only differences from the prior art will be described. As shown in FIG. 2, RGB after shading correction
The data is input to the line correction processing means 21 on the one hand,
On the other hand, only the G signal is used for the in-area attribute determination
To enter. The positional relationship of the data at this time is shown in FIG. 3 (an explanatory diagram of the data processing point according to the first embodiment of the present invention). In FIG. 3, the mesh of the thin line represents a pixel expressed at a resolution of 600 dpi.

【0032】このメッシュのうえに2×2画素単位で表
現した太枠のメッシュは、領域内属性判別処理手段22
の前処理にある間引き処理により300dpi化された
ことを表わす。この300dpi単位で8×8画素のウ
インドウサイズは画像属性判別をおこなう8×8領域を
示している。画像属性判別は、G信号で判定されるの
で、領域内属性判別処理手段22に、この領域以上にG
信号が入力されれば属性判定が実施されたことになる。
いま、8×8領域から副走査方向に1ライン、主走査方
向に2画素過ぎた時点で判定が終了するものとすると、
図3に示すR、G、Bのポイントのデータがライン補正
処理手段21に入力されている時点で判定が終了してい
ることになる。
The mesh of a thick frame expressed in units of 2 × 2 pixels on this mesh is processed by the attribute determination processing means 22 in the area.
Means that 300 dpi has been achieved by the thinning-out processing in the pre-processing. The window size of 8 × 8 pixels in units of 300 dpi indicates an 8 × 8 area for performing image attribute determination. Since the image attribute determination is made based on the G signal, the in-region attribute determination processing means 22 outputs
When the signal is input, the attribute determination is performed.
Now, assuming that the determination is completed when one line in the sub-scanning direction and two pixels in the main scanning direction have passed from the 8 × 8 area.
The determination is completed when the data of the points R, G, and B shown in FIG.

【0033】図4は本発明の実施の形態1の回路ブロッ
ク図である。図4では、ライン補正処理手段21、領域
内属性判別処理手段22、色補正処理手段23、フィル
タ処理手段24の詳細図を示してある。図4において、
28はMTF処理を行なうためのMTFウインドウメモ
リである。これは従来例と同じサイズである。29は領
域内属性判別処理を行なうためのウインドウメモリであ
る。これも従来例と同じサイズである。
FIG. 4 is a circuit block diagram according to the first embodiment of the present invention. FIG. 4 shows a detailed diagram of the line correction processing unit 21, the in-region attribute determination processing unit 22, the color correction processing unit 23, and the filter processing unit 24. In FIG.
Reference numeral 28 denotes an MTF window memory for performing MTF processing. This is the same size as the conventional example. Reference numeral 29 denotes a window memory for performing in-region attribute determination processing. This is also the same size as the conventional example.

【0034】ここで、さきの図3で説明したように、領
域内の属性判別の結果が得られてから、その結果とライ
ン補正の出力データを揃えるためには、図4に示すR信
号に対するライン遅延メモリ27aは、現在の入力画像
のポイント(図3中、Rで示しているポイント)と太枠
メッシュの先頭ラインのライン間隔分必要な為、24ラ
イン分必要になる。これは120KBの容量となる。1
20KBは従来例で示した80KBよりも大きな値であ
る。
Here, as described above with reference to FIG. 3, after the result of the attribute determination in the area is obtained, in order to align the result with the output data of the line correction, the R signal shown in FIG. The line delay memory 27a requires 24 lines because the line interval between the point of the current input image (the point indicated by R in FIG. 3) and the top line of the thick frame mesh is required. This results in a capacity of 120 KB. 1
20 KB is a value larger than 80 KB shown in the conventional example.

【0035】G信号に対するライン遅延メモリ27b
は、現在の入力画像のポイント(図3中、Gで示してい
るポイント)と太枠メッシュの先頭ラインのライン間隔
分必要な為、16ライン分必要になる。これは80KB
の容量となる。80KBは従来例で示した40KBより
も大きな値である。B信号に対するライン遅延メモリ2
7cは、現在の入力画像のポイント(図3中、Bで示し
ているポイント)と太枠メッシュの先頭ラインのライン
間隔分必要な為、8ライン分必要になる。これは40K
Bの容量となる。40KBは従来例で示した0KBより
も大きな値である。このように、ライン遅延メモリ27
a、27b、27cは、従来例に対してRGBそれぞれ
40KBずつ大きくなるが、図13に示したデータ遅延
メモリ38(240KB)が不要となる分、メモリはト
ータル的に削減されたことになる。
Line delay memory 27b for G signal
Is necessary for the line interval between the point of the current input image (the point indicated by G in FIG. 3) and the top line of the thick frame mesh, so that 16 lines are required. This is 80KB
Is the capacity. 80 KB is a value larger than 40 KB shown in the conventional example. Line delay memory 2 for B signal
7c is necessary for the line interval between the point of the current input image (the point indicated by B in FIG. 3) and the top line of the thick frame mesh, so 8 lines are required. This is 40K
B. 40 KB is a value larger than 0 KB shown in the conventional example. Thus, the line delay memory 27
Although a, 27b, and 27c are larger by 40 KB each for the RGB than the conventional example, since the data delay memory 38 (240 KB) shown in FIG. 13 is not required, the memory is totally reduced.

【0036】最後に、フィルタ処理手段24は、領域内
属性判別処理手段22の属性判別結果に従い、文字の場
合(a)に示すハイパスフィルタが施され、写真の場合
(b)に示す弱いハイパスフィルタが施され、網点の場
合(c)に示すローパスフィルタが施される。このよう
に、読み取り画像に対し、適切なフィルタ処理を行うこ
とができ、読み取り画質の向上が図れる。
Finally, the filter processing means 24 applies a high-pass filter shown in FIG. 3A for characters and a weak high-pass filter shown in FIG. Is applied, and in the case of a halftone dot, a low-pass filter shown in (c) is applied. As described above, an appropriate filtering process can be performed on the read image, and the read image quality can be improved.

【0037】また、領域内属性判別手段22の判別結果
とは無関係に、外部より設定されたフィルタの種類やフ
ィルタの係数を選択可能としたことにより、ユーザーが
意図した通りに読み取り画像全体をシャープにしたりソ
フトにしたりすることも可能となる。
Further, the type of filter and the coefficient of the filter set from outside can be selected independently of the determination result of the in-region attribute determining means 22, so that the whole read image can be sharpened as intended by the user. It can be made soft or soft.

【0038】以下、本発明の実施の形態2について、図
5〜図7を用いて説明する。ここで、図5は本発明の実
施の形態2の3ラインイメージセンサの概略図、図6は
本発明の実施の形態2のデータ処理ポイントの説明図、
図7は本発明の実施の形態2の回路ブロック図である。
図5には、実施の形態2に特徴的な、3ラインイメージ
センサ17の構成を示す。従来の実施例で示した図11
と異なるのは、ラインセンサの色フィルタの順番であ
る。実施の形態2では、先頭の読み取りを行なう色を、
領域内属性判別処理手段22に使用する色と一致させて
いる。具体的に説明すると、3ラインイメージセンサ1
7の先頭読み取り色をGとする。図5に示す3ラインイ
メージセンサの構成によるデータの位置関係を図6に示
す。
Hereinafter, a second embodiment of the present invention will be described with reference to FIGS. Here, FIG. 5 is a schematic diagram of a three-line image sensor according to the second embodiment of the present invention, FIG. 6 is an explanatory diagram of data processing points according to the second embodiment of the present invention,
FIG. 7 is a circuit block diagram of Embodiment 2 of the present invention.
FIG. 5 shows a configuration of a three-line image sensor 17 characteristic of the second embodiment. FIG. 11 shown in the conventional embodiment.
What is different is the order of the color filters of the line sensor. In the second embodiment, the color to be read at the head is
The color is matched with the color used for the attribute determination processing means 22 in the area. Specifically, the three-line image sensor 1
The head reading color of No. 7 is G. FIG. 6 shows the positional relationship of data according to the configuration of the three-line image sensor shown in FIG.

【0039】図6において、細線のメッシュは600d
piの解像度で表現した画素を表わす。このメッシュの
うえに2×2画素単位で表現した太枠のメッシュは、領
域内属性判別処理手段22の前処理である間引き処理に
より300dpi化されたことを表わす。この300d
pi単位で8×8画素のウインドウサイズは画像属性判
別をおこなう8×8領域を示している。領域内属性判別
処理手段22に、この領域以上にG信号が入力されれば
属性判定が実施されたことになる。いま、8×8領域か
ら副走査方向に1ライン、主走査方向に2画素過ぎた時
点で判定が終了するものとすると、図6に示すR、G、
Bのポイントのデータがライン補正処理手段21に入力
されている時点で判定が終了している。
In FIG. 6, the mesh of the thin line is 600d.
Represents a pixel expressed at pi resolution. The thick frame mesh expressed in units of 2 × 2 pixels on top of this mesh indicates that it has been converted to 300 dpi by the thinning process which is the preprocessing of the intra-region attribute determination processing means 22. This 300d
A window size of 8 × 8 pixels in pi units indicates an 8 × 8 area in which image attribute determination is performed. If a G signal is input to the region attribute determination processing means 22 beyond this region, attribute determination has been performed. Now, assuming that the determination is completed when one line in the sub-scanning direction and two pixels in the main scanning direction have passed from the 8 × 8 region, R, G, and R shown in FIG.
The determination is completed when the data of the point B is input to the line correction processing means 21.

【0040】図7では、ライン補正処理手段21、領域
内属性判別処理手段22、色補正処理手段23、フィル
タ処理手段24の詳細図を示してある。28はMTF処
理を行なうためのウインドウメモリである。これは従来
例と同じサイズである。29は領域内属性判別処理を行
なうためのウインドウメモリである。これも従来例と同
じサイズである。
FIG. 7 is a detailed diagram of the line correction processing means 21, the in-area attribute determination processing means 22, the color correction processing means 23, and the filter processing means 24. Reference numeral 28 denotes a window memory for performing MTF processing. This is the same size as the conventional example. Reference numeral 29 denotes a window memory for performing in-region attribute determination processing. This is also the same size as the conventional example.

【0041】ここで、さきの図6で説明したように、領
域内の属性判別の結果が得られてから、その結果とライ
ン補正の出力データを揃えるためには、図7に示すG信
号に対するライン遅延メモリ27cは、現在の入力画像
のポイント(図6中、Gで示しているポイント)と太枠
メッシュの先頭ラインのライン間隔分必要な為、16ラ
イン分必要になる。これは80KBの容量となる。80
KBは従来例で示した80KB(従来例ではR信号の遅
延メモリ)と同じ値である。B信号に対するライン遅延
メモリ27bは、現在の入力画像のポイント(図6中、
Bで示しているポイント)と太枠メッシュの先頭ライン
のライン間隔分必要な為、8ライン分必要になる。これ
は40KBの容量となる。40KBは従来例と同じ値で
ある。R信号に対するライン遅延メモリ27aは現在の
入力画像のポイント(図6中、Rで示しているポイン
ト)と太枠メッシュの先頭ラインが一致している為、遅
延メモリは不要となり、これも従来例と同じである。こ
のようにライン補正の遅延メモリは、従来例と同じサイ
ズでありながら、図13に示したデータ遅延メモリ38
(240KB)が不要となる分、実施の形態1よりも、
さらにメモリを削減することが可能になる。
Here, as described with reference to FIG. 6, after the result of the attribute determination in the area is obtained, in order to align the result with the output data of the line correction, the G signal shown in FIG. The line delay memory 27c needs 16 points because the line interval between the point of the current input image (the point indicated by G in FIG. 6) and the top line of the thick mesh is required. This results in a capacity of 80 KB. 80
KB is the same value as 80 KB (the R signal delay memory in the conventional example) shown in the conventional example. The line delay memory 27b for the B signal stores the point of the current input image (in FIG. 6,
(Point indicated by B) and the line interval between the top line of the thick frame mesh and eight lines are required. This results in a capacity of 40 KB. 40 KB is the same value as the conventional example. In the line delay memory 27a for the R signal, the point of the current input image (the point indicated by R in FIG. 6) coincides with the top line of the thick frame mesh, so that the delay memory becomes unnecessary. Is the same as As described above, the delay memory for line correction has the same size as the conventional example, but has the data delay memory 38 shown in FIG.
(240 KB) is not required, as compared with the first embodiment.
Further, the memory can be reduced.

【0042】最後に、実施の形態1でも説明したよう
に、フィルタ処理手段24は、領域内属性判別処理手段
22の属性判別結果に従い、文字の場合(a)に示すハ
イパスフィルタが施され、写真の場合(b)に示す弱い
ハイパスフィルタが施され、網点の場合(c)に示すロ
ーパスフィルタが施される。このように、読み取り画像
に対し、適切なフィルタ処理を行うことができ、読み取
り画質の向上が図れる。また、領域内属性判別手段22
の判別結果とは無関係に、外部より設定されたフィルタ
の種類やフィルタの係数を選択可能としたことにより、
ユーザーが意図した通りに読み取り画像全体をシャープ
にしたりソフトにしたりすることも可能となる。
Finally, as described in the first embodiment, the filter processing unit 24 performs a high-pass filter shown in FIG. 7A in the case of a character in accordance with the attribute determination result of the in-region attribute determination processing unit 22, In this case, a weak high-pass filter shown in (b) is applied, and in the case of a halftone dot, a low-pass filter shown in (c) is applied. As described above, an appropriate filtering process can be performed on the read image, and the read image quality can be improved. In addition, the in-area attribute determining means 22
Irrespective of the judgment result of, the filter type and filter coefficient set from outside can be selected,
It is also possible to sharpen or soften the whole read image as intended by the user.

【0043】以下、本発明の実施の形態3について、図
8を用いて説明する。ここで、図8は本発明の実施の形
態3の回路ブロック図である。実施の形態2の説明で用
いた図7との相違点は、G遅延メモリのデータバスから
領域内属性判別処理手段22への入力信号を得る構成と
している所である。すなわち、MTF処理を行なうため
のウインドウメモリ28と、領域内属性判別処理手段2
2のためのウインドウメモリ29と、ライン補正手段2
1で必要な遅延メモリ27cを、同一メモリで兼用して
いる。
Hereinafter, a third embodiment of the present invention will be described with reference to FIG. Here, FIG. 8 is a circuit block diagram of Embodiment 3 of the present invention. The difference from FIG. 7 used in the description of the second embodiment is that an input signal to the in-region attribute determination processing means 22 is obtained from the data bus of the G delay memory. That is, the window memory 28 for performing the MTF processing and the in-area attribute determination processing means 2
Memory 29 for line 2 and line correction means 2
1, the same delay memory 27c is shared by the same memory.

【0044】こうすることにより、さらに、MTFウイ
ンドウメモリ28(10KB)と属性判別ウインドウメ
モリ29(32KB)分を削減することができる。ただ
し、図8に示すように、G遅延メモリを兼用して使用す
る場合、メモリへのアクセスが頻繁になるため、画像読
み取り速度に制限がかかることになる。即ち、画像読み
取り速度が問題とならない環境において、最もメモリが
少ない構成を提供できる。
By doing so, the MTF window memory 28 (10 KB) and the attribute discrimination window memory 29 (32 KB) can be further reduced. However, as shown in FIG. 8, when the G delay memory is also used, access to the memory becomes frequent, so that the image reading speed is limited. That is, in an environment where the image reading speed does not matter, a configuration with the least memory can be provided.

【0045】最後に、実施の形態1、2でも説明したよ
うに、フィルタ処理手段24は、領域内属性判別処理手
段22の属性判別結果に従い、文字の場合(a)に示す
ハイパスフィルタが施され、写真の場合(b)に示す弱
いハイパスフィルタが施され、網点の場合(c)に示す
ローパスフィルタが施される。このように、読み取り画
像に対し、適切なフィルタ処理を行うことができ、読み
取り画質の向上が図れる。また、領域内属性判別手段2
2の判別結果とは無関係に、外部より設定されたフィル
タの種類やフィルタの係数を選択可能としたことによ
り、ユーザーが意図した通りに読み取り画像全体をシャ
ープにしたりソフトにしたりすることも可能となる。
Finally, as described in the first and second embodiments, the filter processing means 24 applies the high-pass filter shown in FIG. In the case of a photograph, a weak high-pass filter shown in (b) is applied, and in the case of a halftone dot, a low-pass filter shown in (c) is applied. As described above, an appropriate filtering process can be performed on the read image, and the read image quality can be improved. In addition, attribute determination means 2 in the area
Regardless of the determination result of 2, the externally set filter type and filter coefficient can be selected from the outside, so that the entire scanned image can be sharpened or softened as intended by the user. Become.

【0046】[0046]

【発明の効果】本発明によれば、遅延メモリの容量を削
減でき、読み取り画質を向上できる。
According to the present invention, the capacity of the delay memory can be reduced and the read image quality can be improved.

【図面の簡単な説明】[Brief description of the drawings]

【図1】本発明の実施の形態1の画像読み取り装置の構
成図
FIG. 1 is a configuration diagram of an image reading device according to a first embodiment of the present invention;

【図2】本発明の実施の形態1の電気回路ブロック図FIG. 2 is an electric circuit block diagram according to the first embodiment of the present invention.

【図3】本発明の実施の形態1のデータ処理ポイントの
説明図
FIG. 3 is an explanatory diagram of a data processing point according to the first embodiment of the present invention.

【図4】本発明の実施の形態1の回路ブロック図FIG. 4 is a circuit block diagram according to the first embodiment of the present invention.

【図5】本発明の実施の形態2の3ラインイメージセン
サの概略図
FIG. 5 is a schematic diagram of a three-line image sensor according to a second embodiment of the present invention.

【図6】本発明の実施の形態2のデータ処理ポイントの
説明図
FIG. 6 is an explanatory diagram of a data processing point according to the second embodiment of the present invention.

【図7】本発明の実施の形態2の回路ブロック図FIG. 7 is a circuit block diagram according to a second embodiment of the present invention.

【図8】本発明の実施の形態3の回路ブロック図FIG. 8 is a circuit block diagram according to a third embodiment of the present invention.

【図9】従来の画像読み取り装置の構成図FIG. 9 is a configuration diagram of a conventional image reading apparatus.

【図10】従来の電気回路ブロック図FIG. 10 is a block diagram of a conventional electric circuit.

【図11】従来の電気回路ブロック図FIG. 11 is a block diagram of a conventional electric circuit.

【図12】従来のライン補正処理ブロック図FIG. 12 is a block diagram of a conventional line correction process.

【図13】従来の領域内属性判別処理ブロック図FIG. 13 is a block diagram of a conventional attribute discrimination process in a region.

【図14】(a)従来の領域内での画像属性を示す図 (b)従来の領域内での画像属性を示す図 (c)従来の領域内での画像属性を示す図14A is a diagram illustrating an image attribute in a conventional region. FIG. 14B is a diagram illustrating an image attribute in a conventional region. FIG. 14C is a diagram illustrating an image attribute in a conventional region.

【図15】従来のフィルタ処理ブロック図FIG. 15 is a block diagram of a conventional filter processing.

【図16】従来の回路ブロック図FIG. 16 is a conventional circuit block diagram.

【符号の説明】[Explanation of symbols]

17 3ラインイメージセンサ 21 ライン補正処理手段 22 領域内属性判別処理手段 23 色補正処理手段 24 フィルタ処理手段 17 three-line image sensor 21 line correction processing means 22 area attribute discrimination processing means 23 color correction processing means 24 filter processing means

Claims (6)

【特許請求の範囲】[Claims] 【請求項1】3ラインイメージセンサによるカラー画像
データの読み取り手段と、前記3ラインイメージセンサ
のライン間距離を補正するライン補正処理手段と、読み
取り画像をM×N(M、Nは自然数)に領域に区分し、
区分けされた各領域内で文字/写真/網点等の画像の属
性を判別する領域内画像属性判別手段と、前記読み取り
画像に2次元のフィルタをかけるフィルタ手段とを備え
たことを特徴とする画像読み取り装置。
1. A means for reading color image data by a three-line image sensor, a line correction processing means for correcting a distance between lines of the three-line image sensor, and converting the read image into M × N (M and N are natural numbers) Divided into regions,
The image processing apparatus further includes: an in-region image attribute determining unit that determines an attribute of an image such as a character / photo / halftone dot in each of the divided regions; and a filter unit that applies a two-dimensional filter to the read image. Image reading device.
【請求項2】前記ライン補正処理手段と前記領域内画像
属性判別手段とは、入力画像信号を同時刻に入力し、回
路構成上並列処理を行うことを特徴とする請求項1記載
の画像読み取り装置。
2. The image reading apparatus according to claim 1, wherein said line correction processing means and said in-region image attribute discriminating means input an input image signal at the same time and perform parallel processing on a circuit configuration. apparatus.
【請求項3】前記領域内画像属性判別手段の判別結果に
応じて、前記フィルタ手段のフィルタの種類やフィルタ
の係数を制御することを特徴とする請求項1記載の画像
読み取り装置。
3. An image reading apparatus according to claim 1, wherein a type of a filter of said filter means and a coefficient of the filter are controlled in accordance with a result of determination by said in-region image attribute determining means.
【請求項4】前記フィルタ手段は、前記領域内画像属性
判別手段の判別結果とは無関係に、外部より設定された
フィルタの種類やフィルタの係数を選択可能としたこと
を特徴とする請求項1記載の画像読み取り装置。
4. The apparatus according to claim 1, wherein said filter means is capable of selecting a filter type and a filter coefficient set externally, irrespective of the determination result of said in-region image attribute determining means. An image reading device according to claim 1.
【請求項5】前記3ラインイメージセンサの先頭読み取
り色を、前記領域内画像属性判別手段の入力画像信号の
色と一致させることを特徴とする請求項1記載の画像読
み取り装置。
5. The image reading apparatus according to claim 1, wherein a head reading color of said three-line image sensor is matched with a color of an input image signal of said in-region image attribute discriminating means.
【請求項6】前記ライン補正処理手段に使用する遅延メ
モリと、前記領域内画像属性判別手段で使用するMTF
ウインドウメモリと、前記領域内画像属性判別手段で使
用する前記M×N領域のウインドウメモリとを、兼用す
ることを特徴とする請求項1記載の画像読み取り装置。
6. A delay memory used for said line correction processing means, and an MTF used for said in-region image attribute discriminating means.
2. The image reading apparatus according to claim 1, wherein a window memory and a window memory of the M × N area used by the in-area image attribute discriminating means are shared.
JP9147519A 1997-06-05 1997-06-05 Image reader Pending JPH10336470A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP9147519A JPH10336470A (en) 1997-06-05 1997-06-05 Image reader

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP9147519A JPH10336470A (en) 1997-06-05 1997-06-05 Image reader

Publications (1)

Publication Number Publication Date
JPH10336470A true JPH10336470A (en) 1998-12-18

Family

ID=15432172

Family Applications (1)

Application Number Title Priority Date Filing Date
JP9147519A Pending JPH10336470A (en) 1997-06-05 1997-06-05 Image reader

Country Status (1)

Country Link
JP (1) JPH10336470A (en)

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US7116442B2 (en) 2000-03-27 2006-10-03 Minolta Co., Ltd. Image processing apparatus applicable to different copying types of color copying machines
US20090103149A1 (en) * 2007-10-18 2009-04-23 Kabushiki Kaisha Toshiba Apparatus and control method for image reading, image forming apparatus
JP2010041398A (en) * 2008-08-05 2010-02-18 Toshiba Corp Image reading apparatus, control method thereof, and image forming apparatus

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US7116442B2 (en) 2000-03-27 2006-10-03 Minolta Co., Ltd. Image processing apparatus applicable to different copying types of color copying machines
US20090103149A1 (en) * 2007-10-18 2009-04-23 Kabushiki Kaisha Toshiba Apparatus and control method for image reading, image forming apparatus
US8089669B2 (en) 2007-10-18 2012-01-03 Kabushiki Kaisha Toshiba Apparatus and control method for image reading, image forming apparatus
JP2010041398A (en) * 2008-08-05 2010-02-18 Toshiba Corp Image reading apparatus, control method thereof, and image forming apparatus

Similar Documents

Publication Publication Date Title
JP4250000B2 (en) Image reading apparatus and image reading method
JP2003219116A (en) Image processing device and its controlling method
JP2010114578A (en) Image processing apparatus
US5371610A (en) Image data processing apparatus
US20090103146A1 (en) Image reading apparatus and image reading method
JP2000232589A (en) Image reader
JPH10336470A (en) Image reader
JP2007324648A (en) Image reading system and control method thereof
EP1398953B1 (en) Apparatus and method for filtering image data
US8416469B2 (en) Image processing apparatus, image processing method and computer program
JP2003270731A (en) Image reader provided with prescanning function
JPH10215381A (en) Image reader
JP2000004356A (en) Image reader
JPH11252320A (en) Image reader
JPH06205194A (en) Original reader
JP3880793B2 (en) Image processing apparatus and image forming apparatus
JP2575301B2 (en) Image processing device
JPH0522615A (en) Image reader
JP2004180196A (en) Image reading apparatus
JP4117885B2 (en) Image forming apparatus
JPH10289302A (en) Image reading device
JPH11275311A (en) Picture reader
JPH04369163A (en) Picture reader
JP2003125167A (en) Original reader
JP2001007985A (en) Picture reader