Nothing Special   »   [go: up one dir, main page]

JP6069883B2 - Image reading apparatus and image reading method - Google Patents

Image reading apparatus and image reading method Download PDF

Info

Publication number
JP6069883B2
JP6069883B2 JP2012103077A JP2012103077A JP6069883B2 JP 6069883 B2 JP6069883 B2 JP 6069883B2 JP 2012103077 A JP2012103077 A JP 2012103077A JP 2012103077 A JP2012103077 A JP 2012103077A JP 6069883 B2 JP6069883 B2 JP 6069883B2
Authority
JP
Japan
Prior art keywords
reading
document
scanning direction
sub
edge
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2012103077A
Other languages
Japanese (ja)
Other versions
JP2013232748A (en
JP2013232748A5 (en
Inventor
直行 中村
直行 中村
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Brother Industries Ltd
Original Assignee
Brother Industries Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Brother Industries Ltd filed Critical Brother Industries Ltd
Priority to JP2012103077A priority Critical patent/JP6069883B2/en
Publication of JP2013232748A publication Critical patent/JP2013232748A/en
Publication of JP2013232748A5 publication Critical patent/JP2013232748A5/ja
Application granted granted Critical
Publication of JP6069883B2 publication Critical patent/JP6069883B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Image Input (AREA)
  • Facsimile Scanning Arrangements (AREA)

Description

本明細書に開示される発明は、原稿領域を特定する技術に関する。   The invention disclosed in this specification relates to a technique for specifying a document area.

従来から、原稿を読み取ることで原稿画像を電子データとして取得する読取装置が用いられている(例えば、特許文献1)。この装置では、原稿よりも広い範囲において原稿を読み取り、読み取った読取データを解析することにより、原稿画像と背景の境界位置を検出する。検出された境界位置は、原稿サイズ検出や、原稿斜行補正など、原稿画像の電子データを取得する際に用いられる。従来技術では、読取データから原稿画像と背景の境界位置を検出する際に、一定の閾値を用いて、原稿の外周領域を取得していた。   Conventionally, a reading device that acquires an original image as electronic data by reading an original is used (for example, Patent Document 1). This apparatus detects a boundary position between a document image and a background by reading the document in a wider range than the document and analyzing the read data. The detected boundary position is used when obtaining electronic data of a document image such as document size detection or document skew correction. In the prior art, when detecting the boundary position between the document image and the background from the read data, the peripheral area of the document is acquired using a certain threshold value.

特開2008−124828号公報JP 2008-124828 A

しかし、読取装置では、例えば読取装置を構成する際の組み付け誤差や、読取装置に含まれる読取部の個体差など、読取装置の個体差が存在する。そのため、同一の原稿を異なる読取装置を用いて読み取らせた場合でも、取得される読取データが異なることがある。従来技術では、一定の閾値を用いて原稿画像と背景の境界位置を検出し、当該境界位置内の領域である原稿領域を特定していたことから、ある読取装置では原稿領域が正しく特定できる場合でも、他の読取装置では原稿領域が正しく特定できないなど、原稿領域を適切に特定できない場合が生じてしまう問題が存在していた。   However, in the reading device, there are individual differences in the reading device such as an assembly error when configuring the reading device and individual differences in the reading unit included in the reading device. Therefore, even when the same document is read using different reading devices, the acquired read data may be different. In the prior art, the boundary position between the document image and the background is detected using a certain threshold, and the document area that is the area within the boundary position is specified. However, there has been a problem that the document area cannot be properly specified, for example, the document area cannot be correctly specified by another reading apparatus.

本明細書に開示される発明は、原稿領域を特定する技術を開示する。   The invention disclosed in this specification discloses a technique for specifying a document area.

本明細書によって開示される画像読取装置は、主走査方向に原稿を読み取るとともに、前記原稿に対して前記主走査方向と直交する副走査方向に相対移動する読取部と、
制御部と、
を備え、
前記制御部は、
前記読取部によって前記原稿を含む読取領域を読み取らせる読取処理と、
記読取処理の読取結果に含まれる複数の画素毎のを前記読取結果から取得する取得処理と、前記副走査方向において、前記読取部によって先に読み取られた方を副走査方向前方とし、前記読取部によって後に読み取られた方を副走査方向後方として、記読取結果のうち、前記読取領域の前記副走査方向前方の領域であって、前記原稿の前記副走査方向前方における端辺を含む前方領域を読み取った前方読取結果、及び前記読取領域の前記副走査方向後方の領域であって、前記原稿の前記副走査方向後方における端辺を含む後方領域を読み取った後方読取結果のそれぞれにおいて前記副走査方向に隣接する画素毎の輝度差を、前記取得処理によって取得される画素毎の輝度を用いて算出する算出処理と、前記原稿の前記副走査方向前方における端辺を特定する前方閾値として、前記前方読取結果に対して前記算出処理により算出された前記輝度差の絶対値の最大値を設定し、前記原稿の前記副走査方向後方における端辺を特定する後方閾値として、前記後方読取結果に対して前記算出処理により算出された前記輝度差の絶対値の最大値を設定する設定処理と、を実行する。
An image reading device disclosed in the specification includes a reading unit that reads a document in a main scanning direction and relatively moves in a sub-scanning direction orthogonal to the main scanning direction with respect to the document .
A control unit;
With
The controller is
And reading preparative process by the reading unit Ru to read the area preparative including reading said original,
An acquisition process for acquiring a plurality of bright degree of each pixel included in the pre Ki読 preparative process read preparative result from the reading results above, in the sub-scanning direction, the sub-scan direction towards read earlier by the reading unit and forward, as the sub-scanning direction backwards towards read later by the reading section, of the prior Ki読 preparative result, a secondary scanning direction in front of the region of the reading area, the sub-scanning direction in front of the document The front reading result obtained by reading the front area including the edge of the document, and the rear reading of the area behind the reading area in the sub-scanning direction and including the rear edge of the original in the sub-scanning direction. results of brightness difference for each pixel adjacent to the sub-scanning direction in each of the calculation processing of calculating using the luminance of each pixel acquired by the acquisition process, the sub-scanning direction in front of the document A maximum threshold value of the luminance difference calculated by the calculation process is set for the front reading result as a front threshold value for specifying an edge in the document, and the edge of the original document in the sub-scanning direction is specified. A setting process for setting a maximum value of the absolute value of the luminance difference calculated by the calculation process with respect to the backward reading result .

この画像読取装置では、主走査方向に原稿を読み取るとともに、前記原稿に対して前記主走査方向と直交する副走査方向に相対移動する読取部が読み取った原稿の副走査方向前方における前方読取結果及び副走査方向後方における後方読取結果を用いて前方閾値と後方閾値をそれぞれ設定する。この画像読取装置によれば、原稿の副走査方向前方及び副走査方向後方に対して読取部に応じた閾値をそれぞれ設定することができ、閾値が一定の値に設定されていた従来技術に比べて、原稿の副走査方向前方及び副走査方向後方における端辺を適切に特定することで、原稿領域を適切に特定可能な閾値を設定できる。 In this image reading apparatus, the front reading result in the front in the sub-scanning direction of the original read by the reading unit that reads the original in the main scanning direction and that moves relative to the original in the sub- scanning direction orthogonal to the main scanning direction and A front threshold value and a rear threshold value are set using the backward reading results in the rear in the sub-scanning direction. According to this image reading apparatus, it is possible to set a threshold value corresponding to the reading unit for the front side in the sub-scanning direction and the back side in the sub-scanning direction of the document, compared to the conventional technique in which the threshold value is set to a constant value. Thus, it is possible to set a threshold value that can appropriately specify the document area by appropriately specifying the edges of the document in the front and rear in the sub-scanning direction .

この画像読取装置では、前記前方読取結果に対して前記前方閾値以上となる前記副走査方向に隣接する画素を抽出し、前記後方読取結果に対して前記後方閾値以上となる前記副走査方向に隣接する画素を抽出する抽出処理と、前記抽出処理によって前記前方閾値以上となる画素として抽出された画素から、前記原稿の前記副走査方向前方における端辺を特定し、前記抽出処理によって前記後方閾値以上となる画素として抽出された画素から、前記原稿の前記副走査方向後方における端辺を特定する特定処理と、を実行する構成としても良い。 In this image reading apparatus, adjacent pixels in the sub-scanning direction that are equal to or higher than the front threshold with respect to the front reading result are extracted, and adjacent to the sub-scanning direction that is equal to or higher than the rear threshold with respect to the rear reading result. An edge in the sub-scanning direction of the document is identified from pixels extracted as pixels that are equal to or higher than the front threshold value by the extraction process, and the threshold value is equal to or higher than the rear threshold value by the extraction process. It is also possible to perform a specifying process for specifying the edge of the original in the sub-scanning direction from the pixel extracted as a pixel .

この画像読取装置によれば、原稿の副走査方向前方及び副走査方向後方における端辺を適切に特定することで、適切に原稿領域を特定することができる。 According to this image reading apparatus, it is possible to appropriately specify the document area by appropriately specifying the front edge of the document in the front and rear of the sub-scanning direction .

この画像読取装置では、前記原稿は、無地の基準原稿であり、前記制御部は、画像が形成された読取対象の原稿の読み取りを行なう前に、前記基準原稿を用いて前記読取処理、前記取得処理、前記算出処理、及び前記設定処理を実行しても良い。この画像読取装置では、無地の基準原稿を用いて閾値を設定するので、前記前方及び前記後方読取結果では、前記原稿の端辺に相当する画素において、度差の絶対値が最大値となる。この画像読取装置によれば、前記原稿の端辺を読み取った読取結果を用いて前記前方及び前記後方閾値を設定するので、前記画像が形成された読取対象の原稿の副走査方向前方及び後方における端辺を特定可能な閾値を設定できる。 In the image reading apparatus, before Kihara draft is a plain reference document, wherein, before performing the reading of the read target document image has been formed, the reading process with reference to the reference document, The acquisition process, the calculation process, and the setting process may be executed . In the image reading apparatus, since the threshold value is set using a plain reference original, the forward and the backward reading result, in the pixel corresponding to the edge of the document, the absolute value of the Brightness difference is the maximum value . According to this image reading apparatus, since the set forward and the rear threshold value using the read result of reading the edge of the document, in the sub-scanning forward and backward to be read of the document on which the image is formed It is possible to set a threshold value that can specify the edge .

本明細書に開示される発明は、また、上記の画像読取装置を用いて実現される画像読取方法にも具現化される。本明細書によって開示される画像読取方法は、原稿の画像を読み取る画像読取方法であって、前記原稿を含む読取領域で前記原稿を読み取る読取工程と、前記読取工程で読み取った読取結果から、前記読取領域を構成する複数の画素毎の輝度を取得する取得工程と、前記読取工程によって先に読み取られた方を前方とし、前記読取工程によって後に読み取られた方を後方として、前記読取結果のうち、前記読取領域の前方領域であって、前記原稿の前記前方における端辺を含む前記前方領域を読み取った前方読取結果、及び前記読取領域の後方領域であって、前記原稿の前記後方における端辺を含む前記後方領域を読み取った後方読取結果のそれぞれにおいて前記読取領域の前後方向に隣接する画素毎の輝度差を、前記取得工程によって取得される画素毎の輝度を用いて算出する算出工程と、前記前方読取結果に対して前記算出工程により算出された前記輝度差の絶対値の最大値を前方閾値として設定し、前記後方読取結果に対して前記算出工程により算出された前記輝度差の絶対値の最大値を後方閾値として設定する設定工程と、前記前方読取結果に対して前記前方閾値以上となる前記前後方向に隣接する画素を抽出し、前記後方読取結果に対して前記後方閾値以上となる前記前後方向に隣接する画素を抽出する抽出工程と、前記前方閾値を用いて抽出された画素から、前記原稿の前記前方における端辺を特定し、前記後方閾値を用いて抽出された画素から、前記原稿の前記後方における端辺を特定する特定工程と、を備える。 The invention disclosed in this specification is also embodied in an image reading method realized by using the image reading apparatus. An image reading method disclosed in the present specification is an image reading method for reading an image of a document, and a reading step of reading the document in a reading region including the document, and a reading result read in the reading step, Of the reading results, the acquisition step of acquiring the luminance for each of the plurality of pixels constituting the reading region and the one read earlier by the reading step as the front and the one read later by the reading step as the rear A front reading result obtained by reading the front area including the front edge of the original and the rear area of the original, and the rear edge of the original. In each of the rear reading results obtained by reading the rear area including the luminance difference for each pixel adjacent in the front-rear direction of the reading area is acquired by the acquisition step. A calculation step of calculating using the luminance for each pixel to be set, and a maximum value of the absolute value of the luminance difference calculated by the calculation step with respect to the front reading result is set as a front threshold, and the rear reading result A setting step of setting a maximum value of the absolute value of the luminance difference calculated by the calculation step as a rear threshold value, and extracting pixels adjacent in the front-rear direction that are equal to or greater than the front threshold value with respect to the front reading result. An extraction step of extracting pixels adjacent in the front-rear direction that are equal to or greater than the rear threshold value with respect to the rear reading result, and specifying the front edge of the document from the pixels extracted using the front threshold value And a specifying step of specifying the rear edge of the document from the pixels extracted using the rear threshold value .

この画像読取方法では、読取工程における前方読取結果及び後方読取結果に基づいてそれぞれ前方及び後方閾値を設定し、その閾値を用いて、原稿の副走査方向前方及び副走査方向後方における端辺を適切に特定し、原稿領域を特定するので、閾値が一定の値に設定されていた従来技術に比べて、適切に原稿領域を特定することができる。 In the image reading method, respectively set the front and rear threshold based on forward reading results and rear reading result of reading preparative process, by using the threshold, the edge side in the sub-scanning forward and the sub scanning direction behind the original properly identified, because identifying the original area, as compared with the prior art threshold is set to a constant value, it is possible to appropriately identify the document region.

本明細書によって開示される画像読取装置及び画像読取方法を用いることで、適切に原稿領域を特定することができる。   By using the image reading apparatus and the image reading method disclosed in this specification, it is possible to appropriately specify the document area.

複合機の模式的な断面図Schematic cross-sectional view of a multifunction machine 複合機の模式的なブロック図Schematic block diagram of multifunction device 画像処理部24の模式的なブロック図Schematic block diagram of the image processing unit 24 補正処理を示すフローチャートFlow chart showing correction processing 実施形態1の原稿読取処理を示すフローチャート6 is a flowchart illustrating document reading processing according to the first embodiment. 第1読取領域及び算出領域を示す図The figure which shows a 1st reading area | region and a calculation area | region 読取部から原稿への光の照射を説明する図The figure explaining irradiation of the light to a manuscript from a reading part 実施形態2の原稿読取処理を示すフローチャート10 is a flowchart illustrating document reading processing according to the second embodiment. 第2読取画像を示す図The figure which shows a 2nd reading image

<実施形態1>
実施形態1を、図1ないし図7を用いて説明する。
<Embodiment 1>
The first embodiment will be described with reference to FIGS.

1.複合機の外観構成
図1は、本発明の画像読取装置の一例である複合機1の断面図である。この複合機1は、プリンタ機能、スキャナ機能、コピー機能、ファクシミリ機能などを備えた多機能周辺装置である。
1. FIG. 1 is a cross-sectional view of a multifunction machine 1 that is an example of an image reading apparatus according to the present invention. The multifunction device 1 is a multi-function peripheral device having a printer function, a scanner function, a copy function, a facsimile function, and the like.

図1に示すように、複合機1は、本体部2の上方に原稿を読み取るための画像読取部3を備えている。画像読取部3は、読取部30、原稿自動送り装置(以下、ADF)40、原稿載置部50等を含む。   As shown in FIG. 1, the multifunction machine 1 includes an image reading unit 3 for reading a document above a main body unit 2. The image reading unit 3 includes a reading unit 30, an automatic document feeder (hereinafter referred to as ADF) 40, a document placing unit 50, and the like.

原稿載置部50は、台枠51、透明なガラス板からなる第1プラテンガラス52、第2プラテンガラス53、及びこれらのガラス52、53の中間に配置された中間枠54を含む。原稿載置部50は、ADF40を内在する原稿カバー48によって開閉可能に覆われている。   The document placing unit 50 includes a frame 51, a first platen glass 52 made of a transparent glass plate, a second platen glass 53, and an intermediate frame 54 disposed between these glasses 52 and 53. The document placement unit 50 is covered with a document cover 48 including the ADF 40 so as to be opened and closed.

ADF40は、原稿カバー48内に設けられており、ADFカバー41、原稿トレイ42、押圧部材44、各種ローラ46、排紙トレイ47、フロントセンサ(以下、Fセンサ)13、リアセンサ(以下、Rセンサ)14等を含む。   The ADF 40 is provided in a document cover 48, and includes an ADF cover 41, a document tray 42, a pressing member 44, various rollers 46, a paper discharge tray 47, a front sensor (hereinafter referred to as F sensor) 13, a rear sensor (hereinafter referred to as R sensor). ) 14 etc.

ADF40には、原稿トレイ42から排紙トレイ47へと原稿を搬送する搬送経路45が設けられている。以後、搬送経路45に沿った方向を搬送方向と呼び、これに直交する方向を直交方向と呼ぶ。図1に、搬送方向を矢印81で示す。また、搬送経路45の原稿トレイ42に近い側を上流側と呼び、搬送経路45の排紙トレイ47に近い側を下流側と呼ぶ。   The ADF 40 is provided with a conveyance path 45 that conveys the document from the document tray 42 to the paper discharge tray 47. Hereinafter, a direction along the transport path 45 is referred to as a transport direction, and a direction orthogonal to the direction is referred to as an orthogonal direction. In FIG. 1, the conveyance direction is indicated by an arrow 81. Further, the side of the transport path 45 near the original tray 42 is called an upstream side, and the side of the transport path 45 near the paper discharge tray 47 is called a downstream side.

ローラ46は、原稿トレイ42に載置された原稿を搬送経路45上に搬送し、排紙トレイ47に排紙する。つまり、ローラ46及びローラ46を回転駆動させるモータM(図2参照)によって、原稿トレイ42に載置された原稿を排紙トレイ47へと搬送する読取駆動部25(図2参照)が形成されている。   The roller 46 transports the document placed on the document tray 42 onto the transport path 45 and discharges it to the discharge tray 47. That is, the reading drive unit 25 (see FIG. 2) that transports the document placed on the document tray 42 to the discharge tray 47 is formed by the roller 46 and the motor M (see FIG. 2) that rotationally drives the roller 46. ing.

また、原稿トレイ42に、Fセンサ13が配置されている。Fセンサ13は、原稿トレイ42に原稿が載置されたか否かを検出する。また、搬送経路45上には、Rセンサ14が配置されている。Rセンサ14は、搬送経路45上の当該センサが配置された位置に原稿が存在するか否かを検出する。   An F sensor 13 is disposed on the document tray 42. The F sensor 13 detects whether or not a document is placed on the document tray 42. An R sensor 14 is disposed on the transport path 45. The R sensor 14 detects whether or not a document is present at the position where the sensor is arranged on the conveyance path 45.

また、搬送経路45上のRセンサ14の下流側に、読取部30が配置されている。読取部30は、本体部2内に配置されており、搬送方向と直交する直交方向広がって形成されているとともに、図1に矢印82で示す移動方向に移動可能に支持されている。つまり、直交方向は、読取部30の主走査方向に等しい。   Further, the reading unit 30 is disposed on the transport path 45 downstream of the R sensor 14. The reading unit 30 is disposed in the main body unit 2 and is formed so as to expand in the orthogonal direction perpendicular to the transport direction, and is supported so as to be movable in the movement direction indicated by an arrow 82 in FIG. That is, the orthogonal direction is equal to the main scanning direction of the reading unit 30.

読取部30は、図1に点線で示すように、移動方向に移動しながら第1プラテンガラス52上に静止して載置された原稿を主走査方向に読み取る。この際、移動方向と逆方向が、読取部30の副走査方向に等しくなる。また、図1に実線で示すように、第2プラテンガラス53下の搬送経路45上の固定位置である読取位置Lに移動し、読取駆動部25によって搬送される原稿を主走査方向に読み取る。この場合、原稿の搬送方向が読取部の副走査方向となる。この際、読取部30は、読取駆動部25によって搬送される原稿が第2プラテンガラス53上を通過する際の当該原稿を読み取り、搬送方向が、読取部30の副走査方向に等しくなる。   As indicated by a dotted line in FIG. 1, the reading unit 30 reads a document placed stationary on the first platen glass 52 while moving in the moving direction in the main scanning direction. At this time, the direction opposite to the moving direction is equal to the sub-scanning direction of the reading unit 30. Further, as indicated by a solid line in FIG. 1, the document moves to a reading position L that is a fixed position on the conveyance path 45 below the second platen glass 53, and reads the document conveyed by the reading drive unit 25 in the main scanning direction. In this case, the document transport direction is the sub-scanning direction of the reading unit. At this time, the reading unit 30 reads the original when the original conveyed by the reading drive unit 25 passes over the second platen glass 53, and the conveyance direction becomes equal to the sub-scanning direction of the reading unit 30.

第2プラテンガラス53に対向して、押圧部材44が配置されている。押圧部材44は、第2プラテンガラス53上を通過する原稿が第2プラテンガラス53から浮かないように、原稿を第2プラテンガラス53に押圧する。なお、以下の説明において、特に記載がない場合には、読取位置Lにおいて搬送経路45に沿って搬送される原稿を読み取る読取部30の状態及び動作を説明しているものとする。   A pressing member 44 is disposed so as to face the second platen glass 53. The pressing member 44 presses the document against the second platen glass 53 so that the document passing over the second platen glass 53 does not float from the second platen glass 53. In the following description, it is assumed that the state and operation of the reading unit 30 that reads a document conveyed along the conveyance path 45 at the reading position L unless otherwise specified.

次に、読取部30の構造について説明する。読取部30は、CIS(Contact Image Sensor)を用いた、いわゆるCIS方式で第2プラテンガラス53上に配置された原稿を読み取る。読取部30は、複数の受光素子が主走査方向に直線状に配列されているリニアイメージセンサ33、発光ダイオードなどで構成される光源31、光源から照射される光を第2プラテンガラス53上に配置された原稿等へと導く導光体36、原稿等で反射された反射光をリニアイメージセンサ33の各受光素子に結像させるロッドレンズアレイ32、これらが搭載されるキャリッジ34を含む。リニアイメージセンサ33は、受光部の一例である。   Next, the structure of the reading unit 30 will be described. The reading unit 30 reads a document placed on the second platen glass 53 by a so-called CIS method using a CIS (Contact Image Sensor). The reading unit 30 includes a linear image sensor 33 in which a plurality of light receiving elements are linearly arranged in the main scanning direction, a light source 31 including a light emitting diode, and the like. It includes a light guide 36 that leads to a placed document or the like, a rod lens array 32 that forms an image of reflected light reflected by the document or the like on each light receiving element of the linear image sensor 33, and a carriage 34 on which these are mounted. The linear image sensor 33 is an example of a light receiving unit.

光源31は、読取部30の副走査方向の斜め後方から第2プラテンガラス53の下面に光を照射する。これによって、第2プラテンガラス53上に配置された原稿には、搬送方向の斜め後方から光が照射される。リニアイメージセンサ33は、光源31によって照射され、原稿等で反射された反射光を受光する。これによって、読取部30に対して相対移動する原稿が読取部30によって読み取られる。   The light source 31 irradiates light to the lower surface of the second platen glass 53 from obliquely behind the reading unit 30 in the sub-scanning direction. As a result, the document placed on the second platen glass 53 is irradiated with light from obliquely behind in the transport direction. The linear image sensor 33 receives the reflected light that is irradiated by the light source 31 and reflected by the document or the like. Accordingly, the document that moves relative to the reading unit 30 is read by the reading unit 30.

さらに、複合機1には、各種のボタンからなり、ユーザからの操作入力を受け付ける操作部11(図2参照)、複合機1の状態を表示する液晶ディスプレイからなる表示部12(図2参照)が設けられている。   Furthermore, the multifunction device 1 includes various buttons and an operation unit 11 (see FIG. 2) that receives an operation input from a user, and a display unit 12 (see FIG. 2) that includes a liquid crystal display that displays the state of the multifunction device 1. Is provided.

2.複合機の電気的構成
図2に示すように、複合機1は、CPU21と、ROM22と、RAM23と、画像処理部24と、を主要部として備え、これらがバス26を介して接続されている。CPU21と、ROM22と、RAM23と、画像処理部24とをあわせたものが、制御部の一例である。
2. As shown in FIG. 2, the multifunction machine 1 includes a CPU 21, a ROM 22, a RAM 23, and an image processing unit 24 as main parts, which are connected via a bus 26. . A combination of the CPU 21, the ROM 22, the RAM 23, and the image processing unit 24 is an example of a control unit.

ROM22には、複合機1の動作を制御するための各種のプログラムが記憶されており、CPU21は、ROM22から読み出したプログラムに従って各部の制御を行う。   The ROM 22 stores various programs for controlling the operation of the multifunction device 1, and the CPU 21 controls each unit according to the program read from the ROM 22.

例えば、CPU21は、モータMにパルス信号を送信し、読取駆動部25を制御する。モータMは、パルス信号の1パルスで、1ステップの回転角度分、回転駆動する。モータMが1ステップ分駆動すると、ローラ46が駆動し、搬送経路45上を原稿が規定距離だけ搬送される。CPU21は、原稿を搬送する際に、所定数のパルス信号をモータMに送信し、これに従ってローラ46は、そのパルス信号のパルスの数に規定距離を掛けた距離だけ原稿を搬送する。以後、CPU2がモータMに送信するパルス信号のパルスの数を、ステップ数と呼ぶ。   For example, the CPU 21 transmits a pulse signal to the motor M and controls the reading drive unit 25. The motor M is driven to rotate by one rotation angle with one pulse of the pulse signal. When the motor M is driven by one step, the roller 46 is driven and the document is conveyed on the conveyance path 45 by a specified distance. When conveying the document, the CPU 21 transmits a predetermined number of pulse signals to the motor M, and accordingly, the roller 46 conveys the document by a distance obtained by multiplying the number of pulses of the pulse signal by a specified distance. Hereinafter, the number of pulses of the pulse signal transmitted from the CPU 2 to the motor M is referred to as a step number.

また、CPU21は、読取部30に光源31の点灯期間及び光量を制御する信号を送信し、読取部30を制御する。光源31は、CPU21からの信号により光を照射し、リニアイメージセンサ33は原稿等からの反射光を読み取る。CPU21は、読取駆動部25と読取部30を同時に制御することで、原稿を含み、原稿よりも広い領域に設定された読取領域YRを読取部30によって読み取らせ、読取領域YRを読み取った読取画像YGがRAM23に送信される。読取画像YGは、読取結果の一例である。   Further, the CPU 21 controls the reading unit 30 by transmitting a signal for controlling the lighting period and the amount of light of the light source 31 to the reading unit 30. The light source 31 emits light according to a signal from the CPU 21, and the linear image sensor 33 reads reflected light from a document or the like. The CPU 21 controls the reading drive unit 25 and the reading unit 30 at the same time, thereby causing the reading unit 30 to read a reading area YR that includes an original and is set to be wider than the original, and reads the reading area YR. YG is transmitted to the RAM 23. The read image YG is an example of a read result.

読取部30では、読取画像YGを読み取る際に、主走査方向に配列されているリニアイメージセンサ33の各受光素子毎に読み取りを行うとともに、副走査方向に読取領域YRに亘って読み取りを繰り返す。そのため、読取画像YGは、各受光素子で読み取られたRGB信号である画素データGDが、主走査方向及び副走査方向に複数個並んだデータ群となる。   When reading the read image YG, the reading unit 30 performs reading for each light receiving element of the linear image sensor 33 arranged in the main scanning direction, and repeats reading over the reading region YR in the sub scanning direction. Therefore, the read image YG is a data group in which a plurality of pixel data GD, which are RGB signals read by each light receiving element, are arranged in the main scanning direction and the sub-scanning direction.

画像処理部24は、RAM23に記憶された読取画像YGに取得処理や抽出処理等の必要な補正処理を行う。図3に示すように、画像処理部24は、エッジ抽出部60及び色調整部61を主要部として備え、エッジ抽出部60は、変換部62及び抽出部63を含む。変換部62は、読取画像YGにYIQ変換を実行し、画素データGD毎の輝度成分Yを取得する取得処理を実行する。抽出部63は、RAM23に記憶された閾値Kを用いて、読取画像YGから、原稿の端辺を読み取った画素データGDであるエッジ画素データEDを抽出する抽出処理を実行する。色調整部61は、印刷用紙やディスプレイなど、読取画像YGが表示される媒体にあわせて、読取画像YGの色相を調整する色調整処理を実行する。   The image processing unit 24 performs necessary correction processing such as acquisition processing and extraction processing on the read image YG stored in the RAM 23. As shown in FIG. 3, the image processing unit 24 includes an edge extraction unit 60 and a color adjustment unit 61 as main parts, and the edge extraction unit 60 includes a conversion unit 62 and an extraction unit 63. The converter 62 performs YIQ conversion on the read image YG, and executes acquisition processing for acquiring the luminance component Y for each pixel data GD. Using the threshold value K stored in the RAM 23, the extraction unit 63 executes an extraction process for extracting edge pixel data ED that is pixel data GD obtained by reading the edge of the document from the read image YG. The color adjustment unit 61 executes color adjustment processing for adjusting the hue of the read image YG in accordance with a medium on which the read image YG is displayed, such as a print sheet or a display.

3.スキャン処理
次に、図4ないし図7を参照して、原稿を読み取るスキャン処理について説明する。スキャン処理には、実際に原稿を読み取る原稿読取処理と、読取処理に先立って実行され、読取処理で用いられる閾値Kを設定するための輝度差Δを取得するための補正処理が含まれる。
3. Scan Processing Next, scan processing for reading a document will be described with reference to FIGS. 4 to 7. The scanning process includes a document reading process that actually reads a document and a correction process that is executed prior to the reading process and acquires a luminance difference Δ for setting a threshold value K used in the reading process.

(補正処理)
CPU20は、複合機1の初期使用時に、あるいは操作部11を介して補正指示が入力されると、補正処理を開始する。補正処理は、予め定められた基準原稿を用いて行われる。ここで、基準原稿(第1原稿の一例)とは、無地(白紙)の原稿であり、A4などの定形サイズの原稿を意味する。
(Correction process)
The CPU 20 starts the correction process when the multifunction device 1 is initially used or when a correction instruction is input via the operation unit 11. The correction process is performed using a predetermined reference document. Here, the reference original (an example of the first original) is a plain (blank) original and means a standard-size original such as A4.

図4に示すように、CPU21は、補正処理を開始すると、表示部12を用いて、基準原稿を原稿トレイ42に載置することを使用者等に対して報知する(S2)。CPU21は、Fセンサ13を用いて原稿トレイ42に基準原稿が載置されたことを確認する(S4:NO)。そして、CPU21は、原稿トレイ42に基準原稿が載置されたことを確認すると(S4:YES)、読取部30によって、基準原稿を含む第1読取領域YR1を読み取る第1読取処理を実行し、第1読取領域YR1を読み取った第1読取画像YG1をRAM23に記憶する(S6)。   As shown in FIG. 4, when the correction process is started, the CPU 21 notifies the user or the like that the reference document is placed on the document tray 42 using the display unit 12 (S2). The CPU 21 confirms that the reference document is placed on the document tray 42 using the F sensor 13 (S4: NO). Then, when the CPU 21 confirms that the reference document is placed on the document tray 42 (S4: YES), the CPU 21 executes a first reading process for reading the first reading region YR1 including the reference document by the reading unit 30, The first read image YG1 read from the first reading area YR1 is stored in the RAM 23 (S6).

この際、CPU21は、読取駆動部25によって、第1読取画像YG1に含まれる画素データGD毎の主走査方向及び副走査方向の位置情報Zをあわせて取得し、第1読取画像YG1に対応させてRAM23に記憶する。   At this time, the CPU 21 acquires the position information Z in the main scanning direction and the sub-scanning direction for each pixel data GD included in the first read image YG1 by the reading drive unit 25, and associates it with the first read image YG1. And stored in the RAM 23.

次に、CPU21は、第1読取領域YR1を読み取った第1読取画像YG1に対して、画像処理部24を用いて取得処理を実行し、第1読取画像YG1に含まれる画素データGD毎の輝度成分Yを取得する(S8)。CPU21は、取得された第1読取画像YG1の輝度成分Yを用いて、副走査方向に隣接する画素データGDの輝度差Δを算出する算出処理を実行する(S10〜S1)。 Next, the CPU 21 executes an acquisition process using the image processing unit 24 on the first read image YG1 read from the first reading area YR1, and the luminance for each pixel data GD included in the first read image YG1. The component Y is acquired (S8). The CPU 21 executes a calculation process for calculating the luminance difference Δ between the pixel data GD adjacent in the sub-scanning direction using the acquired luminance component Y of the first read image YG1 (S10 to S1 6 ).

算出処理において、CPU21は、まず、第1読取画像YG1において第1算出領域SR1を設定し、第1算出領域SR1において、副走査方向に隣接する画素データGDの輝度差Δを算出する(S10)。図6に拡大して示す第1算出領域SR1は、第1読取領域YR1の第1前方領域ZR1を読み取った読取画像であり、図6に示すように、第1前方領域ZR1は、第1読取領域YR1の主走査方向の中央の領域であり、副走査方向側の領域に設定されている。   In the calculation process, the CPU 21 first sets the first calculation region SR1 in the first read image YG1, and calculates the luminance difference Δ of the pixel data GD adjacent in the sub-scanning direction in the first calculation region SR1 (S10). . The first calculation area SR1 shown in an enlarged manner in FIG. 6 is a read image obtained by reading the first front area ZR1 of the first reading area YR1, and as shown in FIG. 6, the first front area ZR1 is the first reading area. The region YR1 is a central region in the main scanning direction, and is set to a region on the sub scanning direction side.

第1前方領域ZR1には、基準原稿の副走査方向側の端辺が含まれるように設定されており、そのため、第1算出領域SR1には、基準原稿の副走査方向側の端辺を読み取った画素データGDが含まれる。第1算出領域SR1は、第1前方読取結果の一例である。   The first front area ZR1 is set so as to include the edge of the reference document on the sub-scanning direction side. Therefore, the edge of the reference document on the side of the sub-scanning direction is read in the first calculation area SR1. Pixel data GD. The first calculation area SR1 is an example of a first front reading result.

図6に、第1算出領域SR1の副走査方向における輝度成分Yの分布を示す。CPU21は、副走査方向における輝度差Δを算出する際に、隣接する画素データGDの輝度成分Yの差ΔY及び位置情報Zの差ΔZを算出し、差ΔYを差ΔZで除した輝度成分Yの傾きを輝度差Δとして算出する。つまり、図6における輝度成分Yの傾きが、輝度差Δに相当する。   FIG. 6 shows the distribution of the luminance component Y in the sub-scanning direction of the first calculation region SR1. When calculating the luminance difference Δ in the sub-scanning direction, the CPU 21 calculates the difference ΔY between the luminance components Y of the adjacent pixel data GD and the difference ΔZ between the position information Z, and the luminance component Y obtained by dividing the difference ΔY by the difference ΔZ. Is calculated as a luminance difference Δ. That is, the gradient of the luminance component Y in FIG. 6 corresponds to the luminance difference Δ.

CPU21は、第1算出領域SR1において算出される輝度差Δのうち、絶対値の最大値を第1最大輝度差ΔM1としてRAM23に記憶する(S10)。ここで、絶対値の最大値とは、必ずしも絶対値の最大値である必要はなく、絶対値の最大値以下の値であり、絶対値の最大値との差が所定範囲(例えは、5%)に含まれる値であってもよい。図7に示すように、読取部30は、副走査方向の斜め後方から原稿に光を照射し、原稿からの反射光を読み取る。そのため、原稿の副走査方向側の端辺を読み取る際、原稿の有する所定の厚みに起因して、原稿の副走査方向側の側面に光が照射されず、光が反射されない。第1最大輝度差ΔM1は、前方側最大値の一例である。   The CPU 21 stores the maximum absolute value of the luminance difference Δ calculated in the first calculation area SR1 in the RAM 23 as the first maximum luminance difference ΔM1 (S10). Here, the absolute maximum value does not necessarily need to be the absolute maximum value, and is a value equal to or smaller than the absolute maximum value, and the difference from the absolute maximum value is within a predetermined range (for example, 5 %). As shown in FIG. 7, the reading unit 30 irradiates the original with light from obliquely behind in the sub-scanning direction, and reads the reflected light from the original. Therefore, when reading the edge of the original in the sub-scanning direction, light is not irradiated on the side surface of the original in the sub-scanning direction and light is not reflected due to the predetermined thickness of the original. The first maximum luminance difference ΔM1 is an example of a maximum value on the front side.

従って、図6に示すように、基準原稿の副走査方向側の端辺を読み取った画素データGDでは、その周辺の画素データGDに比べて輝度成分Yが低下し、絶対値の大きい輝度差Δが取得される。その結果、基準原稿の副走査方向側の端辺を読み取った画素データGDを用いて算出される輝度差Δが第1最大輝度差ΔM1としてRAM23に記憶される。   Therefore, as shown in FIG. 6, in the pixel data GD obtained by reading the edge of the reference document on the sub-scanning direction side, the luminance component Y is lower than the surrounding pixel data GD, and the luminance difference Δ having a large absolute value. Is acquired. As a result, the luminance difference Δ calculated using the pixel data GD obtained by reading the edge on the sub-scanning direction side of the reference document is stored in the RAM 23 as the first maximum luminance difference ΔM1.

次に、CPU21は、第1読取画像YG1において第2算出領域SR2を設定し、第2算出領域SR2において、副走査方向に隣接する画素データGDの輝度差Δを算出する(S14)。図6に拡大して示す第2算出領域SR2は、第1読取領域YR1の第1後方領域KR1を読み取った読取画像であり、図6に示すように、1後方領域KR1は、第1読取領域YR1の主走査方向の中央の領域であり、副走査方向と逆側の領域に設定されている。   Next, the CPU 21 sets the second calculation region SR2 in the first read image YG1, and calculates the luminance difference Δ between the pixel data GD adjacent in the sub-scanning direction in the second calculation region SR2 (S14). The second calculation area SR2 shown in an enlarged manner in FIG. 6 is a read image obtained by reading the first rear area KR1 of the first reading area YR1, and as shown in FIG. 6, one rear area KR1 is the first reading area. This is the central area of YR1 in the main scanning direction, and is set in the area opposite to the sub-scanning direction.

第1後方領域KR1には、基準原稿の副走査方向と逆側の端辺が含まれるように設定されており、そのため、第2算出領域SR2には、基準原稿の副走査方向と逆側の端辺を読み取った画素データGDが含まれる。第2算出領域SR2は、第1後方読取結果の一例である。   The first rear region KR1 is set so as to include an end opposite to the sub-scanning direction of the reference document. Therefore, the second calculation region SR2 has a side opposite to the sub-scanning direction of the reference document. Pixel data GD obtained by reading the end side is included. The second calculation area SR2 is an example of the first backward reading result.

図6に、第2算出領域SR2の副走査方向における輝度成分Yの分布を示す。CPU21は、第2算出領域SR2において算出される輝度差Δのうち、絶対値の最大値を第2最大輝度差ΔM2としてRAM23に記憶する(S16)。この場合にも、絶対値の最大値とは、必ずしも絶対値の最大値である必要はなく、絶対値の最大値以下の値であり、絶対値の最大値との差が所定範囲(例えは、5%)に含まれる値であってもよい。図7に示すように、読取部30は、副走査方向の斜め後方から原稿に光を照射し、原稿からの反射光を読み取る。そのため、原稿の副走査方向と逆側の端辺を読み取る際、原稿の有する所定の厚みに起因して、原稿の副走査方向側の側面にも光が照射され、反射光が増大する。第2最大輝度差ΔM2は、後方側最大値の一例である。   FIG. 6 shows the distribution of the luminance component Y in the sub-scanning direction of the second calculation region SR2. The CPU 21 stores the maximum absolute value of the luminance difference Δ calculated in the second calculation area SR2 in the RAM 23 as the second maximum luminance difference ΔM2 (S16). Also in this case, the maximum absolute value does not necessarily need to be the maximum absolute value, and is a value equal to or less than the maximum absolute value, and the difference from the maximum absolute value is within a predetermined range (for example, 5%). As shown in FIG. 7, the reading unit 30 irradiates the original with light from obliquely behind in the sub-scanning direction, and reads the reflected light from the original. For this reason, when reading the edge of the document opposite to the sub-scanning direction, the side surface of the document on the side of the sub-scanning direction is irradiated with light due to the predetermined thickness of the document, and the reflected light increases. The second maximum luminance difference ΔM2 is an example of a rear maximum value.

従って、図6に示すように、基準原稿の副走査方向と逆側の端辺を読み取った画素データGDでは、その周辺の画素データGDに比べて輝度成分Yが上昇し、絶対値の大きい輝度差Δが取得される。その結果、基準原稿の副走査方向と逆側の端辺を読み取った画素データGDを用いて算出される輝度差Δが第2最大輝度差ΔM2としてRAM23に記憶される。   Therefore, as shown in FIG. 6, in the pixel data GD obtained by reading the edge on the opposite side to the sub-scanning direction of the reference document, the luminance component Y increases compared to the surrounding pixel data GD, and the luminance having a large absolute value is obtained. A difference Δ is obtained. As a result, the luminance difference Δ calculated using the pixel data GD obtained by reading the edge on the side opposite to the sub-scanning direction of the reference document is stored in the RAM 23 as the second maximum luminance difference ΔM2.

(原稿読取処理)
次に、原稿読取処理について説明する。図5に示すように、CPU20は、Fセンサ13を用いて原稿トレイ42に対象原稿(第2原稿の一例)が載置されたことが確認され、操作部11を介して対象原稿の読取指示が入力されると、原稿読取処理を開始する。
(Original reading process)
Next, the document reading process will be described. As shown in FIG. 5, the CPU 20 confirms that the target document (an example of the second document) is placed on the document tray 42 using the F sensor 13, and instructs the reading of the target document via the operation unit 11. Is input, the document reading process is started.

CPU21は、原稿読取処理を開始すると、読取駆動部25及び読取部30を制御して、対象原稿の搬送及び読み取りを開始する(S22)。CPU21は、読取部30によって、対象原稿を含む第2読取領域YR2を読み取る第2読取処理を実行する(S24:NO)。   When starting the document reading process, the CPU 21 controls the reading drive unit 25 and the reading unit 30 to start conveying and reading the target document (S22). The CPU 21 executes a second reading process for reading the second reading area YR2 including the target document by the reading unit 30 (S24: NO).

そして、CPU21は、Rセンサ14を用いて対象原稿の読み取りが終了したのが確認されると(S24:YES)、補正処理で取得された第1最大輝度差ΔM1及び第2最大輝度差ΔM2を用いて閾値Kを設定する設定処理を実行する(S26)。設定処理において、CPU21は、第1最大輝度差ΔM1と第2最大輝度差ΔM2のうち、小さい方の最大輝度差ΔMを選出し、当該最大輝度差ΔMを閾値Kとして設定し、RAM23に記憶する。   Then, when it is confirmed that the reading of the target document has been completed using the R sensor 14 (S24: YES), the CPU 21 calculates the first maximum luminance difference ΔM1 and the second maximum luminance difference ΔM2 acquired by the correction process. A setting process for setting the threshold value K is executed (S26). In the setting process, the CPU 21 selects the smaller maximum luminance difference ΔM among the first maximum luminance difference ΔM1 and the second maximum luminance difference ΔM2, sets the maximum luminance difference ΔM as the threshold value K, and stores it in the RAM 23. .

次に、CPU21は、第2読取領域YR2を読み取った第2読取画像YG2に対して、画像処理部24を用いて取得処理を実行し、第2読取画像YG2に含まれる画素データGD毎の輝度成分Yを取得する。そして、CPU21は、取得された第2読取画像YG2の輝度成分Yに対して画像処理部24を用いて抽出処理を実行する(S28)。   Next, the CPU 21 performs an acquisition process using the image processing unit 24 on the second read image YG2 read from the second read area YR2, and performs luminance for each pixel data GD included in the second read image YG2. The component Y is acquired. Then, the CPU 21 performs an extraction process using the image processing unit 24 on the acquired luminance component Y of the second read image YG2 (S28).

抽出処理において、CPU21は、設定処理において設定された閾値Kを用いて処理を行う。CPU21は、第2読取画像YG2において、副走査方向に隣接する画素データGDの輝度差Δを算出し、その輝度差Δが閾値K以上となる画素データGDのうち、副操作方向側の画素データGDをエッジ画素データEDとして抽出する。   In the extraction process, the CPU 21 performs a process using the threshold value K set in the setting process. The CPU 21 calculates the luminance difference Δ of the pixel data GD adjacent in the sub-scanning direction in the second read image YG2, and among the pixel data GD whose luminance difference Δ is equal to or greater than the threshold value K, pixel data on the sub-operation direction side. GD is extracted as edge pixel data ED.

CPU21は、抽出したエッジ画素データEDから、原稿領域GRを特定する特定処理を実行する(S30)。原稿領域GRは、第2読取画像YG2のうち、対象原稿を読み取った読取画像であり、原稿領域GRの端辺の画素データGDは、対象原稿の対応する端辺を読み取った画素データGDとなる。CPU21は、抽出したエッジ画素データEDを、原稿領域GRの副操作方向側及び副操作方向と逆側における端辺の画素データGDとして特定し、原稿領域GRを特定する。CPU21は、特定された原稿領域GRの読取画像をRAM23に記憶して保存し、スキャン処理を終了する(S32)。   The CPU 21 executes a specifying process for specifying the document area GR from the extracted edge pixel data ED (S30). The document area GR is a read image obtained by reading the target document in the second read image YG2, and the pixel data GD on the edge of the document area GR is the pixel data GD obtained by reading the corresponding edge of the document. . The CPU 21 specifies the extracted edge pixel data ED as the pixel data GD of the edge on the sub-operation direction side and the opposite side to the sub-operation direction of the document region GR, and specifies the document region GR. The CPU 21 stores and stores the read image of the specified document area GR in the RAM 23, and ends the scanning process (S32).

4.本実施形態の効果
(1)本実施形態の複合機1では、読取部30を用いて基準原稿を読み取った第1読取画像YG1を用いて閾値Kを設定し、その閾値Kを用いて対象原稿を読み取った第2読取画像YG2から原稿領域GRを特定する。この複合機1によれば、読取部30に応じた閾値Kを設定することができ、閾値Kが一定の値に設定されていた従来技術に比べて、適切に原稿領域GRを特定することができる。
4). Advantages of the present embodiment (1) In the MFP 1 of the present embodiment, the threshold K is set using the first read image YG1 obtained by reading the reference document using the reading unit 30, and the target document is used using the threshold K. The document area GR is specified from the second read image YG2 obtained by reading. According to the multifunction device 1, the threshold value K corresponding to the reading unit 30 can be set, and the document region GR can be appropriately specified as compared with the conventional technique in which the threshold value K is set to a constant value. it can.

(2)本実施形態の複合機1では、閾値Kを設定する際に、第1読取画像YG1において、副走査方向に隣接する画素データGDの輝度差Δを算出し、その輝度差Δから閾値Kを設定する。そのため、原稿に対して読取部30が相対移動する方向である副走査方向における原稿領域GRの端辺を適切に特定することができる。 (2) When the threshold value K is set, the multifunction device 1 of the present embodiment calculates the luminance difference Δ of the pixel data GD adjacent in the sub-scanning direction in the first read image YG1, and uses the luminance difference Δ to determine the threshold value. Set K. Therefore, it is possible to appropriately specify the edge of the document region GR in the sub-scanning direction, which is the direction in which the reading unit 30 moves relative to the document.

(3)さらに詳細には、閾値Kを設定する際に、第1算出領域SR1で算出される第1最大輝度差ΔM1と、第2算出領域SR2で算出される第2最大輝度差ΔM2と、の一方を用いて閾値Kを設定する。そのため、第2読取画像YG2のうち、最大輝度差ΔM以上の輝度差Δとなる画素データGDをエッジ画素データEDとして抽出することができ、副走査方向における原稿領域GRの端辺を適切に特定することができる。 (3) More specifically, when setting the threshold value K, the first maximum luminance difference ΔM1 calculated in the first calculation region SR1, the second maximum luminance difference ΔM2 calculated in the second calculation region SR2, The threshold value K is set using one of the above. Therefore, the pixel data GD having the luminance difference Δ greater than or equal to the maximum luminance difference ΔM in the second read image YG2 can be extracted as the edge pixel data ED, and the edge of the document region GR in the sub-scanning direction is appropriately specified. can do.

(4)本実施形態の複合機1では、輝度差Δを算出する際に、副走査方向に隣接する画素データGDの輝度成分Yの差ΔY及び位置情報Zの差ΔZを算出し、差ΔYを差ΔZで除した輝度成分Yの傾きを輝度差Δとして算出する。そのため、位置情報を考慮した輝度成分Yの傾きから輝度差Δを算出することができ、原稿領域GRの端辺を適切に特定することができる。 (4) When calculating the luminance difference Δ, the MFP 1 of the present embodiment calculates the difference ΔY of the luminance component Y and the difference ΔZ of the position information Z of the pixel data GD adjacent in the sub-scanning direction, and the difference ΔY Is calculated as the luminance difference Δ. Therefore, the luminance difference Δ can be calculated from the inclination of the luminance component Y in consideration of the position information, and the edge of the document area GR can be specified appropriately.

(5)本実施形態の複合機1では、予め定められた無地の基準原稿を用いて補正処理を実行する。無地の基準原稿を用いるので、基準原稿の副走査方向側の端辺を読み取った画素データGDから閾値Kを設定することができ、当該閾値Kを用いて、適切に原稿領域GRの端辺を特定することができる。 (5) In the multifunction device 1 of the present embodiment, the correction process is executed using a predetermined plain reference document. Since a plain reference document is used, the threshold value K can be set from the pixel data GD obtained by reading the edge of the reference document in the sub-scanning direction. The threshold value K is used to appropriately set the edge of the document region GR. Can be identified.

<実施形態2>
実施形態2を、図8、9を参照しつつ説明する。本実施形態の複合機1は、第1最大輝度差ΔM1及び第2最大輝度差ΔM2を、それぞれ閾値Kとして設定して抽出処理を実行する点で、のうち、第1最大輝度差ΔM1と第2最大輝度差ΔM2の一方のみを閾値Kとして設定する実施形態1と異なる。以下の説明では、実施形態1と同一の内容については重複した記載を省略する。
<Embodiment 2>
The second embodiment will be described with reference to FIGS. The multi-function device 1 of this embodiment sets the first maximum luminance difference ΔM1 and the second maximum luminance difference ΔM2 as the threshold value K, and executes the extraction process, among the first maximum luminance difference ΔM1 and the first maximum luminance difference ΔM1. This is different from the first embodiment in which only one of the two maximum luminance differences ΔM2 is set as the threshold value K. In the following description, the same description as that of the first embodiment will not be repeated.

1.原稿読取処理
本実施形態のスキャン処理を、図8、9を参照して説明する。本実施形態のスキャン処理のうち、補正処理については、実施形態1と同一のため説明を省略し、原稿読取処理について説明を行う。
1. Document Reading Process The scanning process of this embodiment will be described with reference to FIGS. Among the scanning processes of the present embodiment, the correction process is the same as that of the first embodiment, and thus the description thereof will be omitted.

図8に示すように、CPU21は、原稿読取処理において、読取部30によって第2読取領域YR2を読み取ると(S24:YES)、まず、第1最大輝度差ΔM1を前側閾値ZKとして設定し(S42)、RAM23に記憶する。   As shown in FIG. 8, when reading the second reading area YR2 by the reading unit 30 in the document reading process (S24: YES), the CPU 21 first sets the first maximum luminance difference ΔM1 as the front threshold value ZK (S42). ) And stored in the RAM 23.

CUP21は、第2読取画像YG2において第1抽出領域TR1を設定し、第1抽出領域TR1の輝度成分Yに対して画像処理部24を用いて抽出処理を実行する(S44)。図9に点線で囲って示す第1抽出領域TR1は、第2読取領域YR2の第2前方領域ZR2を読み取った読取画像であり、第2前方領域ZR2は、第2読取領域YR2の副走査方向側の領域であり、対象原稿の副走査方向側の端辺の全てが含まれるように設定されている。第1抽出領域TR1は、第2前方読取結果の一例である。   The CUP 21 sets the first extraction region TR1 in the second read image YG2, and executes the extraction process using the image processing unit 24 on the luminance component Y of the first extraction region TR1 (S44). A first extraction region TR1 surrounded by a dotted line in FIG. 9 is a read image obtained by reading the second front region ZR2 of the second reading region YR2, and the second front region ZR2 is a sub-scanning direction of the second reading region YR2. This is an area on the side, and is set so as to include all the edges on the side of the target document in the sub-scanning direction. The first extraction region TR1 is an example of a second front reading result.

抽出処理において、CPU21は、前側閾値ZKを用いて処理を行う。CPU21は、第1抽出領域TR1において、副走査方向に隣接する画素データGDの輝度差Δを算出し、その輝度差Δが前側閾値ZK以上となる画素データGDのうち、副操作方向側の画素データGDをエッジ画素データEDとして抽出する。CPU21は、前側閾値ZKを用いて抽出したエッジ画素データEDを、原稿領域GRの副操作方向側における端辺の画素データGDとして特定する(S46)。   In the extraction process, the CPU 21 performs a process using the front threshold value ZK. In the first extraction region TR1, the CPU 21 calculates the luminance difference Δ between the pixel data GD adjacent in the sub-scanning direction, and among the pixel data GD whose luminance difference Δ is equal to or greater than the front threshold value ZK, the pixel on the sub-operation direction side Data GD is extracted as edge pixel data ED. The CPU 21 specifies the edge pixel data ED extracted using the front threshold value ZK as the pixel data GD of the edge on the sub operation direction side of the document area GR (S46).

次に、CPU21は、第2最大輝度差ΔM2を後側閾値KKとして設定し(S48)、RAM23に記憶する。CPU21は、第2読取画像YG2において第2抽出領域TR2を設定し、第2抽出領域TR2の輝度成分Yに対して画像処理部24を用いて抽出処理を実行する(S50)。図9に点線で囲って示す第2抽出領域TR2は、第2読取領域YR2の第2後方領域KR2を読み取った読取画像であり、第2後方領域KR2は、第2読取領域YR2の副走査方向と逆側の領域であり、対象原稿の副走査方向と逆側の端辺の全てが含まれるように設定されている。第2抽出領域TR2は、第2後方読取結果の一例である。 Next, the CPU 21 sets the second maximum luminance difference ΔM2 as the rear threshold value KK (S48) and stores it in the RAM 23. C PU 21, in the second read image YG2 set the second extraction region TR2, executes the extraction process using the image processing unit 24 the luminance component Y of the second extraction region TR2 (S50). A second extraction region TR2 surrounded by a dotted line in FIG. 9 is a read image obtained by reading the second rear region KR2 of the second reading region YR2, and the second rear region KR2 is the sub-scanning direction of the second reading region YR2. And is set so as to include all edges on the opposite side to the sub-scanning direction of the target document. The second extraction region TR2 is an example of a second backward reading result.

抽出処理において、CPU21は、後側閾値KKを用いて処理を行う。CPU21は、第2抽出領域TR2において、副走査方向に隣接する画素データGDの輝度差Δを算出し、その輝度差Δが後側閾値KK以上となる画素データGDのうち、副操作方向側の画素データGDをエッジ画素データEDとして抽出する。CPU21は、後側閾値KKを用いて抽出したエッジ画素データEDを、原稿領域GRの副操作方向と逆側における端辺の画素データGDとして特定する(S52)。   In the extraction processing, the CPU 21 performs processing using the rear threshold value KK. In the second extraction region TR2, the CPU 21 calculates the luminance difference Δ between the pixel data GD adjacent in the sub-scanning direction, and among the pixel data GD whose luminance difference Δ is equal to or greater than the rear threshold value KK, Pixel data GD is extracted as edge pixel data ED. The CPU 21 specifies the edge pixel data ED extracted using the rear threshold value KK as the pixel data GD of the edge on the side opposite to the sub operation direction of the document area GR (S52).

CPU21は、副操作方向及び副操作方向と逆側における端辺から特定された原稿領域GRの読取画像をRAM23に記憶して保存し、スキャン処理を終了する(S32)。   The CPU 21 stores and stores in the RAM 23 the sub-operation direction and the read image of the document area GR specified from the edge opposite to the sub-operation direction, and ends the scanning process (S32).

4.本実施形態の効果
本実施形態の複合機1では、第1算出領域SR1で算出される第1最大輝度差ΔM1を前側閾値ZKとして設定し、第1抽出領域TR1において副走査方向にエッジ画素データEDを抽出する。また、第2算出領域SR2で算出される第2最大輝度差ΔM2を後側閾値KKとして設定し、第2抽出領域TRにおいて副走査方向にエッジ画素データEDを抽出する。
4). Effects of the present embodiment In the multifunction device 1 of the present embodiment, the first maximum luminance difference ΔM1 calculated in the first calculation region SR1 is set as the front threshold value ZK, and the edge pixel data in the sub-scanning direction in the first extraction region TR1. Extract ED. Also, set a second maximum luminance difference ΔM2 calculated by the second calculation region SR2 as rear threshold KK, extracts the sub-scanning direction edge pixel data ED in the second extraction region TR 2.

複合機1の読取部30では、光源31が原稿に対して副走査方向の斜め後方から光を照射する。そのため、図6に基準原稿を用いた場合で示すように、原稿の副走査方向側の端辺を読み取る場合には、画素データGDの輝度成分Yが低下し、原稿の副走査方向と逆側の端辺を読み取る場合には、画素データGDの輝度成分Yが上昇する。つまり、原稿の副走査方向側の端辺を読み取る場合と、原稿の副走査方向と逆側の端辺を読み取る場合とで、画素データGDの輝度成分Yの振る舞いが異なり、その傾きの大きさも異なる。   In the reading unit 30 of the multifunction device 1, the light source 31 irradiates the document with light from an oblique rear side in the sub-scanning direction. Therefore, as shown in the case of using the reference document in FIG. 6, when reading the edge of the document in the sub-scanning direction, the luminance component Y of the pixel data GD decreases, and the side opposite to the document in the sub-scanning direction. In the case of reading the end side, the luminance component Y of the pixel data GD increases. That is, the behavior of the luminance component Y of the pixel data GD differs between when reading the edge of the original in the sub-scanning direction and when reading the edge opposite to the sub-scanning direction of the original, and the magnitude of the inclination is also different. Different.

本実施形態の複合機1では、副走査方向側及び副走査方向と逆側において、前方閾値と後方閾値をそれぞれ設定する。そのため、光源31が原稿に対して副走査方向の斜め後方から光を照射することに起因して、原稿の副走査方向側及び副走査方向と逆側において受光される光量が異なる場合でも、原稿領域GRの副走査方向側及び副走査方向と逆側における端辺を適切に特定することができる。   In the multifunction device 1 of the present embodiment, the front threshold value and the rear threshold value are set on the sub-scanning direction side and on the opposite side to the sub-scanning direction, respectively. For this reason, even when the amount of light received by the light source 31 on the document in the sub-scanning direction and on the opposite side of the sub-scanning direction differs from each other due to the light irradiating the document from obliquely behind in the sub-scanning direction. The edges on the sub-scanning direction side and the reverse side of the sub-scanning direction of the region GR can be appropriately specified.

<他の実施形態>
本発明は上記記述及び図面によって説明した実施形態に限定されるものではなく、例えば次のような種々の態様も本発明の技術的範囲に含まれる。
(1)上記実施形態では、プリンタ機能、スキャナ機能、コピー機能、ファクシミリ機能などを備えた複合機1を用いて説明を行ったが、本発明はこれに限られない。例えば、少なくともスキャナ機能を有する装置であれば、他の機能の有無は特に限定されない。
<Other embodiments>
The present invention is not limited to the embodiments described with reference to the above description and the drawings, and for example, the following various aspects are also included in the technical scope of the present invention.
(1) In the above embodiment, the description has been made using the multifunction machine 1 having a printer function, a scanner function, a copy function, a facsimile function, etc., but the present invention is not limited to this. For example, the presence or absence of other functions is not particularly limited as long as the apparatus has at least a scanner function.

(2)上記実施形態では、複合機1が1つのCPU21を有し、1つのCPU21によって各種処理を実行する例を用いて示したが、本発明はこれに限られない。例えば、お互いに異なるCPU、ASICなどによって各種処理が分担されていても良い。 (2) In the above-described embodiment, the MFP 1 has one CPU 21 and executes various processes by one CPU 21. However, the present invention is not limited to this. For example, various processes may be shared by different CPUs, ASICs, and the like.

(3)上記実施形態では、原稿を読み取る方法として、ADF40により原稿が読取部30に対して移動するADF方式の読み取りを用いて説明を行った。しかし、原稿を読み取る方法はこれに限らず、第1プラテンガラス52上に静止して載置された原稿に対して読取部30が移動するフラットベット方式の読み取りにも適用することができる。 (3) In the above-described embodiment, the ADF method of reading the document with respect to the reading unit 30 by the ADF 40 has been described as the method of reading the document. However, the method of reading a document is not limited to this, and can also be applied to a flat bed type reading in which the reading unit 30 moves with respect to a document placed stationary on the first platen glass 52.

(4)上記実施形態では、読取部30の光源31が原稿に対して副走査方向の斜め後方から光を照射する例を用いて説明を行ったが、本発明は、読取部30の光源31が原稿に対して副走査方向の斜め前方から光を照射する場合にも適用することができる。 (4) In the above-described embodiment, the light source 31 of the reading unit 30 has been described using an example in which light is irradiated to the original from an oblique rear side in the sub-scanning direction. However, the present invention can also be applied to the case where light is irradiated on the original from an obliquely forward direction in the sub-scanning direction.

(5)上記実施形態では、補正処理が無地の基準原稿を用いて行われる例を用いて説明を行ったが、基準原稿は、少なくとも読取部30に読み取られる面が無地であれば良い。さらには、読取部30に読み取られる面において、第1読取領域YR1の第1前方領域ZR1及び第1後方領域KR1に相当する部分が無地であればよい。 (5) Although the above embodiment has been described using an example in which the correction process is performed using a plain reference document, it is sufficient that the reference document has at least a plain surface to be read by the reading unit 30. Furthermore, on the surface read by the reading unit 30, the portions corresponding to the first front region ZR1 and the first rear region KR1 of the first reading region YR1 may be plain.

(6)また、基準原稿は、必ずしも予め決められている必要はない。しかし、基準原稿が予め決められた一定の原稿であると、原稿領域GRを一定の精度で特定することができる。 (6) The reference document does not necessarily have to be determined in advance. However, if the reference document is a predetermined document, the document region GR can be specified with a certain accuracy.

(7)上記実施形態では、輝度差Δを算出する際に、輝度成分Yの傾きを算出し、その傾きを輝度差Δとする例を用いて説明を行ったが、本発明はこれに限らない。例えば、隣接する、あるいは位置情報Zが等間隔となる画素データGD間の輝度差Δを算出する場合には、画素データGDの輝度成分Yの差ΔYを輝度差Δとしてもよい。 (7) In the above embodiment, when the luminance difference Δ is calculated, the inclination of the luminance component Y is calculated, and the inclination is set as the luminance difference Δ. However, the present invention is not limited to this. Absent. For example, when calculating the luminance difference Δ between the pixel data GD adjacent to each other or having the position information Z at equal intervals, the difference ΔY between the luminance components Y of the pixel data GD may be used as the luminance difference Δ.

(8)上記実施形態では、輝度差Δを算出する際に、あるいはエッジ画素データEDを抽出する際に、副走査方向に隣接する画素データGD間において処理を行う例を用いて説明を行ったが、本発明はこれに限らない。主操作方向に隣接する画素データGD間において処理を行ってもよければ、副走査方向あるいは副操作方向に所定画素データGD間において処理を行ってもよい。 (8) The above embodiment has been described using an example in which processing is performed between pixel data GD adjacent in the sub-scanning direction when calculating the luminance difference Δ or extracting the edge pixel data ED. However, the present invention is not limited to this. If processing may be performed between pixel data GD adjacent in the main operation direction, processing may be performed between predetermined pixel data GD in the sub-scanning direction or the sub-operation direction.

(9)上記実施形態では、エッジ画素データEDを抽出する際に、原稿領域GRの副走査方向側及び副走査方向と逆側の両方の端辺においてエッジ画素データEDを抽出する例を用いて説明を行ったが、一方の端辺のみにおいてエッジ画素データEDを抽出してもよい。つまり、第1最大輝度差ΔM1を閾値Kとして設定し、原稿領域GRの副走査方向側の端辺に相当するエッジ画素データEDのみを抽出してもよければ、第2最大輝度差ΔM2を閾値Kとして設定し、原稿領域GRの副走査方向と逆側の端辺に相当するエッジ画素データEDのみを抽出してもよい。 (9) In the above embodiment, when the edge pixel data ED is extracted, the edge pixel data ED is extracted from the sub-scanning direction side and the opposite side of the document region GR. Although described, the edge pixel data ED may be extracted only at one end. That is, if the first maximum luminance difference ΔM1 is set as the threshold value K and only the edge pixel data ED corresponding to the edge of the document region GR on the sub-scanning direction side may be extracted, the second maximum luminance difference ΔM2 is set as the threshold value. It may be set as K, and only the edge pixel data ED corresponding to the edge of the document region GR opposite to the sub-scanning direction may be extracted.

3:画像読取部、24:画像処理部、25:読取駆動部、30:読取部、50:原稿載置部、60:エッジ抽出部、62:変換部、63:抽出部、ED:エッジ画素データ、GD:画素データ、GR:原稿領域、K:閾値、KR:後方領域、SR:算出領域、TR:抽出領域、Y:輝度成分、YG:読取画像、YR:読取領域、Z:位置情報、ZR:前方領域、Δ:輝度差、ΔM:最大輝度差 3: Image reading unit, 24: Image processing unit, 25: Reading drive unit, 30: Reading unit, 50: Document placement unit, 60: Edge extraction unit, 62: Conversion unit, 63: Extraction unit, ED: Edge pixel Data, GD: Pixel data, GR: Document area, K: Threshold, KR: Back area, SR: Calculation area, TR: Extraction area, Y: Luminance component, YG: Scanned image, YR: Scan area, Z: Position information , ZR: front area, Δ: luminance difference, ΔM: maximum luminance difference

Claims (3)

主走査方向に原稿を読み取るとともに、前記原稿に対して前記主走査方向と直交する副走査方向に相対移動する読取部と、
制御部と、
を備え、
前記制御部は、
前記読取部によって前記原稿を含む読取領域を読み取らせる読取処理と、
前記読取処理の読取結果に含まれる複数の画素毎の輝度を前記読取結果から取得する取得処理と、
前記副走査方向において、前記読取部によって先に読み取られた方を副走査方向前方とし、前記読取部によって後に読み取られた方を副走査方向後方として、
前記読取結果のうち、前記読取領域の前記副走査方向前方の領域であって、前記原稿の前記副走査方向前方における端辺を含む前方領域を読み取った前方読取結果、及び前記読取領域の前記副走査方向後方の領域であって、前記原稿の前記副走査方向後方における端辺を含む後方領域を読み取った後方読取結果のそれぞれにおいて前記副走査方向に隣接する画素毎の輝度差を、前記取得処理によって取得される画素毎の輝度を用いて算出する算出処理と、
前記原稿の前記副走査方向前方における端辺を特定する前方閾値として、前記前方読取結果に対して前記算出処理により算出された前記輝度差の絶対値の最大値を設定し、前記原稿の前記副走査方向後方における端辺を特定する後方閾値として、前記後方読取結果に対して前記算出処理により算出された前記輝度差の絶対値の最大値を設定する設定処理と、
を実行する画像読取装置。
A reading unit that reads a document in a main scanning direction and moves relative to the document in a sub-scanning direction orthogonal to the main scanning direction;
A control unit;
With
The controller is
A reading process for causing the reading unit to read a reading area including the document;
An acquisition process for acquiring the luminance for each of a plurality of pixels included in the reading result of the reading process from the reading result;
In the sub-scanning direction, the one read by the reading unit first is the front in the sub-scanning direction, and the one read later by the reading unit is the rear in the sub-scanning direction,
Among the reading results, a front reading result obtained by reading a front area of the reading area in front of the sub-scanning direction, including a front edge of the document in front of the sub-scanning direction, and the sub area of the reading area. A luminance difference for each pixel adjacent in the sub-scanning direction in each of the rear reading results obtained by reading the rear area including the rear edge in the sub-scanning direction of the original and the rear area in the sub-scanning direction is acquired. A calculation process for calculating using the luminance of each pixel acquired by
A maximum value of the absolute value of the luminance difference calculated by the calculation process is set for the front reading result as a front threshold value for specifying an end edge of the document in the sub-scanning direction, and the sub-scanning direction of the document is set. A setting process for setting a maximum value of the absolute value of the luminance difference calculated by the calculation process with respect to the backward reading result, as a rear threshold value for specifying an edge on the rear side in the scanning direction;
An image reading apparatus that executes
請求項1に記載の画像読取装置であって、
前記前方読取結果に対して前記前方閾値以上となる前記副走査方向に隣接する画素を抽出し、前記後方読取結果に対して前記後方閾値以上となる前記副走査方向に隣接する画素を抽出する抽出処理と、
前記抽出処理によって前記前方閾値以上となる画素として抽出された画素から、前記原稿の前記副走査方向前方における端辺を特定し、前記抽出処理によって前記後方閾値以上となる画素として抽出された画素から、前記原稿の前記副走査方向後方における端辺を特定する特定処理と、
を実行する、画像読取装置。
The image reading apparatus according to claim 1,
Extraction of pixels adjacent in the sub-scanning direction that are equal to or greater than the front threshold for the front reading result, and extraction of pixels adjacent to the sub-scanning direction that are equal to or greater than the rear threshold for the rear reading result Processing,
From the pixels extracted as pixels that are equal to or higher than the front threshold by the extraction process, the edge in the sub-scanning direction front of the document is specified, and from the pixels extracted as pixels that are equal to or higher than the rear threshold by the extraction process A specifying process for specifying an end edge of the original in the sub-scanning direction;
An image reading apparatus that executes
原稿の画像を読み取る画像読取方法であって、An image reading method for reading an image of a document,
前記原稿を含む読取領域で前記原稿を読み取る読取工程と、A reading step of reading the document in a reading area including the document;
前記読取工程で読み取った読取結果から、前記読取領域を構成する複数の画素毎の輝度を取得する取得工程と、An acquisition step of acquiring luminance for each of a plurality of pixels constituting the reading region from the reading result read in the reading step;
前記読取工程によって先に読み取られた方を前方とし、前記読取工程によって後に読み取られた方を後方として、The one read earlier by the reading step is the front, the one read later by the reading step is the rear,
前記読取結果のうち、前記読取領域の前方領域であって、前記原稿の前記前方における端辺を含む前記前方領域を読み取った前方読取結果、及び前記読取領域の後方領域であって、前記原稿の前記後方における端辺を含む前記後方領域を読み取った後方読取結果のそれぞれにおいて前記読取領域の前後方向に隣接する画素毎の輝度差を、前記取得工程によって取得される画素毎の輝度を用いて算出する算出工程と、Out of the reading results, a front reading result of reading the front area including the front edge of the original, and a rear area of the reading area. A luminance difference for each pixel adjacent in the front-rear direction of the reading region in each of the rear reading results obtained by reading the rear region including the rear edge is calculated using the luminance for each pixel acquired by the acquisition step. A calculation process to perform,
前記前方読取結果に対して前記算出工程により算出された前記輝度差の絶対値の最大値を前方閾値として設定し、前記後方読取結果に対して前記算出工程により算出された前記輝度差の絶対値の最大値を後方閾値として設定する設定工程と、A maximum value of the absolute value of the luminance difference calculated by the calculation step with respect to the front reading result is set as a front threshold value, and the absolute value of the luminance difference calculated by the calculation step with respect to the rear reading result A setting step for setting the maximum value of as a rear threshold;
前記前方読取結果に対して前記前方閾値以上となる前記前後方向に隣接する画素を抽出し、前記後方読取結果に対して前記後方閾値以上となる前記前後方向に隣接する画素を抽出する抽出工程と、An extraction step of extracting pixels adjacent in the front-rear direction that are equal to or greater than the front threshold with respect to the front reading result, and extracting pixels adjacent to the front-rear direction that are equal to or greater than the rear threshold with respect to the rear reading result; ,
前記前方閾値を用いて抽出された画素から、前記原稿の前記前方における端辺を特定し、前記後方閾値を用いて抽出された画素から、前記原稿の前記後方における端辺を特定する特定工程と、A specifying step of specifying the front edge of the document from the pixels extracted using the front threshold and specifying the rear edge of the document from the pixels extracted using the rear threshold; ,
を備える画像読取方法。An image reading method comprising:
JP2012103077A 2012-04-27 2012-04-27 Image reading apparatus and image reading method Active JP6069883B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2012103077A JP6069883B2 (en) 2012-04-27 2012-04-27 Image reading apparatus and image reading method

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2012103077A JP6069883B2 (en) 2012-04-27 2012-04-27 Image reading apparatus and image reading method

Publications (3)

Publication Number Publication Date
JP2013232748A JP2013232748A (en) 2013-11-14
JP2013232748A5 JP2013232748A5 (en) 2015-07-23
JP6069883B2 true JP6069883B2 (en) 2017-02-01

Family

ID=49678844

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2012103077A Active JP6069883B2 (en) 2012-04-27 2012-04-27 Image reading apparatus and image reading method

Country Status (1)

Country Link
JP (1) JP6069883B2 (en)

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP6490408B2 (en) * 2014-11-27 2019-03-27 株式会社沖データ Image reading device

Family Cites Families (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP3404955B2 (en) * 1995-01-31 2003-05-12 富士ゼロックス株式会社 Document size detector
JP2003219117A (en) * 2002-01-23 2003-07-31 Canon Inc Both-ends of original detecting device
JP2008270955A (en) * 2007-04-17 2008-11-06 Konica Minolta Business Technologies Inc Image forming apparatus

Also Published As

Publication number Publication date
JP2013232748A (en) 2013-11-14

Similar Documents

Publication Publication Date Title
US7969622B2 (en) Image reading apparatus, image formation apparatus, image reading method, image formation method, program for causing image reading method to be executed, and program for causing image formation method to be executed
JP7211238B2 (en) Edge detection device, tilt correction device, reading device, image processing device, and edge detection method
JP5652063B2 (en) Image reading apparatus, image forming apparatus, and shading correction method
US8917423B2 (en) Image scanner, auto document feeder, and image forming apparatus
JP5481436B2 (en) Image reading apparatus and image forming apparatus
JP2014060550A (en) Document reading device, image forming apparatus, document reading method, and program
JP2008263605A (en) Image forming apparatus, and image forming method
JP2011097467A (en) Image reading device, image forming device, image reading control program
US8508803B2 (en) Image reading apparatus and image reading method including a dividing unit that divides image data into vertical-streak-correction subject data
US8822908B2 (en) Image scanner, image forming apparatus and dew-condensation determination method
JP6069883B2 (en) Image reading apparatus and image reading method
JP2016066836A (en) Image reading apparatus, control method of the same, and program
US10250773B2 (en) Image reading device, method of adjusting distance between document and light receiving sensor in the device, and distance adjustment program
JP2013232748A5 (en)
JP2008278277A (en) Image reading device
EP2688277B1 (en) Image forming apparatus and method of controlling the same
JP2007116285A (en) Original reading apparatus and image forming apparatus
JP2007019854A (en) Image processing apparatus and image processing method
US8184336B2 (en) Image processing device, image processing method, and computer-readable record medium for image processing
JP2022181880A (en) Image reading device, method for controlling image reading device, and program
JP6885076B2 (en) Image reader, image forming device, image processing device, and image processing method
JP2006080941A (en) Image reading apparatus
JP2017108219A (en) Image reading device, copying apparatus, and reading method therefor
JP4141981B2 (en) Image reading apparatus and control method thereof
US9363397B2 (en) Image reading device and image forming apparatus

Legal Events

Date Code Title Description
RD05 Notification of revocation of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7425

Effective date: 20140408

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20150424

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20150603

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20160415

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20160426

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20160621

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20161206

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20161219

R150 Certificate of patent or registration of utility model

Ref document number: 6069883

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150