JP6944127B2 - Image processing equipment, computer programs, and image processing methods - Google Patents
Image processing equipment, computer programs, and image processing methods Download PDFInfo
- Publication number
- JP6944127B2 JP6944127B2 JP2017247063A JP2017247063A JP6944127B2 JP 6944127 B2 JP6944127 B2 JP 6944127B2 JP 2017247063 A JP2017247063 A JP 2017247063A JP 2017247063 A JP2017247063 A JP 2017247063A JP 6944127 B2 JP6944127 B2 JP 6944127B2
- Authority
- JP
- Japan
- Prior art keywords
- character
- pixels
- image data
- block
- learning model
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
Images
Landscapes
- Facsimile Image Signal Circuits (AREA)
Description
本明細書は、画像データに対する画像処理に関し、特に、画像内の文字画素を特定するための画像処理に関する。 The present specification relates to image processing for image data, and more particularly to image processing for specifying character pixels in an image.
画像データ、例えば、イメージセンサを用いて印刷物を読み取ることによって生成される画像データでは、該画像データによって示される画像内に、印刷物に含まれる網点が現れる。このような網点を構成する画素は、画像内の文字画素を特定する際に、文字画素として誤って特定されやすい。 In image data, for example, image data generated by reading a printed matter using an image sensor, halftone dots included in the printed matter appear in the image indicated by the image data. Pixels constituting such halftone dots are likely to be erroneously specified as character pixels when specifying character pixels in an image.
特許文献1に開示された画像処理装置は、画素ごとにエッジであるか否かを判定するエッジ判定と、画素ごとに網点であるかを判定する網点判定と、を実行する。画像処理装置は、エッジであり、かつ、網点ではない画素を、文字を示す画素として特定する。
The image processing apparatus disclosed in
このように、対象画像内において、文字を構成する文字画素を精度良く特定できる技術が求められていた。 As described above, there has been a demand for a technique capable of accurately identifying the character pixels constituting the characters in the target image.
本明細書は、対象画像内の文字画素を精度良く特定できる技術を開示する。 The present specification discloses a technique capable of accurately identifying character pixels in a target image.
本明細書に開示された技術は、上述の課題の少なくとも一部を解決するためになされたものであり、以下の適用例として実現することが可能である。 The techniques disclosed herein have been made to solve at least a portion of the above problems and can be realized as the following application examples.
[適用例1]画像処理装置であって、対象画像を示す対象画像データを取得する画像取得部と、対象画像データを用いて、文字を構成する文字画素の候補である複数個の文字候補画素を抽出する候補画素抽出部と、前記対象画像データを用いて、前記対象画像上に配置される複数個のブロックのそれぞれが文字を示す文字ブロックであるか否かをブロックごとに判断する判断部であって、前記ブロックごとの判断は、文字を示す複数個の文字画像データと文字を示さない複数個の非文字画像データとを用いてトレーニングされた機械学習モデルを用いて実行される、前記判断部と、前記判断部による判断結果を用いて、前記複数個の文字候補画素の中から、文字を示す複数個の文字画素を特定する文字画素特定部と、を備える画像処理装置。 [Application Example 1] An image processing device, an image acquisition unit that acquires target image data indicating a target image, and a plurality of character candidate pixels that are candidates for character pixels that constitute characters using the target image data. A candidate pixel extraction unit for extracting The block-by-block determination is performed using a machine learning model trained with a plurality of character image data indicating characters and a plurality of non-character image data not indicating characters. An image processing device including a determination unit and a character pixel identification unit that identifies a plurality of character pixels indicating characters from the plurality of character candidate pixels by using the determination result by the determination unit.
上記構成によれば、機械学習モデルを用いて文字ブロックであるか否かがブロックごとに判断される判断結果を用いて、複数個の文字候補画素の中から、複数個の文字画素が特定される。この結果、対象画像内の文字画素を精度良く特定できる。
[適用例2]
適用例1に記載の画像処理装置であって、
前記候補画素抽出部は、前記対象画像データに対して前記対象画像内のエッジの強度を調整するエッジ調整処理を実行することなく、前記複数個の文字候補画素を抽出する、画像処理装置。
[適用例3]
適用例1または2に記載の画像処理装置であって、
前記対象画像データは、複数個の画素の色値を含み、
前記色値は、複数個の成分値を含み、
前記候補画素抽出部は、
前記対象画像データを用いて、前記複数個の画素の色値に対応する複数個の第1値を含む第1画像データであって、前記複数個の第1値のそれぞれは、対応する前記色値の複数個の成分値のうちの最小値および最大値のいずれかに基づく値である、前記第1画像データを生成し、
前記第1画像データを用いて前記複数個の文字候補画素を抽出する、画像処理装置。
[適用例4]
適用例1〜3のいずれかに記載の画像処理装置であって、
前記候補画素抽出部は、
前記対象画像データを用いて、前記対象画像内の複数個の画素のうちの対応する画素の輝度を示す複数個の第2値を含む第2画像データを生成し、
基準よりも高い輝度を有する画素を前記文字候補画素として抽出するように、前記第2画像データを二値化する、画像処理装置。
[適用例5]
適用例1〜4のいずれかに記載の画像処理装置であって、
前記候補画素抽出部は、
第1の抽出処理を実行して、前記複数個の文字候補画素のうちの複数個の第1の文字候補画素を抽出し、
前記第1の抽出処理とは異なる第2の抽出処理を実行して、前記複数個の文字候補画素のうちの複数個の第2の文字候補画素を抽出し、
前記文字画素特定部は、
前記判断部による判断結果を用いて、前記複数個の第1の文字候補画素の中から、複数個の第1の画素を特定し、
前記判断部による判断結果を用いて、前記複数個の第2の文字候補画素の中から、複数個の第2の画素を特定し、
前記複数個の第1の画素と前記複数個の第2の画素とを含む前記複数個の文字画素を特定する、画像処理装置。
[適用例6]
適用例5に記載の画像処理装置であって、
前記判断部によって用いられる前記機械学習モデルは、第1の機械学習モデルと、前記第1の機械学習モデルとは異なる第2の機械学習モデルと、を含み、
前記判断部は、
前記第1の機械学習モデルを用いて、前記複数個のブロックのそれぞれが前記文字ブロックあるか否かをブロックごとに判断し、
前記第2の機械学習モデルを用いて、前記複数個のブロックのそれぞれが前記文字ブロックあるか否かをブロックごとに判断し、
前記文字画素特定部は、
前記第1の機械学習モデルを用いた判断結果を用いて、前記複数個の第1の画素を特定し、
前記第2の機械学習モデルを用いた判断結果を用いて、前記複数個の第2の画素を特定する、画像処理装置。
[適用例7]
適用例6に記載の画像処理装置であって、
前記複数個の文字画像データは、複数個の第1の文字画像データと、前記複数個の第1の文字画像データとは異なる複数個の第2の文字画像データと、を含み、
前記複数個の非文字画像データは、複数個の第1の非文字画像データと、前記複数個の第1の非文字画像データとは異なる複数個の第2の非文字画像データと、を含み、
前記第1の機械学習モデルは、前記複数個の第1の文字画像データと、前記複数個の第1の非文字画像データと、を用いてトレーニングされた前記機械学習モデルであり、
前記第2の機械学習モデルは、前記複数個の第2の文字画像データと、前記複数個の第2の非文字画像データと、を用いてトレーニングされた前記機械学習モデルである、画像処理装置。
[適用例8]
適用例7に記載の画像処理装置であって、
前記対象画像データは、複数個の画素の色値を含み、
前記色値は、複数個の成分値を含み、
前記第1の抽出処理は、
前記対象画像データを用いて、前記複数個の画素の色値に対応する複数個の第1値を含む第1画像データであって、前記複数個の第1値のそれぞれは、対応する前記色値の複数個の成分値のうちの最小値および最大値のいずれかに基づく値である、前記第1画像データを生成する処理と、
前記第1画像データを二値化することによって前記複数個の第1の画素を特定する処理と、
を含み、
前記第2の抽出処理は、
前記対象画像データを用いて、前記対象画像内の複数個の画素のうちの対応する画素の輝度を示す複数個の第2値を含む第2画像データを生成する処理と、
基準よりも高い輝度を有する画素を前記文字候補画素として特定するように、前記第2画像データを二値化することによって前記複数個の第2の画素を特定する処理と、
を含み、
前記第1の機械学習モデルは、背景よりも輝度が低い文字である第1の文字を示す前記複数個の第1の文字画像データと、前記第1の文字を示さない前記複数個の第1の非文字画像データと、を用いてトレーニングされた前記機械学習モデルであり、
前記第2の機械学習モデルは、背景よりも輝度が高い文字である第2の文字を示す前記複数個の第2の文字画像データと、前記第2の文字を示さない前記複数個の第2の非文字画像データと、を用いてトレーニングされた前記機械学習モデルである、画像処理装置。
[適用例9]
適用例1〜8のいずれかに記載の画像処理装置であって、
前記対象画像データのうち、特定済みの前記複数個の文字画素の値に対して第1の画像処理を実行し、前記複数個の文字画素とは異なる画素の値に対して前記第1の画像処理とは異なる第2の画像処理を実行して、画像処理済みの前記対象画像データを生成する画像処理部を備える、画像処理装置。
[適用例10]
適用例9に記載の画像処理装置であって、
前記画像処理済みの前記対象画像データを用いて、印刷データを生成する印刷データ生成部を備える、画像処理装置。
According to the above configuration, a plurality of character pixels are specified from a plurality of character candidate pixels by using the judgment result of determining whether or not the character block is a character block using a machine learning model. NS. As a result, the character pixels in the target image can be specified with high accuracy.
[Application example 2]
The image processing apparatus according to Application Example 1.
The candidate pixel extraction unit is an image processing device that extracts a plurality of character candidate pixels without executing edge adjustment processing for adjusting the intensity of edges in the target image with respect to the target image data.
[Application example 3]
The image processing apparatus according to Application Example 1 or 2.
The target image data includes color values of a plurality of pixels.
The color value includes a plurality of component values and contains a plurality of component values.
The candidate pixel extraction unit
Using the target image data, it is the first image data including a plurality of first values corresponding to the color values of the plurality of pixels, and each of the plurality of first values is the corresponding color. The first image data, which is a value based on either the minimum value or the maximum value among the plurality of component values of the value, is generated.
An image processing device that extracts the plurality of character candidate pixels using the first image data.
[Application example 4]
The image processing apparatus according to any one of Application Examples 1 to 3.
The candidate pixel extraction unit
Using the target image data, second image data including a plurality of second values indicating the brightness of the corresponding pixel among the plurality of pixels in the target image is generated.
An image processing device that binarizes the second image data so as to extract pixels having a brightness higher than the reference as the character candidate pixels.
[Application example 5]
The image processing apparatus according to any one of Application Examples 1 to 4.
The candidate pixel extraction unit
The first extraction process is executed to extract a plurality of first character candidate pixels among the plurality of character candidate pixels.
A second extraction process different from the first extraction process is executed to extract a plurality of second character candidate pixels among the plurality of character candidate pixels.
The character pixel identification unit is
Using the judgment result by the judgment unit, a plurality of first pixels are identified from the plurality of first character candidate pixels.
Using the judgment result by the judgment unit, a plurality of second pixels are identified from the plurality of second character candidate pixels.
An image processing device that identifies the plurality of character pixels including the plurality of first pixels and the plurality of second pixels.
[Application example 6]
The image processing apparatus according to Application Example 5.
The machine learning model used by the determination unit includes a first machine learning model and a second machine learning model different from the first machine learning model.
The judgment unit
Using the first machine learning model, it is determined for each block whether or not each of the plurality of blocks is the character block.
Using the second machine learning model, it is determined for each block whether or not each of the plurality of blocks is the character block.
The character pixel identification unit is
Using the judgment result using the first machine learning model, the plurality of first pixels are identified, and the plurality of first pixels are identified.
An image processing device that identifies a plurality of the second pixels by using the determination result using the second machine learning model.
[Application 7]
The image processing apparatus according to Application Example 6.
The plurality of character image data includes a plurality of first character image data and a plurality of second character image data different from the plurality of first character image data.
The plurality of non-character image data includes a plurality of first non-character image data and a plurality of second non-character image data different from the plurality of first non-character image data. ,
The first machine learning model is the machine learning model trained using the plurality of first character image data and the plurality of first non-character image data.
The second machine learning model is an image processing apparatus that is the machine learning model trained using the plurality of second character image data and the plurality of second non-character image data. ..
[Application Example 8]
The image processing apparatus according to Application Example 7.
The target image data includes color values of a plurality of pixels.
The color value includes a plurality of component values and contains a plurality of component values.
The first extraction process is
Using the target image data, it is the first image data including a plurality of first values corresponding to the color values of the plurality of pixels, and each of the plurality of first values is the corresponding color. The process of generating the first image data, which is a value based on either the minimum value or the maximum value of the plurality of component values of the value, and
A process of identifying the plurality of first pixels by binarizing the first image data, and
Including
The second extraction process is
A process of using the target image data to generate second image data including a plurality of second values indicating the brightness of the corresponding pixel among the plurality of pixels in the target image.
A process of specifying the plurality of second pixels by binarizing the second image data so that a pixel having a brightness higher than the reference is specified as the character candidate pixel.
Including
In the first machine learning model, the plurality of first character image data showing the first character, which is a character having a brightness lower than that of the background, and the plurality of first characters not showing the first character. The machine learning model trained using the non-character image data of
In the second machine learning model, the plurality of second character image data showing the second character, which is a character having a brightness higher than that of the background, and the plurality of second characters not showing the second character. An image processing apparatus, which is the machine learning model trained using the non-character image data of.
[Application example 9]
The image processing apparatus according to any one of Application Examples 1 to 8.
Among the target image data, the first image processing is executed on the identified values of the plurality of character pixels, and the first image is applied to the values of pixels different from the plurality of character pixels. An image processing apparatus including an image processing unit that executes a second image processing different from the processing to generate the target image data that has been image-processed.
[Application Example 10]
The image processing apparatus according to Application Example 9.
An image processing apparatus including a print data generation unit that generates print data using the target image data that has been image-processed.
なお、本明細書に開示される技術は、種々の形態で実現することが可能であり、例えば、複合機、スキャナ、プリンタ、画像処理方法、これら装置の機能または上記方法を実現するためのコンピュータプログラム、そのコンピュータプログラムを記録した記録媒体、等の形態で実現することができる。 The techniques disclosed in the present specification can be realized in various forms, for example, a multifunction device, a scanner, a printer, an image processing method, a function of these devices, or a computer for realizing the above method. It can be realized in the form of a program, a recording medium on which the computer program is recorded, or the like.
A.実施例:
A−1:複合機200の構成
実施の形態を実施例に基づき説明する。図1は、画像処理装置の一例である複合機200の構成を示すブロック図である。複合機200は、画像処理装置を制御するプロセッサであるCPU210と、DRAMなどの揮発性記憶装置220と、フラッシュメモリやハードディスクドライブなどの不揮発性記憶装置230と、液晶ディスプレイなどの表示部240と、液晶ディスプレイと重畳されたタッチパネルやボタンを含む操作部250と、ユーザの端末装置100などの外部装置と通信を行うためのインタフェース(通信IF)270と、印刷実行部280と、読取実行部290と、を備えている。
A. Example:
A-1: Configuration of the
読取実行部290は、CPU210の制御に従って、一次元イメージセンサを用いて原稿を光学的に読み取ることによってスキャンデータを生成する。印刷実行部280は、CPU210の制御に従って、複数種類のトナー、具体的には、シアン(C)、マゼンタ(M)、イエロ(Y)、ブラック(K)のトナーを、色材として用いて、レーザ方式で用紙などの印刷媒体に画像を印刷する。具体的には、印刷実行部280は、感光ドラムを露光して静電潜像を形成し、該静電潜像にトナーを付着させてトナー像を形成する。印刷実行部280は、感光ドラム上に形成されたトナー像を用紙に転写する。なお、変形例では、印刷実行部280は、色材としてのインクを吐出して、用紙上に画像を形成するインクジェット方式の印刷実行部であっても良い。
The
揮発性記憶装置220は、CPU210が処理を行う際に生成される種々の中間データを一時的に格納するバッファ領域を提供する。不揮発性記憶装置230には、コンピュータプログラムPGが格納されている。コンピュータプログラムPGは、CPU210に複合機200の制御を実現させる制御プログラムである。本実施例では、コンピュータプログラムPGは、複合機200の製造時に、不揮発性記憶装置230に予め格納される形態で提供される。これに代えて、コンピュータプログラムPGは、サーバからダウンロードされる形態で提供されても良く、DVD−ROMなどに格納される形態で提供されてもよい。CPU210は、コンピュータプログラムPGを実行することにより、後述する画像処理を実行することができる。
The
A−2:画像処理
図2は、画像処理のフローチャートである。この画像処理は、例えば、ユーザが、読取実行部290の原稿台に、原稿を載置して、コピーの実行指示を入力した場合に実行される。この画像処理は、原稿を、読取実行部290を用いて読み取ることによって生成されるスキャンデータを取得し、該スキャンデータを用いて、原稿を示す印刷データを生成することで、いわゆる原稿のコピーを実現する処理である。
A-2: Image processing FIG. 2 is a flowchart of image processing. This image processing is executed, for example, when the user places the document on the platen of the
S10では、CPU210は、ユーザが原稿台に設置した原稿を、読取実行部290を用いて読み取ることによって、対象画像データとしてのスキャンデータを生成する。原稿は、例えば、複合機200、あるいは、図示しないプリンタによって画像が印刷された印刷物である。生成されたスキャンデータは、揮発性記憶装置220(図1)のバッファ領域に格納される。スキャンデータは、複数個の画素の値を含み、複数個の画素の値のそれぞれは、画素の色をRGB表色系の色値(RGB値とも呼ぶ)で表す。すなわち、スキャンデータは、RGB画像データである。1個の画素のRGB値は、例えば、赤色(R)と緑色(G)と青色(B)との3個の色成分の値(以下、R値、G値、B値とも呼ぶ)を含んでいる。本実施例では、各成分値の階調数は、256階調である。
In S10, the
RGB画像データであるスキャンデータは、RGB表色系を構成する3個の色成分に対応する3個の成分画像データ(R成分画像データ、G成分画像データ、B成分画像データ)を含んでいると言うことができる。各成分画像データは、1種類の色成分の値を、画素の値とする画像データである。 The scan data, which is RGB image data, includes three component image data (R component image data, G component image data, B component image data) corresponding to the three color components constituting the RGB color system. Can be said. Each component image data is image data in which the value of one type of color component is used as the pixel value.
図3は、画像処理で用いられる画像の一例を示す第1の図である。図3(A)には、スキャンデータによって示されるスキャン画像SIの一例が示されている。スキャン画像SIは、複数個の画素を含む。該複数個の画素は、第1方向D1と、第1方向D1と直交する第2方向D2と、に沿って、マトリクス状に配置されている。 FIG. 3 is a first diagram showing an example of an image used in image processing. FIG. 3A shows an example of the scanned image SI shown by the scan data. The scanned image SI includes a plurality of pixels. The plurality of pixels are arranged in a matrix along a first direction D1 and a second direction D2 orthogonal to the first direction D1.
図3(A)のスキャン画像SIは、原稿の用紙の地色を示す白色の背景Bg1と、3個の文字とは異なるオブジェクトOb1〜Ob3と、4個の文字Ob4〜Ob7と、4個の文字Ob4〜Ob7の背景Bg2、Bg3と、を含んでいる。文字とは異なるオブジェクトは、例えば、写真である。背景Bg2、Bg3は、白色とは異なる色を有する均一な画像である。背景Bg2上の文字Ob4、Ob5は、背景Bg2よりも濃い色を有する文字、すなわち、背景Bg2よりも輝度が低い文字である。背景Bg3上の文字Ob6、Ob7は、背景Bg3よりも薄い色を有する文字、すなわち、背景Bg3よりも輝度が高い文字である。 The scanned image SI of FIG. 3A shows a white background Bg1 indicating the background color of the paper of the original, objects Ob1 to Ob3 different from the three characters, four characters Ob4 to Ob7, and four characters. The backgrounds Bg2 and Bg3 of the characters Ob4 to Ob7 are included. Objects that are different from text are, for example, photographs. The backgrounds Bg2 and Bg3 are uniform images having colors different from white. The characters Ob4 and Ob5 on the background Bg2 are characters having a darker color than the background Bg2, that is, characters having a lower brightness than the background Bg2. The characters Ob6 and Ob7 on the background Bg3 are characters having a lighter color than the background Bg3, that is, characters having a higher brightness than the background Bg3.
S20では、CPU210は、スキャンデータに対して、文字特定処理を実行する。文字特定処理は、スキャン画像SI内の複数個の画素を、文字を示す複数個の文字画素と、文字を示さない複数個の非文字画素と、に分類することによって、文字画素を特定する処理である。
In S20, the
文字特定処理によって、例えば、文字画素の値が「1」とされ、非文字画素の値が「0」とされた二値画像データ(文字特定データとも呼ぶ)が生成される。図3(B)には、文字特定データによって示される文字特定画像TIの一例が示されている。この文字特定画像TIには、スキャン画像SI内の4個の文字Ob4〜Ob7を構成する複数個の画素が、文字画素Tp4〜Tp7として、特定されている。文字特定処理の詳細は、後述する。 By the character identification process, for example, binary image data (also referred to as character identification data) in which the value of the character pixel is set to "1" and the value of the non-character pixel is set to "0" is generated. FIG. 3B shows an example of the character identification image TI indicated by the character identification data. In this character identification image TI, a plurality of pixels constituting the four characters Ob4 to Ob7 in the scanned image SI are specified as character pixels Tp4 to Tp7. The details of the character identification process will be described later.
S30では、CPU210は、スキャンデータに対して、網点平滑化処理を実行して、平滑化画像を示す平滑化画像データを生成する。具体的には、CPU210は、スキャンデータに含まれる複数個の非文字画素の値のそれぞれに対して、ガウスフィルタなどの平滑化フィルタを用いた平滑化処理を実行して、平滑化処理済みの複数個の非文字画素の値を算出する。平滑化処理の対象となる非文字画素は、S20の分類処理によって生成された文字特定データを参照して特定される。CPU210は、スキャンデータに含まれる複数個の文字画素の値と、平滑化処理済みの複数個の非文字画素の値と、を含む平滑化画像データを生成する。
In S30, the
図3(C)には、平滑化画像データによって示される平滑化画像GIが示されている。平滑化画像GIは、白色の背景Bg1gと、スキャン画像SI内のオブジェクトOb1〜Ob7、背景Bg2、Bg3が平滑化されたオブジェクトOb1g〜Ob7g、背景Bg2g、Bg3gと、を含んでいる。これらのオブジェクトOb1g〜Ob7g、背景Bg2g、Bg3gのうち、文字Ob4g〜Ob7g以外の部分(非文字部分とも呼ぶ)は、スキャン画像SIと比較して、平滑化されている。 FIG. 3C shows a smoothed image GI represented by the smoothed image data. The smoothed image GI includes a white background Bg1g, objects Ob1 to Ob7 in the scanned image SI, objects Ob1g to Ob7g in which the backgrounds Bg2 and Bg3 are smoothed, backgrounds Bg2g, and Bg3g. Of these objects Ob1g to Ob7g, background Bg2g, and Bg3g, parts other than the characters Ob4g to Ob7g (also referred to as non-character parts) are smoothed as compared with the scanned image SI.
S40では、CPU210は、平滑化画像データに対して、文字鮮鋭化処理を実行して、処理済み画像データを生成する。具体的には、CPU210は、平滑化画像データに含まれる複数個の文字画素の値のそれぞれに対して、アンシャープマスク処理や鮮鋭化フィルタを適用する処理などの鮮鋭化処理を実行して、鮮鋭化処理済みの複数個の文字画素の値を算出する。鮮鋭化処理の対象となる文字画素は、S20の分類処理によって生成された文字特定データを参照して特定される。そして、CPU210は、平滑化画像データに含まれる複数個の非文字画素の値(平滑化処理済みの複数個の非文字画素の値)と、鮮鋭化処理済みの複数個の文字画素の値と、を含む処理済み画像データを生成する。平滑化画像データに含まれる複数個の文字画素の値は、平滑化処理の対象ではないので、スキャンデータに含まれる複数個の文字画素の値と同じである。したがって、本ステップの文字鮮鋭化処理は、スキャンデータに含まれる複数個の文字画素の値に対して実行される、とも言うことができる。
In S40, the
図3(D)には、処理済み画像データによって示される処理済み画像FIが示されている。処理済み画像FIは、白色の背景Bg1fと、スキャン画像SI内のオブジェクトOb1〜Ob7、背景Bg2、Bg3に対応するオブジェクトOb1f〜Ob7f、背景Bg2f、Bg3fを含んでいる。これらのオブジェクトOb1f〜Ob7f、背景Bg2f、Bg3fのうち、文字Ob4f〜Ob7fのエッジは、スキャン画像SI内の文字Ob4〜Ob7や、平滑化画像GI内の文字Ob4g〜Ob7gと比較して、鮮鋭化されている。また、文字以外のオブジェクトOb1f〜Ob3f、背景Bg2f、Bg3fのエッジは、鮮鋭化されていない。 FIG. 3D shows a processed image FI represented by the processed image data. The processed image FI includes a white background Bg1f, objects Ob1 to Ob7 in the scanned image SI, objects Ob1f to Ob7f corresponding to the backgrounds Bg2 and Bg3, and backgrounds Bg2f and Bg3f. Of these objects Ob1f to Ob7f, backgrounds Bg2f, and Bg3f, the edges of the characters Ob4f to Ob7f are sharpened as compared with the characters Ob4 to Ob7 in the scanned image SI and the characters Ob4g to Ob7g in the smoothed image GI. Has been done. Further, the edges of the objects Ob1f to Ob3f, the background Bg2f, and the Bg3f other than the characters are not sharpened.
以上の説明から解るように、処理済み画像FI内のオブジェクトOb1f〜Ob7f、背景Bg2f、Bg3fは、鮮鋭化された文字と、平滑化された非文字を含む。 As can be seen from the above description, the objects Ob1f to Ob7f, the background Bg2f, and the Bg3f in the processed image FI include sharpened characters and smoothed non-characters.
S50では、CPU210は、処理済み画像データを用いて印刷データを生成する印刷データ生成処理を実行する。具体的には、RGB画像データである処理済み画像データに対して色変換処理が実行されて、印刷に用いられる色材に対応する色成分(C、M、Y、Kの成分)を有する色値であるCMYK値で画素ごとの色を示すCMYK画像データが生成される。色変換処理は、例えば、公知のルックアップテーブルを参照して実行される。CMYK値画像データに対して、ハーフトーン処理が実行されて、印刷に用いられる色材ごと、かつ、画素ごとに、ドットの形成状態を示すドットデータが生成される。ドットの形成状態は、例えば、ドット有、ドット無の2種類の状態や、大ドット、中ドット、小ドット、ドット無の4種類の状態を取り得る。ハーフトーン処理は、例えば、ディザ法や、誤差拡散法に従って実行される。該ドットデータは、印刷時に用いられる順に並べ替えられ、該ドットデータに、印刷コマンドが付加されることによって、印刷データが生成される。
In S50, the
S60では、CPU210は、印刷処理を実行して、画像処理を終了する。具体的には、CPU210は、印刷データを印刷実行部280に供給して、印刷実行部280に処理済み画像を印刷させる。
In S60, the
以上説明した画像処理によれば、スキャンデータのうち、特定済みの複数個の文字画素の値に対して第1の画像処理(具体的には、エッジ鮮鋭化処理)が実行され(S40)、複数個の非文字画素の値に対して第1の画像処理とは異なる第2の画像処理(具体的には、網点平滑化処理)が実行され(S30)、処理済み画像データが生成される。この結果、文字画素の値と、文字画素とは異なる画素の値と、に対して、互いに異なる画像処理が実行されるので、スキャンデータに対する適切な画像処理を実現できる。なお、変形例では、S40の文字鮮鋭化処理が先に実行され、その後に、S30の網点平滑化処理が実行されても良い。 According to the image processing described above, the first image processing (specifically, the edge sharpening process) is executed for the values of the plurality of specified character pixels in the scan data (S40). A second image process (specifically, halftone dot smoothing process) different from the first image process is executed for the values of the plurality of non-character pixels (S30), and the processed image data is generated. NS. As a result, different image processing is executed for the value of the character pixel and the value of the pixel different from the character pixel, so that appropriate image processing for the scan data can be realized. In the modified example, the character sharpening process of S40 may be executed first, and then the halftone dot smoothing process of S30 may be executed.
より具体的には、鮮鋭化処理済みの複数個の文字画素の値と、平滑化処理済みの複数個の非文字画素の値と、を含む処理済み画像データが生成される(S30、S40)。この結果、見栄えの良い処理済み画像FIを示す処理済み画像データを生成することができる。 More specifically, processed image data including the values of the plurality of character pixels that have been sharpened and the values of the plurality of non-character pixels that have been smoothed is generated (S30, S40). .. As a result, it is possible to generate processed image data showing the processed image FI that looks good.
例えば、図3(D)の処理済み画像FIに示すように、処理済み画像データでは、文字画素の値には、鮮鋭化処理済みの値が用いられている。この結果、処理済み画像FIの文字がシャープに見えるので、例えば、印刷される処理済み画像FIの見栄えを向上することができる。 For example, as shown in the processed image FI of FIG. 3D, in the processed image data, the sharpening-processed value is used as the value of the character pixel. As a result, the characters of the processed image FI look sharp, so that the appearance of the processed image FI to be printed can be improved, for example.
また、処理済み画像データでは、処理済み画像FI内の背景Bg2や、写真などの文字とは異なるオブジェクトを構成する非文字画素の値には、平滑化処理済みの値が用いられている。この結果、処理済み画像FIの文字とは異なる部分に、例えば、モアレの原因となる網点が表れることを抑制できるので、印刷される処理済み画像FIにモアレなどの不具合が発生することを抑制できる。この結果、印刷される処理済み画像FIの見栄えを向上することができる。また、写真内のエッジが過度に強調されることが抑制されるので、画像FIのさらに印刷される処理済み画像FIの見栄えを向上することができる。 Further, in the processed image data, the smoothed value is used as the value of the background Bg2 in the processed image FI and the non-character pixel constituting an object different from the character such as a photograph. As a result, for example, it is possible to suppress the appearance of halftone dots that cause moire in a portion different from the characters of the processed image FI, so that it is possible to prevent problems such as moire from occurring in the printed processed image FI. can. As a result, the appearance of the processed image FI to be printed can be improved. In addition, since the edges in the photograph are suppressed from being excessively emphasized, the appearance of the processed image FI to be further printed can be improved.
例えば、スキャンデータの生成に用いられた原稿は、画像が印刷された印刷物である。このため、例えば、原稿内の白とは異なる色を有する背景Bg2などの均一な部分は、画像を形成するドットレベルでみると、網点を形成している。網点は、複数個のドットと、ドットが配置されていない部分(原稿の地色を示す部分)と、を含む。このために、スキャン画像SI内の背景Bg2、Bg3を示す領域には、画素レベルでみると、網点が示されている。網点内のドットは、原稿の印刷時に用いられるディザマトリクスなどの影響によって、周期性を持って並んでいる。このためにスキャンデータを用いて印刷を行うと、ハーフトーン処理前の元画像(スキャン画像SI)内に存在している網点のドットの周期成分と、印刷画像を構成する網点のドットの周期成分と、が干渉して、モアレが表れやすい。本実施例の処理済み画像FIでは、平滑化処理によって、元画像(スキャン画像SI)内のエッジとは異なる部分のドットの周期成分が低減される。この結果、処理済み画像データを用いて、処理済み画像FIを印刷する場合に、例えば、印刷される処理済み画像FIにモアレが発生することを抑制できる。 For example, the original used to generate the scan data is a printed matter on which an image is printed. Therefore, for example, a uniform portion such as a background Bg2 having a color different from white in a document forms halftone dots when viewed at the dot level forming an image. The halftone dots include a plurality of dots and a portion where the dots are not arranged (a portion indicating the ground color of the document). For this reason, halftone dots are shown in the region showing the backgrounds Bg2 and Bg3 in the scanned image SI when viewed at the pixel level. The dots in the halftone dots are arranged with periodicity due to the influence of the dither matrix used when printing the original. For this reason, when printing is performed using scan data, the periodic components of halftone dot dots existing in the original image (scan image SI) before halftone processing and the dots of halftone dots that make up the printed image Moire is likely to appear due to interference with the periodic component. In the processed image FI of this embodiment, the smoothing process reduces the periodic component of dots in a portion different from the edge in the original image (scanned image SI). As a result, when the processed image FI is printed using the processed image data, for example, it is possible to suppress the occurrence of moire in the printed processed image FI.
特に、上記画像処理では、処理済み画像データを用いて、印刷データが生成される(S50)ので、例えば、印刷される処理済み画像FIに発生しやすいモアレを抑制可能な適切な印刷データを生成することができる。 In particular, in the above image processing, print data is generated using the processed image data (S50). Therefore, for example, appropriate print data capable of suppressing moire that tends to occur in the processed image FI to be printed is generated. can do.
A−3:文字特定処理
図2のS20の文字特定処理について説明する。S21では、CPU210は、スキャンデータを用いて、第1の二値画像データ生成処理を実行して、第1の二値画像データを生成する。第1の二値画像データは、文字候補画素と、文字候補画素とは異なる画素と、を示す二値データである。文字候補画素は、文字特定処理にて特定すべき文字画素の候補である。ここで、第1の二値画像データによって示される文字候補画素を第1の文字候補画素とも呼ぶ。
A-3: Character identification process The character identification process of S20 in FIG. 2 will be described. In S21, the
図4は、文字特定処理で用いられる画像の一例を示す図である。図4(A)には、第1の二値画像データによって示される第1の二値画像CI1の一例が示されている。第1の二値画像CI1において黒色の部分は、文字候補画素として特定された画素を示し、白色の部分は、文字候補画素とは異なる画素を示す。 FIG. 4 is a diagram showing an example of an image used in the character identification process. FIG. 4A shows an example of the first binary image CI1 represented by the first binary image data. In the first binary image CI1, the black portion indicates a pixel specified as a character candidate pixel, and the white portion indicates a pixel different from the character candidate pixel.
第1の二値画像CI1では、スキャン画像SI内の文字とは異なるオブジェクトOb1〜Ob3を構成する複数個の画素Cp1〜Cp3と、文字Ob4、Ob5を構成する複数個の画素Cp4、Cp5と、背景Bg3と文字Ob6、Ob7との全体を構成する画素Cpbと、が、第1の文字候補画素として特定されている。また、第1の二値画像CI1では、文字Ob6、Ob7を構成する画素が、背景Bg3から分離されて特定されてはいない。このように、特定される第1の文字候補画素は、文字とは異なるオブジェクトや背景を構成する画素を含み得る。これは、1種類の二値化処理だけでは、全ての文字候補画素を抽出することは困難であり、また、文字を構成しない画素を排除することも困難であるためである。第1の二値画像データ生成処理の詳細は、後述する。本実施例では、第1の二値画像データ生成処理では、背景よりも輝度が低い文字を構成する文字画素を含む第1の文字候補画素が抽出される。 In the first binary image CI1, a plurality of pixels Cp1 to Cp3 constituting the objects Ob1 to Ob3 different from the characters in the scanned image SI, and a plurality of pixels Cp4 and Cp5 constituting the characters Ob4 and Ob5 are used. The pixel Cpb that constitutes the entire background Bg3 and the characters Ob6 and Ob7 is specified as the first character candidate pixel. Further, in the first binary image CI1, the pixels constituting the characters Ob6 and Ob7 are not specified separately from the background Bg3. As described above, the specified first character candidate pixel may include pixels forming an object or background different from the character. This is because it is difficult to extract all character candidate pixels by only one type of binarization processing, and it is also difficult to exclude pixels that do not constitute characters. Details of the first binary image data generation process will be described later. In this embodiment, in the first binary image data generation process, first character candidate pixels including character pixels constituting characters having a brightness lower than that of the background are extracted.
S22では、CPU210は、スキャンデータに対して、第1のブロック判定処理を実行して、文字を示す文字ブロックと、文字を示さない非文字ブロックと、を示す二値画像データ(第1のブロック判定データとも呼ぶ)を生成する。第1のブロック判定データは、文字ブロックを構成する画素の値が「1」とされ、非文字ブロックを個性する画素の値が「0」とされた二値データである。第1のブロック判定処理は、スキャンデータを用いて、スキャン画像SI内に配置される複数個のブロックのそれぞれが、文字を示す文字ブロックであるか否かをブロックごとに判断する処理である。1個のブロックは、N個(Nは2以上の整数)の画素を含む矩形の領域である。第1のブロック判定処理の詳細は後述する。
In S22, the
図4(B)には、第1のブロック判定データによって示される第1のブロック判定画像BI1の一例が示されている。この第1のブロック判定画像BI1には、スキャン画像SI内の文字Ob4、Ob5が配置された領域に対応する文字ブロックBk4、Bk5が特定されている。このように、第1のブロック判定データによって特定される文字ブロックは、文字とは異なるオブジェクトを含む領域に対応するブロックを含まない。第1のブロック判定データによって特定される文字ブロックは、背景よりも輝度が低い文字を示すブロックである。このために、第1のブロック判定画像BI1では、背景よりも輝度が高い文字Ob6、Ob7が配置された領域に対応する文字ブロックBk6、Bk7(図4(D))が特定されていない。 FIG. 4B shows an example of the first block determination image BI1 shown by the first block determination data. In the first block determination image BI1, the character blocks Bk4 and Bk5 corresponding to the area in which the characters Ob4 and Ob5 are arranged in the scanned image SI are specified. As described above, the character block specified by the first block determination data does not include the block corresponding to the area including the object different from the character. The character block specified by the first block determination data is a block indicating a character having a lower brightness than the background. Therefore, in the first block determination image BI1, the character blocks Bk6 and Bk7 (FIG. 4 (D)) corresponding to the area in which the characters Ob6 and Ob7 having higher brightness than the background are arranged are not specified.
S23では、CPU210は、S21にて生成済みの第1の二値画像データと、S22にて生成済みの第1のブロック判定データと、を用いて、論理積合成処理を実行する。これによって、複数個の第1の文字画素を示す第1の文字特定データが生成される。具体的には、CPU210は、第1の二値画像データと、第1のブロック判定データと、の各画素の論理積を取ることによって、第1の文字特定データとしての二値画像データを生成する。換言すれば、CPU210は、スキャン画像SI内の複数個の画素のうち、S21において第1の文字候補画素として特定され、かつ、S22において特定済みの文字ブロック内に位置する画素を、第1の文字画素として特定する。CPU210は、スキャン画像SI内の複数個の画素のうち、第1の文字候補画素として特定されない画素と、非文字ブロック内の画素とを、第1の文字画素として特定しない。
In S23, the
図4(A)の第1の二値画像CI1に示すように、第1の二値画像データによって特定される複数個の第1の文字候補画素は、スキャン画像SI内の文字Ob4、Ob5を構成する画素Cp4、Cp5の他に、他のオブジェクトOb1〜Ob3や背景Bg3を構成する画素Cp1〜Cp3、Cpbを含んでいる。図4(B)の第1のブロック判定画像BI1に示すように、第1の二値画像データと第1のブロック判定データとの論理積を取ることで、第1の文字特定データでは、スキャン画像SI内の文字Ob4、Ob5を構成する画素Cp4、Cp5が、選択的に第1の文字画素として特定される。すなわち、複数個の第1の文字画素は、スキャン画像SI内の文字Ob4、Ob5を構成する画素Cp4、Cp5を含み、他のオブジェクトOb1〜Ob3や背景Bg3を構成する画素Cp1〜Cp3、Cpbを含まない As shown in the first binary image CI1 of FIG. 4A, the plurality of first character candidate pixels identified by the first binary image data have the characters Ob4 and Ob5 in the scan image SI. In addition to the constituent pixels Cp4 and Cp5, the pixels Cp1 to Cp3 and Cpb constituting the other objects Ob1 to Ob3 and the background Bg3 are included. As shown in the first block determination image BI1 of FIG. 4B, by taking the logical product of the first binary image data and the first block determination data, the first character identification data can be scanned. The pixels Cp4 and Cp5 constituting the characters Ob4 and Ob5 in the image SI are selectively specified as the first character pixel. That is, the plurality of first character pixels include pixels Cp4 and Cp5 constituting characters Ob4 and Ob5 in the scanned image SI, and pixels Cp1 to Cp3 and Cpb constituting other objects Ob1 to Ob3 and background Bg3. Not included
S24では、CPU210は、スキャンデータを用いて、第2の二値画像データ生成処理を実行して、第2の二値画像データを生成する。第2の二値画像データは、文字候補画素と、文字候補画素とは異なる画素と、を示す二値データである。ここで、第2の二値画像データによって示される文字候補画素を第2の文字候補画素とも呼ぶ。
In S24, the
図4(C)には、第2の二値画像データによって示される第2の二値画像CI2の一例が示されている。第2の二値画像CI2において黒色の部分は、第2の文字候補画素として特定された画素を示し、白色の部分は、文字候補画素とは異なる画素を示す。図4(C)についても同様である。 FIG. 4C shows an example of the second binary image CI2 represented by the second binary image data. In the second binary image CI2, the black portion indicates a pixel specified as the second character candidate pixel, and the white portion indicates a pixel different from the character candidate pixel. The same applies to FIG. 4 (C).
第2の二値画像CI2では、背景Bg3よりも輝度が高い文字Ob6、Ob7と、背景Bg1gを構成するCp8と、が、第2の文字候補画素として特定されている。また、第1の二値画像CI1では、文字Ob4、Ob5を構成する画素が特定されていない。このように、第2の文字候補画素は、第1の文字候補画素と同様に、文字とは異なるオブジェクトや背景を構成する画素を含み得る。第2の二値画像データ生成処理の詳細は、後述する。本実施例では、第2の二値画像データ生成処理では、背景よりも輝度が高い文字を構成する文字画素を含む第2の文字候補画素が抽出される。 In the second binary image CI2, the characters Ob6 and Ob7 having higher brightness than the background Bg3 and the Cp8 constituting the background Bg1g are specified as the second character candidate pixels. Further, in the first binary image CI1, the pixels constituting the characters Ob4 and Ob5 are not specified. As described above, the second character candidate pixel may include pixels forming an object or background different from the character, like the first character candidate pixel. Details of the second binary image data generation process will be described later. In this embodiment, in the second binary image data generation process, a second character candidate pixel including a character pixel constituting a character having a brightness higher than that of the background is extracted.
S25では、CPU210は、スキャンデータに対して、第2のブロック判定処理を実行して、文字を示す文字ブロックと、文字を示さない非文字ブロックと、を示す二値画像データ(第2のブロック判定データとも呼ぶ)を生成する。第2のブロック判定データは、第1のブロック判定データと同様に、文字ブロックを構成する画素の値が「1」とされ、非文字ブロックを個性する画素の値が「0」とされた二値データである。第2のブロック判定処理は、第1のブロック判定処理と同様に、スキャンデータを用いて、スキャン画像SI内に配置される複数個のブロックのそれぞれが、文字を示す文字ブロックであるか否かをブロックごとに判断する処理である。第2のブロック判定処理の詳細は後述する。
In S25, the
図4(D)には、第2のブロック判定データによって示される第2のブロック判定画像BI2の一例が示されている。この第2のブロック判定画像BI2には、スキャン画像SI内の文字Ob6、Ob7が配置された領域に対応する文字ブロックBk6、Bk7が特定されている。このように、第2のブロック判定データによって特定される文字ブロックは、文字とは異なるオブジェクトを含む領域に対応するブロックを含まない。第2のブロック判定データによって特定される文字ブロックは、背景よりも輝度が高い文字を示すブロックである。このために、第2のブロック判定画像BI2では、背景よりも輝度が低い文字Ob4、Ob5が配置された領域に対応する文字ブロックBk4、Bk5(図4(B))が特定されていない。 FIG. 4D shows an example of the second block determination image BI2 shown by the second block determination data. In the second block determination image BI2, the character blocks Bk6 and Bk7 corresponding to the area in which the characters Ob6 and Ob7 are arranged in the scanned image SI are specified. As described above, the character block specified by the second block determination data does not include the block corresponding to the area including the object different from the character. The character block specified by the second block determination data is a block indicating a character having a brightness higher than that of the background. Therefore, in the second block determination image BI2, the character blocks Bk4 and Bk5 (FIG. 4B) corresponding to the area in which the characters Ob4 and Ob5 having lower brightness than the background are arranged are not specified.
S26では、CPU210は、S24にて生成済みの第2の二値画像データと、S25にて生成済みの第2のブロック判定データと、を用いて、論理積合成処理を実行する。これによって、複数個の第2の文字画素を示す第2の文字特定データが生成される。具体的には、CPU210は、第2の二値画像データと、第2のブロック判定データと、の各画素の論理積を取ることによって、第2の文字特定データとしての二値画像データを生成する。換言すれば、CPU210は、スキャン画像SI内の複数個の画素のうち、S24において第2の文字候補画素として特定され、かつ、S25において特定済みの文字ブロック内に位置する画素を、第2の文字画素として特定する。CPU210は、スキャン画像SI内の複数個の画素のうち、第2の文字候補画素として特定されない画素と、非文字ブロック内の画素とを、第2の文字画素として特定しない。
In S26, the
図4(C)の第2の二値画像CI2に示すように、第2の二値画像データによって特定される複数個の第2の文字候補画素は、スキャン画像SI内の文字Ob6、Ob7を構成する画素Cp6、Cp7の他に、背景Bg1などを構成する画素Cp8を含んでいる。図4(D)の第2のブロック判定画像BI2に示すように、第2の二値画像データと第2のブロック判定データとの論理積を取ることで、第2の文字特定データでは、スキャン画像SI内の文字Ob6、Ob7を構成する画素Cp6、Cp7が、選択的に第2の文字画素として特定される。すなわち、複数個の第2の文字画素は、スキャン画像SI内の文字Ob6、Ob7を構成する画素Cp6、Cp7を含み、背景Bg1などを構成する画素Cp8を含まない。 As shown in the second binary image CI2 of FIG. 4C, the plurality of second character candidate pixels identified by the second binary image data have the characters Ob6 and Ob7 in the scan image SI. In addition to the constituent pixels Cp6 and Cp7, the constituent pixels Cp8 including the background Bg1 and the like are included. As shown in the second block determination image BI2 of FIG. 4D, by taking the logical product of the second binary image data and the second block determination data, the second character identification data can be scanned. The pixels Cp6 and Cp7 constituting the characters Ob6 and Ob7 in the image SI are selectively specified as the second character pixels. That is, the plurality of second character pixels include the pixels Cp6 and Cp7 constituting the characters Ob6 and Ob7 in the scanned image SI, and do not include the pixels Cp8 forming the background Bg1 and the like.
S27では、CPU210は、S23にて生成済みの第1の文字特定データと、S26にて生成済みの第2の文字特定データと、を用いて、論理和合成処理を実行する。これによって、最終的に特定すべき複数個の文字画素を示す文字特定データが生成される。換言すれば、CPU210は、第1の文字特定データによって特定される複数個の第1の文字画素と、第2の文字特定データによって特定される複数個の第2の文字画素と、を含む画素群であって、第1の文字画素とも第2の文字画素とも異なる画素を含まない画素群を、最終的に、複数個の文字画素として特定する。この結果、第1の文字特定データと第2の文字特定データとを用いて、スキャン画像SI内の複数個の文字画素の特定漏れを効果的に低減できる。例えば、図4(B)に示す文字特定画像TIのように、最終的な文字特定データによって特定される複数個の文字画素は、スキャン画像SI内の文字Ob4〜Ob7を構成する複数個の文字画素Tp4〜Tp7を含み、他のオブジェクトや背景を構成する画素を含んでいない。
In S27, the
A−4:第1の二値画像データ生成処理
図2のS21の第1の二値画像データ生成処理について説明する。図5は、第1の二値画像データ生成処理のフローチャートである。S100では、CPU210は、スキャンデータを用いて、最小成分データを生成する。具体的には、CPU210は、スキャンデータに含まれる複数個の画素の値(RGB値)のそれぞれから、最小成分値Vminを取得する。最小成分値Vminは、RGB値に含まれる複数個の成分値(R値、G値、B値)のうちの最小値である。CPU210は、これらの最小成分値Vminを複数個の画素の値とする画像データを、最小成分データとして生成する。最小成分データは、スキャン画像SIと同じサイズの画像を示す画像データである。最小成分データに含まれる複数個の画素の値のそれぞれは、スキャンデータの対応する画素の値(RGB値)の最小成分値Vminである。
A-4: First binary image data generation process The first binary image data generation process in S21 of FIG. 2 will be described. FIG. 5 is a flowchart of the first binary image data generation process. In S100, the
図6は、スキャンデータの最小成分値と最大成分値の説明図である。図6(A)〜図6(E)には、RGB値の一例として、シアン(C)、マゼンタ(M)、イエロ(Y)、黒(K)、白(W)のRGB値が、棒グラフで図示されている。図6に示すように、C、M、Y、K、WのRGB値(R、G、B)は、それぞれ、(0、255、255)、(255、0、255)(255、255、0)、(0、0、0)、(255、255、255)である。 FIG. 6 is an explanatory diagram of the minimum component value and the maximum component value of the scan data. 6 (A) to 6 (E) show a bar graph showing RGB values of cyan (C), magenta (M), yellow (Y), black (K), and white (W) as an example of RGB values. Is illustrated in. As shown in FIG. 6, the RGB values (R, G, B) of C, M, Y, K, and W are (0, 255, 255), (255, 0, 255) (255, 255, respectively). 0), (0, 0, 0), (255, 255, 255).
これらのRGB値の輝度Yは、上述したように、例えば、Y=0.299×R+0.587×G+0.114×Bの式を用いて算出できる。C、M、Y、K、Wの輝度(0〜255の値で表す)は、約186、113、226、0、255であり、それぞれに異なる値となる(図6)。これに対して、C、M、Y、K、Wの最小成分値Vminは、図6に示すように、0、0、0、0、255となり、白(W)を除いて同じ値となる。 As described above, the luminance Y of these RGB values can be calculated using, for example, the formula Y = 0.299 × R + 0.587 × G + 0.114 × B. The luminances of C, M, Y, K, and W (represented by values from 0 to 255) are about 186, 113, 226, 0, and 255, which are different values (FIG. 6). On the other hand, the minimum component values Vmin of C, M, Y, K, and W are 0, 0, 0, 0, 255 as shown in FIG. 6, which are the same values except for white (W). ..
図7は、画像処理に用いられる画像の一例を示す第2の図である。図7(A)は、スキャン画像SIのうち、上述した網点領域の拡大図である。例えば、図7(A)の例では、スキャン画像SI内の網点領域は、複数個のMドットMDと、複数個のYドットYDと、を含んでいる。ここでは、説明のために、MドットMDを示す画像は、マゼンタの原色を有する均一な画像であり、YドットYDを示す画像は、イエロの原色を有する均一な画像であるとする。 FIG. 7 is a second diagram showing an example of an image used for image processing. FIG. 7A is an enlarged view of the halftone dot region described above in the scanned image SI. For example, in the example of FIG. 7A, the halftone dot region in the scanned image SI includes a plurality of M dot MDs and a plurality of Y dots YD. Here, for the sake of explanation, it is assumed that the image showing the M dot MD is a uniform image having the primary color of magenta, and the image showing the Y dot YD is a uniform image having the primary color of yellow.
図7(B)には、最小成分データによって示される最小成分画像MNIの一例が示されている。この最小成分画像MNIは、図7(A)のスキャン画像SIに対応している。最小成分画像MNIでは、スキャン画像SIのYドットMDに対応する領域MDb内の画素の値と、YドットYDに対応する領域YDb内の画素の値と、は互いに同じとなる。図7(C)には、比較例として、各画素の輝度を示す輝度画像データによって示される輝度画像YIが示されている。この輝度画像YIは、図7(A)のスキャン画像SIに対応している。輝度画像YIでは、最小成分画像MNIとは異なり、スキャン画像SIのMドットMDに対応する領域MDd内の画素の値と、YドットYDに対応する領域YDd内の画素の値と、は互いに異なる。 FIG. 7B shows an example of the minimum component image MNI represented by the minimum component data. This minimum component image MNI corresponds to the scanned image SI of FIG. 7 (A). In the minimum component image MNI, the values of the pixels in the region MDb corresponding to the Y dot MD of the scanned image SI and the values of the pixels in the region YDb corresponding to the Y dot YD are the same as each other. As a comparative example, FIG. 7C shows a luminance image YI represented by luminance image data indicating the luminance of each pixel. This luminance image YI corresponds to the scanned image SI of FIG. 7 (A). In the luminance image YI, unlike the minimum component image MNI, the values of the pixels in the region MDd corresponding to the M dot MD of the scan image SI and the values of the pixels in the region YDd corresponding to the Y dot YD are different from each other. ..
以上の説明から解るように、最小成分画像MNIでは、スキャン画像SIにおいて、原稿内のC、M、Y、Kドットが形成された部分に対応する複数個の画素の値の間の差が、輝度画像YIよりも小さくなる。そして、最小成分画像MNIでは、スキャン画像SIにおいて、原稿内の地色(用紙の白色)を示す領域に対応する地色領域の画素の値が、ドットが形成された部分に対応する画素の値よりも大きくなる。 As can be seen from the above description, in the minimum component image MNI, in the scanned image SI, the difference between the values of the plurality of pixels corresponding to the portions where the C, M, Y, and K dots are formed in the document is large. It is smaller than the luminance image YI. Then, in the minimum component image MNI, in the scanned image SI, the pixel value of the ground color region corresponding to the region indicating the ground color (white of the paper) in the document is the pixel value corresponding to the portion where the dots are formed. Will be larger than.
S110では、CPU210は、生成された最小成分データに対して、二値化処理を実行して、二値画像データを生成する。本ステップにて生成される二値画像データが、第1の二値画像データである。例えば、CPU210は、最小成分データにおいて、画素の値が閾値(例えば、128)以下である画素を、第1の文字候補画素に分類し、画素の値が閾値より大きな値である画素を、第1の文字候補画素に分類しない。二値画像データでは、上述したように、第1の文字候補画素の値は、「1」とされ、それ以外の画素の値は、「0」とされる。
In S110, the
以上説明した第1の二値画像データ生成処理によれば、最小成分データを用いて、第1の二値画像データが生成される。一般的に、背景よりも輝度が低い(すなわち、色が濃い)文字は、主としてドットで構成され、背景は、主として用紙の白色で構成される場合が多い。最小成分データでは、図7を参照して説明したように、原稿内の地色(用紙の白色)を示す領域に対応する地色領域の画素の値が、ドットが形成された部分に対応する画素の値よりも大きくなるので、第1の二値画像データにおいて、背景よりも輝度が低い(すなわち、色が濃い)文字を構成する画素の特定漏れを抑制できる。 According to the first binary image data generation process described above, the first binary image data is generated using the minimum component data. In general, characters that are less bright (that is, darker in color) than the background are often composed mainly of dots, and the background is often composed mainly of the white color of the paper. In the minimum component data, as described with reference to FIG. 7, the pixel value of the ground color region corresponding to the region indicating the ground color (white of the paper) in the document corresponds to the portion where the dots are formed. Since it is larger than the pixel value, it is possible to suppress specific omission of pixels constituting characters having lower brightness (that is, darker color) than the background in the first binary image data.
例えば、イエロ(Y)は、C、M、Kと比較して濃度が低い(輝度が高い)。このために、用紙の地色(白)の背景に、イエロの文字がある場合には、例えば、輝度を示す輝度画像データを二値化しても、該イエロの文字を構成する文字画素を、適切に文字候補画素として特定できない場合がある。本実施例では、このような場合でも該イエロの文字を構成する文字画素を、適切に文字候補画素として特定できる。このために、最小成分データを用いて、背景よりも輝度が低い文字を構成する文字画素の特定を実行することで、例えば、輝度画像データだけでは特定できない文字を特定し得る。この結果、スキャン画像SI内の文字候補画素の特定精度を向上できる。 For example, yellow (Y) has a lower density (higher brightness) than C, M, and K. For this reason, when there are yellow characters on the background of the background color (white) of the paper, for example, even if the luminance image data indicating the brightness is binarized, the character pixels constituting the yellow characters are displayed. It may not be possible to properly identify it as a character candidate pixel. In this embodiment, even in such a case, the character pixels constituting the character of the yellow can be appropriately specified as the character candidate pixels. For this purpose, by executing the identification of the character pixels constituting the characters having the brightness lower than that of the background by using the minimum component data, for example, the characters that cannot be specified only by the luminance image data can be identified. As a result, the accuracy of specifying the character candidate pixels in the scanned image SI can be improved.
A−5:第2の二値画像データ生成処理
図2のS24の第2の二値画像データ生成処理について説明する。図8は、第2の二値画像データ生成処理のフローチャートである。S200では、CPU210は、スキャンデータを用いて、輝度画像データを生成する。具体的には、CPU210は、スキャンデータから取得される各画素のR値、G値、B値を用いて、各画素の輝度Yを算出する。輝度Yは、例えば、上記3成分の加重平均であり、具体的には、Y=0.299×R+0.587×G+0.114×Bの式を用いて算出できる。このように、輝度画像データの複数個の画素の値は、スキャン画像SI内の複数個の画素のうちの対応する画素の輝度Yを示す。
A-5: Second binary image data generation process The second binary image data generation process of S24 of FIG. 2 will be described. FIG. 8 is a flowchart of the second binary image data generation process. In S200, the
S210では、CPU210は、生成された輝度画像データに対して、二値化処理を実行して、二値画像データを生成する。例えば、CPU210は、輝度画像データにおいて、画素の値(すなわち、輝度)が閾値(例えば、128)以上である画素を、文字候補画素に分類し、画素の値が閾値未満である画素を、文字候補画素とは異なる画素に分類する。二値画像データでは、上述したように、文字候補画素の値は、「1」とされ、文字候補画素とは異なる画素の値は、「0」とされる。そして、S210にて生成される二値画像データが、第2の二値画像データである。第2の二値画像データでは、上述したように背景より輝度が高い(すなわち、色が薄い)文字を構成する文字画素を含む第2の文字候補画素が特定される。
In S210, the
以上説明した第2の二値画像データ生成処理によれば、輝度画像データを用いて、第2の二値画像データが生成される。文字の読みやすさのために、文字の色と背景の色とは、輝度に比較的大きな差があることが多い。このために、輝度画像データを用いることで、文字画素の特定漏れを抑制することができる。 According to the second binary image data generation process described above, the second binary image data is generated using the luminance image data. Due to the readability of the characters, there is often a relatively large difference in brightness between the color of the characters and the color of the background. Therefore, by using the luminance image data, it is possible to suppress the specific omission of the character pixel.
さらに、第2の二値画像データと、第1の二値画像データとは、互いに異なる文字画素を特定し得る。例えば、上述したように、第2の二値画像データは、背景より輝度が高い文字を構成する画素を文字候補画素として特定できるのに対して、第1の二値画像データは、背景より輝度が低い文字を構成する画素を文字候補画素として特定できる。また、第1の二値画像データは、例えば、印刷に用いられるC、M、Y、Kの原色の背景上に位置し、かつ、C、M、Y、Kの別の原色あるいは用紙の白色を有する文字を構成する文字画素を特定し難いのに対して、第2の二値画像データは、このような文字を構成する文字画素を特定し得る。このために、第1の二値画像データと第2の二値画像データとを併用することで、さらに、文字候補画素の特定漏れを抑制することができる。 Further, the second binary image data and the first binary image data can identify character pixels different from each other. For example, as described above, in the second binary image data, pixels constituting characters having higher brightness than the background can be specified as character candidate pixels, whereas in the first binary image data, the brightness is higher than that of the background. Pixels constituting characters with a low value can be specified as character candidate pixels. Further, the first binary image data is located on the background of the primary colors C, M, Y, and K used for printing, and is another primary color of C, M, Y, and K, or the white color of the paper. While it is difficult to specify the character pixels constituting the character having the above, the second binary image data can specify the character pixels constituting such a character. Therefore, by using the first binary image data and the second binary image data in combination, it is possible to further suppress the omission of specific character candidate pixels.
A−6:ブロック判定処理
図2のS22の第1のブロック判定処理およびS25の第2のブロック判定処理について説明する。これらのブロック判定処理は、文字を示す複数個の文字画像データと文字を示さない複数個の非文字画像データとを用いてトレーニングされた機械学習モデルを用いて実行される。第1のブロック判定処理と第2のブロック判定処理とでは、用いられる機械学習モデルが互いに異なる。第1のブロック判定処理で用いられる機械学習モデルを第1の機械学習モデルと呼び、第2のブロック判定処理で用いられる機械学習モデルを第2の機械学習モデルと呼ぶ。本実施例では、第1のブロック判定処理と第2のブロック判定処理とでは、用いられる機械学習モデルを除いた処理は同一であり、1つのフローチャートを用いて説明する。
A-6: Block determination process The first block determination process of S22 and the second block determination process of S25 of FIG. 2 will be described. These block determination processes are executed using a machine learning model trained using a plurality of character image data showing characters and a plurality of non-character image data not showing characters. The machine learning models used in the first block determination process and the second block determination process are different from each other. The machine learning model used in the first block determination process is called a first machine learning model, and the machine learning model used in the second block determination process is called a second machine learning model. In this embodiment, the first block determination process and the second block determination process are the same except for the machine learning model used, and will be described with reference to one flowchart.
図9は、ブロック判定処理のフローチャートである。図10は、スキャン画像SI上に配置される複数個のブロックBLの説明図である。ブロック判定処理は、上述したように、ブロック判定データを、スキャン画像SI内に配置される複数個のブロックBLのそれぞれが文字を示す文字ブロックであるか否かをブロックBLごとに判断することによって生成する処理である。 FIG. 9 is a flowchart of the block determination process. FIG. 10 is an explanatory diagram of a plurality of blocks BL arranged on the scanned image SI. As described above, the block determination process determines whether or not each of the plurality of block BLs arranged in the scan image SI is a character block indicating a character based on the block determination data for each block BL. It is a process to generate.
S400では、CPU210は、ブロック判定データを生成するためのキャンバスデータをメモリ(具体的には、揮発性記憶装置220のバッファ領域)に準備する。キャンバスデータによって示されるキャンバス(初期画像)は、スキャン画像SIと同じサイズの画像、すなわち、同じ画素数の画像である。キャンバスデータの各画素の値は、所定の初期値(例えば、0)である。
In S400, the
S405では、CPU210は、スキャン画像SIに、注目ブロックを設定する。最初の注目ブロックは、本実施例では、図10の左上のブロックBL(1)である。1個のブロックは、N個(Nは2以上の整数)の画素を含む矩形の領域である。ここで、図10において、スキャン画像SI上にマトリクス状に配置された破線で示される複数個の升目は、サブブロックSBを示している。1個のサブブロックSBは、k個(kは、1≦k<Nをを満たす整数)の画素を含む矩形の領域である。本実施例では、サブブロックSBは、縦M画素×横M画素(Mは、1以上の整数)の領域である(k=(M×M))。例えば、1個のブロックBLは、本実施例では、縦L個×横L個(Lは、2以上の整数)のサブブロックSBを含む領域である。すなわち、本実施例の各ブロックBLは、縦(L×M)画素×横(L×M)画素の領域である。本実施例では、M=10、L=5であるので、各ブロックBLは、縦50画素×横50画素の領域である(N=2500)。
In S405, the
S410では、CPU210は、機械学習モデルを用いて、注目ブロック内の画像が文字を示す確率(文字確率Txrと呼ぶ)を算出する。
In S410, the
機械学習モデルは、CNN(Convolutional Neural Network)を用いたモデルである。このような機械学習モデルとしては、例えば、LeNetやAlexNetが用いられる。
LeNetは、例えば、「Y. LeCun, L. Bottou, Y. Bengio, and P. Haffner(1998): Gradient-based learning applied to document recognition. Proceedings of the IEEE 86, 11(November 1998),2278-2324.」に開示されている。AlexNetは、例えば、「Alex Krizhevsky, Ilya Sutskever and Geoffrey E. Hinton(2012): ImageNet classification with deep convolutional neural networks In F. Pereira, C. J. C. Burges, L. Bottou, & K. Q. Weinberger, eds. Advances in Neural Information Processing Systems 25. Curran Associates, Inc., 1097-1105.5」に開示されている。
The machine learning model is a model using CNN (Convolutional Neural Network). As such a machine learning model, for example, LeNet or AlexNet is used.
LeNet, for example, "Y. LeCun, L. Bottou, Y. Bengio, and P. Haffner (1998): Gradient-based learning applied to document recognition. Proceedings of the IEEE 86, 11 (November 1998), 2278-2324. It is disclosed in. AlexNet, for example, "Alex Krizhevsky, Ilya Sutskever and Geoffrey E. Hinton (2012): ImageNet classification with deep convolutional neural networks In F. Pereira, CJC Burges, L. Bottou, & KQ Weinberger, eds. Advances in Neural Information Processing Systems 25. Curran Associates, Inc., 1097-1105.5 ”.
機械学習モデルの入力は、注目ブロック内のN個の画素の値(例えば、RGB値や輝度値)を、各画素の注目ブロック内での位置に応じた順序で並べた行列である。すなわち、注目ブロック内のN個の画素の値が、注目ブロック内における当該画素の位置と対応付けて入力される。機械学習モデルの出力は、上述した文字確率Txrである。 The input of the machine learning model is a matrix in which the values of N pixels in the block of interest (for example, RGB values and luminance values) are arranged in an order according to the position of each pixel in the block of interest. That is, the values of N pixels in the attention block are input in association with the positions of the pixels in the attention block. The output of the machine learning model is the character probability Txr described above.
例えば、文字確率Txrは、0〜100%の数値で表される。CPU210は、後述するS415〜S430に示すように、文字確率Txrに基づいて、注目ブロックが、文字を示す文字ブロック、文字を示さない非文字ブロック、文字を示すか不明である不明ブロックのいずれであるかを判断する。CPU210は、文字確率Txrが、TH1≦Txrである場合には、注目ブロックは、文字ブロックであると判断する。CPU210は、文字確率Txrが、TH2≦Txr<TH1である場合には、注目ブロックは、不明ブロックであると判断する。CPU210は、文字確率Txrが、Txr<TH2である場合には、注目ブロックは、非文字ブロックであると判断する。閾値TH1は、例えば、75%であり、閾値TH2は、例えば、25%である。
For example, the character probability Txr is represented by a numerical value of 0 to 100%. As shown in S415 to S430 described later, the
このように、N個の画素の値の組みあわせが同じ画像であっても、どの画素の値が、注目ブロック内のどの位置にあるかが異なっていれば、異なる文字確率Txrが出力され、該文字確率Txrに基づいて、注目ブロックについての判断が行われる。このように、注目ブロックが、文字ブロック、非文字ブロック、不明ブロックのいずれであるかは、注目ブロック内のN個の画素の位置とN個の画素の値とに応じて判断されることが解る。 In this way, even if the combination of the values of N pixels is the same, different character probabilities Txr are output if the value of which pixel is in which position in the block of interest is different. A judgment is made about the block of interest based on the character probability Txr. In this way, whether the attention block is a character block, a non-character block, or an unknown block can be determined according to the positions of N pixels and the values of N pixels in the attention block. I understand.
機械学習モデルは、例えば、文字を示す所定個数(例えば、3000個)の文字画像データと、文字を示さない所定個数の(例えば、3000個)の非文字画像データと、を用いてトレーニングされている。これらのトレーニング用の文字画像データおよび非文字画像データは、N個の画素を含むブロックBLと同じサイズの画像である。非文字画像は、文字とは異なるオブジェクト(例えば、写真)やベタ塗りの背景などを示す画像である。 The machine learning model is trained using, for example, a predetermined number of character image data showing characters (for example, 3000) and a predetermined number of non-character image data not showing characters (for example, 3000). There is. The character image data and the non-character image data for training are images having the same size as the block BL including N pixels. A non-character image is an image showing an object (for example, a photograph) different from characters, a solid background, or the like.
ここで、第1のブロック判定処理に用いられる第1の機械学習モデルと、第2のブロック判定処理に用いられる第2の機械学習モデルと、では、トレーニングに用いられる文字画像データおよび非文字画像データのセットが異なる。第1の機械学習モデルは、背景よりも輝度が低い文字を示す複数個の第1の文字画像データと、背景よりも輝度が低い文字を示さない複数個の第1の非文字画像データと、を用いてトレーニングされている。第2の機械学習モデルは、背景よりも輝度が高い文字を示す複数個の第2の文字画像データと、背景よりも輝度が高い文字を示さない複数個の第2の非文字画像データと、を用いてトレーニングされている。このために、第1のブロック判定処理では、背景よりも輝度が低い文字を示すブロックは、文字ブロックであると判断されるが、背景よりも輝度が高い文字を示すブロックは、文字ブロックであると判断されない。そして、第2のブロック判定処理では、背景よりも輝度が低い文字を示すブロックは、文字ブロックであると判断されず、背景よりも輝度が高い文字を示すブロックは、文字ブロックであると判断される。以下の図11では、処理の動作の説明のために、白の背景に黒の文字が例示されているが、この例示は、第1のブロック判定処理のための例示である。第2のブロック判定処理では、図11と同様の文字であって、黒の背景に白の文字である例で、同様の動作になる。 Here, in the first machine learning model used for the first block determination process and the second machine learning model used for the second block determination process, the character image data and the non-character image used for training are used. The set of data is different. The first machine learning model includes a plurality of first character image data showing characters having a brightness lower than the background, a plurality of first non-character image data showing characters having a brightness lower than the background, and a plurality of first non-character image data. Have been trained using. The second machine learning model includes a plurality of second character image data showing characters having a brightness higher than the background, a plurality of second non-character image data showing characters having a brightness higher than the background, and a plurality of second non-character image data. Have been trained using. Therefore, in the first block determination process, a block indicating a character having a brightness lower than that of the background is determined to be a character block, but a block indicating a character having a brightness higher than the background is a character block. Is not judged. Then, in the second block determination process, the block indicating a character having a brightness lower than the background is not determined to be a character block, and the block indicating a character having a brightness higher than the background is determined to be a character block. NS. In FIG. 11 below, black characters are illustrated on a white background for the purpose of explaining the operation of the processing, and this example is an example for the first block determination processing. In the second block determination process, the same operation is performed in the case where the characters are the same as those in FIG. 11 and the characters are white on a black background.
図11は、ブロックBLごとの判断の一例を示す図である。例えば、図11(A)のブロックBL(1)や図11(B)のブロックBL(2)が注目ブロックである場合には、注目ブロック内の比較的広い範囲を文字が占めているので、注目ブロックは、文字ブロックであると判断される。例えば、図11(C)のブロックBL(3)が注目ブロックである場合には、注目ブロック内に文字が含まれているものの、文字が占める範囲は比較的狭いので、注目ブロックは、不明ブロックであると判断される。例えば、図11(D)のブロックBL(4)が注目ブロックである場合には、注目ブロック内に文字が含まれていないので、注目ブロックは、非文字ブロックであると判断される。以下、S415〜S430の処理を具体的に説明する。 FIG. 11 is a diagram showing an example of determination for each block BL. For example, when the block BL (1) of FIG. 11 (A) and the block BL (2) of FIG. 11 (B) are attention blocks, the characters occupy a relatively wide range in the attention block, so that the characters occupy a relatively wide range. The attention block is determined to be a character block. For example, when the block BL (3) of FIG. 11C is the attention block, the attention block is an unknown block because the character is included in the attention block but the range occupied by the characters is relatively narrow. Is judged to be. For example, when the block BL (4) of FIG. 11 (D) is the attention block, the attention block is determined to be a non-character block because no character is included in the attention block. Hereinafter, the processes of S415 to S430 will be specifically described.
S415では、CPU210は、S410にて算出された文字確率Txrが閾値TH1以上であるか否かを判断する。文字確率Txrが閾値TH1以上である場合には(S415:YES)、注目ブロックは文字ブロックであると判断される。このために、この場合には、S420にて、CPU210は、注目ブロック内の全画素の値を、文字を示す値に設定する。文字確率Txrが閾値TH1未満である場合には(S415:NO)、S420はスキップされる。
In S415, the
図12は、ブロック判定データにおける画素の値の設定の一例を示す図である。図12(A)〜(D)には、ブロック判定データによって示されるブロック判定画像BIが概念的に示されている。図11(A)のブロックBL(1)や図11(B)のブロックBL(2)が注目ブロックである場合には、注目ブロックは文字ブロックであると判断されるので、ブロック判定画像BIにおいても、図12(A)、(B)に示すように、ブロックBL(1)、BL(2)内の全ての画素の値が、文字を示す値「1」に設定される。 FIG. 12 is a diagram showing an example of setting a pixel value in the block determination data. 12 (A) to 12 (D) conceptually show the block determination image BI indicated by the block determination data. When the block BL (1) of FIG. 11 (A) and the block BL (2) of FIG. 11 (B) are attention blocks, it is determined that the attention block is a character block. Also, as shown in FIGS. 12A and 12B, the values of all the pixels in the blocks BL (1) and BL (2) are set to the value "1" indicating the character.
S425では、CPU210は、文字確率Txrが閾値TH2未満であるか否かを判断する。文字確率Txrが閾値TH2未満である場合には(S425:YES)、注目ブロックは非文字ブロックであると判断される。このために、この場合には、S430にて、CPU210は、注目ブロック内の全画素の値を非文字を示す値に設定する。文字確率Txrが閾値TH2以上である場合には(S425:NO)、S430はスキップされる。
In S425, the
図11(D)のブロックBL(4)が注目ブロックである場合には、注目ブロックは非文字ブロックであると判断されるので、ブロック判定画像BIにおいても、図12(D)に示すように、ブロックBL(4)内の全ての画素の値が、非文字を示す値「2」に設定される。 When the block BL (4) of FIG. 11 (D) is the block of interest, it is determined that the block of interest is a non-character block. Therefore, also in the block determination image BI, as shown in FIG. 12 (D). , The values of all the pixels in the block BL (4) are set to the value "2" indicating non-characters.
なお、文字確率Txrが閾値TH2以上であり、かつ、閾値TH1未満である場合には(S415:NO、かつ、S425:NO)、注目ブロックは、不明ブロックであると判断される。このために、この場合には、注目ブロック内の全ての画素の値は変更されない。すなわち、この時点で、文字を示す値「1」を有する画素は、文字を示す値のまま維持され、非文字を示す値「2」を有する画素は、非文字を示す値のまま維持され、不明を示す値「0」を有する画素は、不明を示す値のまま維持される。 When the character probability Txr is equal to or higher than the threshold value TH2 and less than the threshold value TH1 (S415: NO and S425: NO), the attention block is determined to be an unknown block. Therefore, in this case, the values of all the pixels in the block of interest are not changed. That is, at this point, the pixel having the value "1" indicating the character is maintained as the value indicating the character, and the pixel having the value "2" indicating the non-character is maintained as the value indicating the non-character. Pixels having a value "0" indicating unknown are maintained at the value indicating unknown.
図11(C)のブロックBL(3)が注目ブロックである場合には、注目ブロックは不明ブロックであると判断されるので、ブロック判定画像BIにおいて、図12(C)に示すように、ブロックBL(4)内の全ての画素の値は、変更されることなく、維持される。 When the block BL (3) of FIG. 11 (C) is the block of interest, it is determined that the block of interest is an unknown block. Therefore, in the block determination image BI, as shown in FIG. 12 (C), the block is blocked. The values of all the pixels in BL (4) are maintained unchanged.
S435では、CPU210は、注目ブロックを右方向にM画素だけ移動する。すなわち、注目ブロックは、右方向に1個のサブブロックSB分だけ移動される。例えば、図10のブロックBL(1)が注目ブロックである場合には、ブロックBL(2)が新たな注目ブロックに設定される。図10のブロックBL(q−1)が注目ブロックである場合には、ブロックBL(q)が新たな注目ブロックに設定される。
In S435, the
S440では、CPU210は、注目ブロックを右方向にM画素だけ移動した結果、注目ブロックの右端は、スキャン画像SIの右端よりも右側に移動したか否かを判断する。すなわち、移動後の新たな注目ブロックが、スキャン画像SIの右側にはみ出したか否かを判断する。例えば、新たな注目ブロックが、図10のブロックBL(q)やブロックBL(e)である場合には、注目ブロックの右端は、スキャン画像SIの右端よりも右側に移動したと判断される。
In S440, the
注目ブロックの右端が、スキャン画像SIの右端よりも右側に移動していない場合には(S440:NO)、CPU210は、S410に戻る。このように、例えば、注目ブロックを右方向にM画素ずつずらしながら、順次に、ブロックごとの判断(S410〜S430)が行われる。図10の例では、ブロックBL(1)、BL(2)、BL(3)の順に、各ブロックBLが、文字ブロック、非文字ブロック、不明ブロックのいずれであるかが判断される。
When the right end of the attention block has not moved to the right side of the right end of the scanned image SI (S440: NO), the
注目ブロックの右端が、スキャン画像SIの右端よりも右側に移動した場合には(S440:YES)、S445にて、CPU210は、注目ブロックをスキャン画像SIの左端に移動し、S450にて、注目ブロックを下方向にM画素だけ移動する。
When the right end of the attention block is moved to the right side of the right end of the scan image SI (S440: YES), in S445, the
S455では、CPU210は、注目ブロックを下方向にM画素だけ移動した結果、注目ブロックの下端は、スキャン画像SIの下端よりも下側に移動したか否かを判断する。すなわち、移動後の新たな注目ブロックが、スキャン画像SIの下側にはみ出したか否かを判断する。例えば、新たな注目ブロックが、図10のブロックBL(e+1)である場合には、注目ブロックの下端は、スキャン画像SIの下端よりも下側に移動したと判断される。例えば、移動後の新たな注目ブロックが、図10のブロックBL(e+1)である場合には、注目ブロックの下端は、スキャン画像SIの下端よりも下側に移動したと判断される。
In S455, the
注目ブロックの下端が、スキャン画像SIの下端よりも下側に移動していない場合には(S455:NO)、CPU210は、S410に戻る。このように、例えば、注目ブロックを下方向にM画素ずつずらしながら、順次に、左端から右端までの1行分のブロックBLの判断が、一行ずつ行われる。例えば、図10の右端のブロックBL(q−1)の次に、判断の対象となる注目ブロックは、M画素だけ下側の行の左端のブロックBL(q+1)である。
If the lower end of the attention block has not moved below the lower end of the scanned image SI (S455: NO), the
注目ブロックの下端が、スキャン画像SIの下端よりも下側に移動した場合には(S455:YES)、全てのブロックBLの判断が終了したので、CPU210は、S460に処理を進める。
When the lower end of the block of interest moves below the lower end of the scanned image SI (S455: YES), the determination of all the blocks BL is completed, so the
S460では、CPU210は、ブロック判定データに、不明を示す値「0」が残っているか否かを判断する。不明を示す値が残っている場合には、S465にて、CPU210は、不明を示す値を、文字を示す値「1」に設定する。この結果、ブロック判定データの各画素の値は、文字を示す値「1」と非文字を示す値「2」とのいずれかとなる。
In S460, the
S470では、CPU210は、非文字を示す値「2」を「0」に変更して、ブロック判定データを「1」と「0」のいずれかの値をとる二値画像データに変換する。この結果、文字を値、すなわち、上述した文字ブロックを構成する画素であることを示す値「1」と、非文字を示す値、すなわち、上述した非文字ブロックを構成する画素であることを示す値「0」と、のいずれかの値を画素ごとに有するブロック判定データが生成される。
In S470, the
以上説明した本実施例によれば、対象画像データとしてのスキャンデータを用いて、複数個の文字候補画素が抽出され(図2のS21、S24)、スキャンデータを用いて、スキャン画像SI上に配置される複数個のブロックBLのそれぞれが文字を示す文字ブロックであるか否かをブロックごとに判断される(図2のS22、S25)。ブロックBLごとの判断は、複数個の文字画像データと複数個の非文字画像データとを用いてトレーニングされた機械学習モデルを用いて実行される(図9のS410)。そして、ブロックごとの判断結果を用いて、複数個の文字候補画素の中から、複数個の文字画素が特定される(図2のS23、S26、S27)。この結果、この結果、スキャン画像SI内の文字画素を精度良く特定できる。 According to the present embodiment described above, a plurality of character candidate pixels are extracted using the scan data as the target image data (S21 and S24 in FIG. 2), and the scan data is used on the scan image SI. Whether or not each of the plurality of blocks BL to be arranged is a character block indicating a character is determined for each block (S22 and S25 in FIG. 2). The determination for each block BL is executed using a machine learning model trained using a plurality of character image data and a plurality of non-character image data (S410 in FIG. 9). Then, using the determination result for each block, a plurality of character pixels are specified from the plurality of character candidate pixels (S23, S26, S27 in FIG. 2). As a result, as a result, the character pixels in the scanned image SI can be identified with high accuracy.
図13は、実施例の効果について説明する図である。図13(A)〜(D)には、スキャンデータによって示されるスキャン画像SI、第1の二値画像データによって示される第1の二値画像CI1、第1のブロック判定データによって示される第1のブロック判定画像BI1、第1の文字特定データによって示される第1の文字特定画像TI1のそれぞれの一例が、概念的に示されている。図13において、これらの画像SI、CI1、BI1、TI1の破線で示す升目は、それぞれ、画素Pxを示している。 FIG. 13 is a diagram illustrating the effect of the embodiment. 13 (A) to 13 (D) show a scan image SI indicated by scan data, a first binary image CI1 indicated by first binary image data, and a first block determination data indicated by first block determination data. An example of each of the block determination image BI1 and the first character identification image TI1 shown by the first character identification data is conceptually shown. In FIG. 13, the squares shown by the broken lines of these images SI, CI1, BI1, and TI1 each indicate the pixel Px.
スキャン画像SIには、文字Txとともに、文字以外のオブジェクト(例えば、写真)や色付きの背景が含まれ得る。図13(A)の例では、スキャン画像SIには、文字Txとともに、構成する網点DTが含まれ得る。これは、上述したように、スキャンデータが、印刷物を読み取ることによって生成されたデータであるためである。このような場合に、文字画素のみを特定することは比較的困難である。例えば、網点DTを誤って特定しないように、スキャンデータに対して、画像を平滑化する平滑化処理を行い、平滑化処理済みのスキャンデータに対して画像内のエッジ画素を抽出するエッジ抽出処理を行う方法が考えられる。この方法では、抽出されたエッジ画素が文字画素として特定される。この方法では、網点DTを十分に平滑化できない場合には、網点DTのエッジが誤って文字画素として特定され得る。また、網点DTを十分に平滑化するために、過度に画像を平滑化すると、文字のエッジが過度にぼけてしまうために、文字画素の特定精度が低下してしまう。このために、例えば、図13(B)の第1の二値画像CI1に示すように、第1の二値画像データにおいて、文字Txを構成する画素Cptだけでなく、網点DTを構成する画素Cpdも第1の文字候補画素として特定されてしまい得る。 The scanned image SI may include a non-character object (for example, a photograph) or a colored background as well as the character Tx. In the example of FIG. 13A, the scanned image SI may include the constituent halftone dots DT together with the character Tx. This is because, as described above, the scan data is the data generated by reading the printed matter. In such a case, it is relatively difficult to specify only the character pixel. For example, edge extraction that smoothes the image of the scan data and extracts the edge pixels in the image from the smoothed scan data so that the halftone dot DT is not erroneously specified. A method of processing can be considered. In this method, the extracted edge pixels are specified as character pixels. In this method, if the halftone dot DT cannot be sufficiently smoothed, the edge of the halftone dot DT can be erroneously identified as a character pixel. Further, if the image is excessively smoothed in order to sufficiently smooth the halftone dot DT, the edges of the characters are excessively blurred, and the identification accuracy of the character pixels is lowered. For this purpose, for example, as shown in the first binary image CI1 of FIG. 13B, in the first binary image data, not only the pixel Cpt constituting the character Tx but also the halftone dot DT is configured. The pixel Cpd may also be specified as the first character candidate pixel.
これに対して、本実施例のS22やS25のブロック判定処理では、ブロックBLごとに、ブロック内のN個の画素の位置とN個の画素の値とに応じて、文字ブロックか否かを含む判断が行われるので、画素ごとの判断と比較して、空間的な分解能は粗くなるものの、判断の誤りは比較的少なくなる。さらに、本実施例では、ブロックBLごとの判断を機械学習モデルを用いて実行するので、該機械学習モデルを十分にトレーニングしておくことで、各ブロックが文字ブロックであるか否かは、十分に高い精度で判断できる。このために、例えば、図13(C)の第1のブロック判定画像BI1では、例えば、文字Txを含む領域は、文字ブロックTBとして特定され、網点DTを含む領域は、非文字ブロックOBとして特定される。 On the other hand, in the block determination process of S22 and S25 of this embodiment, whether or not the block is a character block is determined for each block BL according to the positions of N pixels in the block and the values of N pixels. Since the judgment including is performed, the spatial resolution is coarser than the judgment for each pixel, but the judgment error is relatively small. Further, in this embodiment, since the judgment for each block BL is executed by using the machine learning model, it is sufficient to sufficiently train the machine learning model to determine whether or not each block is a character block. Can be judged with high accuracy. Therefore, for example, in the first block determination image BI1 of FIG. 13C, for example, the area including the character Tx is specified as the character block TB, and the area including the halftone dot DT is designated as the non-character block OB. Be identified.
この結果、第1の文字特定データと、第1のブロック判定データと、の論理積を取って第1の文字特定データを生成すれば、文字画素を適切に特定することができる。例えば、図13(D)の文字特定画像TI1に示すように、文字Txを構成する画素が文字画素として特定され、かつ、網点DTを示す画素が文字画素として特定されない。第2の二値画像データと第2のブロック判定データと、これらのデータの論理積を取って得られる第2の文字特定データについても同様である。 As a result, if the first character identification data is generated by taking the logical product of the first character identification data and the first block determination data, the character pixels can be appropriately specified. For example, as shown in the character identification image TI1 of FIG. 13 (D), the pixels constituting the character Tx are specified as character pixels, and the pixels indicating the halftone dot DT are not specified as character pixels. The same applies to the second binary image data, the second block determination data, and the second character identification data obtained by taking the logical product of these data.
さらに、本実施例によれば、CPU210は、第1の二値画像データ生成処理や第2の二値画像データ生成処理において、対象画像データに対して、画像内のエッジの強度を調整するエッジ調整処理を実行することなく、複数個の文字候補画素を抽出する(図5、図8)。この結果、複数個の文字候補画素を精度良く抽出することができる。エッジ調整処理は、画像を平滑化して画像内のエッジの強度を低くする平滑化処理および画像内のエッジの強度を強くするエッジ強調処理を含む。平滑化処理は、例えば、単純平均のフィルタを用いる処理やガウシアンフィルタを用いる処理を含む。エッジ強調処理は、例えば、アンシャープマスク処理、ラプラシアンフィルタを用いる処理を含む。例えば、仮に、スキャンデータに対して、上述したように、平滑化処理を行って網点DTを消去することや、平滑化処理後に、さらに、エッジ強調処理を行って、ぼけた文字のエッジを強調したりするとする。こうすれば、網点DTを構成する画素が誤って文字画素として特定される不都合を低減し得るが、文字のエッジも変化してしまうために、文字の太さの変化などが生じ得る。この結果、スキャン画像SI内の文字よりも太い文字を構成するように文字画素が特定される不都合や、スキャン画像SI内の文字よりも細い文字を構成するように文字画素が特定される不都合が発生して、文字画素の特定精度が低下し得る。例えば、小さな文字が潰れてしまった状態で特定されることや、文字の線画途切れた状態で特定されることが発生し得る。本実施例では、第1の二値画像データや第2の二値画像データと、ブロック判定データとの論理積を取ることで、網点DTなどの文字以外のオブジェクトや背景を構成する画素を排除している。このために、第1の二値画像データや第2の二値画像データでは、網点DTを構成する画素が文字候補画素として誤って特定されていても問題がない。このために、第1の二値画像データ生成処理や第2の二値画像データ生成処理において、対象画像データに対して、平滑化処理やエッジ強調処理を実行する必要がない。この結果、文字のエッジを変化させないので、複数個の文字候補画素を精度良く抽出することができる。
Further, according to the present embodiment, the
さらに、本実施例の第1の二値画像データ生成処理では、CPU210は、スキャンデータを用いて、最小成分データを生成する(図5のS100)。最小成分データの複数個の画素の値のそれぞれは、対応するスキャンデータのRGB値の3個の成分値のうちの最小値に基づく値である。そして、該最小成分データを用いて複数個の第1の文字候補画素が抽出される(図5のS110)。この結果、対象画像データをそのまま二値化する場合には抽出され難い文字候補画素を抽出し得る。例えば、上述したように、用紙の地色(白)の背景に、イエロの文字がある場合であっても、該文字を構成する画素を含む文字候補画素を抽出できる。
Further, in the first binary image data generation process of this embodiment, the
さらに、本実施例の第2の二値画像データ生成処理では、CPU210は、スキャンデータを用いて、輝度画像データを生成する(図8のS200)。CPU210は、輝度画像データを用いて、基準よりも高い輝度を有する画素を文字候補画素として抽出する(図8のS210、S220)。この結果、対象画像データをそのまま二値化する場合には抽出され難い比較的輝度が高い文字候補画素を抽出し得る。例えば、上述したように、背景より輝度が高い文字を構成する文字を構成する画素を含む文字候補画素を抽出できる。
Further, in the second binary image data generation process of this embodiment, the
さらに、本実施例では、CPU210は、第1の二値画像データ生成処理を実行して、複数個の第1の文字候補画素を抽出し(図2のS21)、第2の二値画像データ生成処理を実行して、複数個の第2の文字候補画素を抽出する(図2のS24)。そして、CPU210は、ブロックBLごとの判断結果を用いて、複数個の第1の文字候補画素の中から、複数個の第1の文字画素を特定し(図2のS23)、ブロックBLごとの判断結果を用いて、複数個の第2の文字候補画素の中から、複数個の第2の文字画素を特定し、複数個の第1の文字画素と複数個の第2の文字画素とを含む複数個の画素を、最終的に文字画素として特定する(図2のS27)。この結果、文字画素の特定漏れを抑制することができる。
Further, in this embodiment, the
さらに、本実施例の第1のブロック判定処理(図2のS22)では、CPU210は、第1の機械学習モデルを用いて、複数個のブロックBLのそれぞれが文字ブロックあるか否かをブロックごとに判断する(図9)。第2のブロック判定処理(図2のS25)では、CPU210は、第1の機械学習モデルとは異なる第2の機械学習モデルを用いて、複数個のブロックBLのそれぞれが文字ブロックあるか否かをブロックごとに判断する(図9)。CPU210は、第1の機械学習モデルを用いた判断結果を用いて、複数個の第1の文字画素を特定し(図2のS23)第2の機械学習モデルを用いて判断結果を用いて、第2の文字画素を特定する(図2のS26)。このように、第1の文字画素を特定する際と、第2の文字画素を特定する際とで、互いに異なる機械学習モデルを用いた判定結果を用いるので、第1の文字画素と第2の文字画素とをそれぞれ適切に特定し得る。
Further, in the first block determination process (S22 in FIG. 2) of the present embodiment, the
さらに、本実施例では、第1のブロック判定処理(図2のS22)で用いられる第1の機械学習モデルは、複数個の第1の文字画像データと複数個の第1の非文字画像データとを用いてトレーニングされた機械学習モデルであり、第2のブロック判定処理(図2のS25)で用いられる第2の機械学習モデルは、複数個の第1の文字画像データとは異なる複数個の第2の文字画像データと、複数個の第1の非文字画像データとは異なる複数個の第2の非文字画像データと、を用いてトレーニングされた機械学習モデルである。このように、第1の機械学習モデルと第2の機械学習モデルとは、それぞれ、互いに異なる画像を用いてトレーニングされたモデルである。この結果、第1の文字画素(本実施例では、背景よりも輝度が低い文字を構成する画素)と第2の文字画素(本実施例では背景よりも輝度が高い文字を構成する画素)とをそれぞれより適切に特定することができる。 Further, in the present embodiment, the first machine learning model used in the first block determination process (S22 in FIG. 2) includes a plurality of first character image data and a plurality of first non-character image data. The second machine learning model used in the second block determination process (S25 in FIG. 2) is a machine learning model trained using the above, and is different from the plurality of first character image data. It is a machine learning model trained using the second character image data of the above and a plurality of second non-character image data different from the plurality of first non-character image data. As described above, the first machine learning model and the second machine learning model are models trained using images different from each other. As a result, the first character pixel (in this embodiment, a pixel constituting a character having a brightness lower than the background) and the second character pixel (in this embodiment, a pixel constituting a character having a brightness higher than the background) Can be identified more appropriately.
以上の説明から解るように、上記実施例の最小成分データは、第1画像データの例であり、輝度画像データは、第2画像データの例である。また、第1の二値画像データ生成処理は、第1の抽出処理の例であり、第2の二値画像データ生成処理は、第2の抽出処理の例である。 As can be seen from the above description, the minimum component data of the above embodiment is an example of the first image data, and the luminance image data is an example of the second image data. The first binary image data generation process is an example of the first extraction process, and the second binary image data generation process is an example of the second extraction process.
B.変形例: B. Modification example:
(1)上記実施例では、第1のブロック判定処理(図2のS21)と第2のブロック判定処理(図2のS24)とで、互いに異なる機械学習モデルを用いている。これに代えて、第1のブロック判定処理と第2のブロック判定処理とで同一の機械学習モデルが用いられても良い。例えば、実施例における、背景よりも輝度が低い文字を示す複数個の第1の文字画像と、背景よりも輝度が高い文字を示す第2の文字画像データと、背景よりも輝度が低い文字と背景よりも輝度が高い文字とのいずれも示さない複数個の非文字画像データと、を用いてトレーニングされて機械学習モデルが、2つのブロック判定処理で用いられても良い。 (1) In the above embodiment, the first block determination process (S21 in FIG. 2) and the second block determination process (S24 in FIG. 2) use different machine learning models. Instead of this, the same machine learning model may be used in the first block determination process and the second block determination process. For example, in the embodiment, a plurality of first character images showing characters having a brightness lower than the background, second character image data showing characters having a brightness higher than the background, and characters having a brightness lower than the background. A machine learning model trained using a plurality of non-character image data that does not show any of the characters having a brightness higher than the background may be used in the two block determination processes.
(2)記実施例では、第1のブロック判定処理で用いられる第1の機械学習モデルと、第2のブロック判定処理で用いられる第2の機械学習モデルとで、互いに異なる文字画像データおよび非文字画像データを用いてトレーニングされている。これに代えて、第1の機械学習モデルと第2の機械学習モデルとは、互いに同じ文字画像データおよび非文字画像データを用いてトレーニングされていても良い。この場合に、第1の機械学習モデルと第2の機械学習モデルとは、例えば、畳み込み層の数やプーリング層の数などのニューラスネットワークの構造が互いに異なっていても良い。 (2) In the above embodiment, the first machine learning model used in the first block determination process and the second machine learning model used in the second block determination process are different from each other in character image data and non-character image data. It is trained using character image data. Alternatively, the first machine learning model and the second machine learning model may be trained using the same character image data and non-character image data. In this case, the structure of the neuros network such as the number of convolution layers and the number of pooling layers may be different from each other between the first machine learning model and the second machine learning model.
(3)上記実施例では、第1の二値画像データと、第2の二値画像データと、の両方を用いて、最終的な文字画素を特定している。これに代えて、第1の二値画像データと、第2の二値画像データと、の一方だけを用いて、文字画素を特定しても良い。例えば、第1の二値画像データのみを用いる場合には、図2のS24〜S27は、省略されても良い。 (3) In the above embodiment, the final character pixel is specified by using both the first binary image data and the second binary image data. Instead of this, the character pixel may be specified by using only one of the first binary image data and the second binary image data. For example, when only the first binary image data is used, S24 to S27 in FIG. 2 may be omitted.
(4)第2の二値画像データ生成処理(図8)では、輝度画像データが用いられる(S200)。これに代えて、例えば、スキャンデータの対応する画素のRGB値に含まれる3個の成分値(R値、G値、B値)の平均値を、各画素の値とする平均成分値画像データが用いられても良い。 (4) Luminance image data is used in the second binary image data generation process (FIG. 8) (S200). Instead of this, for example, the average component value image data in which the average value of the three component values (R value, G value, B value) included in the RGB values of the corresponding pixels of the scan data is the value of each pixel. May be used.
(5)上記実施例の第1の二値画像データ生成処理(図5)では、最小成分データが用いられる(S100)。これに代えて、最大成分データや反転最小成分データが用いられても良い。 (5) In the first binary image data generation process (FIG. 5) of the above embodiment, the minimum component data is used (S100). Instead of this, the maximum component data or the inverted minimum component data may be used.
最大成分データは、スキャンデータに含まれる複数個の画素に対応する複数個の値を含み、該複数個の値のそれぞれは、スキャンデータの対応する画素の最大成分値Vmaxである。最大成分値Vmaxは、スキャンデータの対応する画素のRGB値に含まれる複数個の成分値(R値、G値、B値)のうちの最大値である。 The maximum component data includes a plurality of values corresponding to a plurality of pixels included in the scan data, and each of the plurality of values is the maximum component value Vmax of the corresponding pixel of the scan data. The maximum component value Vmax is the maximum value among a plurality of component values (R value, G value, B value) included in the RGB values of the corresponding pixels of the scan data.
反転最小成分データは、以下のように、取得される。先ず、スキャンデータに含まれる複数個の画素の値(RGB値)のそれぞれについて、複数個の成分値(R値、G値、B値)が反転された反転済みの色値が生成される。反転前のRGB値を(Rin、Gin、Bin)とすると、反転済みのRGB値(Rout、Gout、Bout)は、以下の式(1)〜(3)で表される。 The inversion minimum component data is acquired as follows. First, for each of the values (RGB values) of the plurality of pixels included in the scan data, the inverted color values in which the plurality of component values (R value, G value, B value) are inverted are generated. Assuming that the RGB values before inversion are (Rin, Gin, Bin), the inverted RGB values (Rout, Gout, Bout) are represented by the following equations (1) to (3).
Rout=Rmax−Rin …(1)
Gout=Gmax−Gin …(2)
Bout=Bmax−Bin …(3)
Rout = Rmax-Rin ... (1)
Gout = Gmax-Gin ... (2)
Bout = Bmax-Bin ... (3)
ここで、Rmax、Gmax、Bmaxは、それぞれ、R値、G値、B値が取り得る値の最大値であり、本実施例では、Rmax=Gmax=Bmax=255である。これらの反転済みのRGB値を複数個の画素の値とする画像データが、反転画像データとして生成される。そして、反転画像データを用いて、反転最小成分データが生成される。具体的には、反転画像データに含まれる複数個の反転済みのRGB値のそれぞれから、反転最小成分値VRminが取得される。反転最小成分値VRminは、該反転済みのRGB値に含まれる複数個の成分値(R値、G値、B値)のうちの最小値である。反転最小成分データは、これらの反転最小成分値VRminを、複数個の画素の値とする画像データである。 Here, Rmax, Gmax, and Bmax are the maximum values that the R value, G value, and B value can take, respectively, and in this embodiment, Rmax = Gmax = Bmax = 255. Image data in which these inverted RGB values are the values of a plurality of pixels is generated as inverted image data. Then, the inverted minimum component data is generated using the inverted image data. Specifically, the inverted minimum component value VRmin is acquired from each of the plurality of inverted RGB values included in the inverted image data. The inverted minimum component value VRmin is the minimum value among a plurality of component values (R value, G value, B value) included in the inverted RGB value. The inversion minimum component data is image data in which these inversion minimum component values VRmin are values of a plurality of pixels.
反転最小成分値VRminは、最大成分値の反転値であり、VRmin=(255−Vmax)の関係が成り立つ。このために、最大成分データと反転最小成分データとは、両方とも、スキャンデータの各画素の値に含まれる複数個の成分値のうちの最大値に基づく値(最大値の反転値、あるいは、最大値そのもの)を、画素の値とする画像データである、と言うことができる。 The inverted minimum component value VRmin is an inverted value of the maximum component value, and the relationship of VRmin = (255-Vmax) is established. Therefore, both the maximum component data and the inverted minimum component data are values based on the maximum value among the plurality of component values included in the value of each pixel of the scan data (the inverted value of the maximum value, or the inverted value of the maximum value, or It can be said that the maximum value itself) is the image data in which the pixel value is used.
図6に示すように、C、M、Y、K、Wの最大成分値Vmaxは、255、255、255、0、255となり、黒(K)を除いて同じ値となる。したがって、最大成分データや反転最小成分データにおいては、網点領域を構成する5種類の要素、すなわち、C、M、Y、Kの各ドットと、用紙の地色(白)と、のうちの4種類の要素(C、M、Yのドットと、用紙の地色(白))を示す画素間の値の差が抑制される。この結果、最大成分データや反転最小成分データを用いる場合には、最小成分データを用いる場合と同様に、網点を構成する画素が、文字候補画素として特定されることを抑制できる。 As shown in FIG. 6, the maximum component values Vmax of C, M, Y, K, and W are 255, 255, 255, 0, and 255, which are the same values except for black (K). Therefore, in the maximum component data and the inverted minimum component data, among the five types of elements constituting the halftone dot region, that is, the dots of C, M, Y, and K, and the background color (white) of the paper. The difference between the values indicating the four types of elements (dots C, M, Y and the background color (white) of the paper) is suppressed. As a result, when the maximum component data or the inverted minimum component data is used, it is possible to prevent the pixels constituting the halftone dots from being specified as the character candidate pixels, as in the case of using the minimum component data.
(6)上記実施例の第1の二値画像データ生成処理(図5)では、最小成分データが用いられる(S100)。これに代えて、例えば、輝度画像データが用いられても良い。すなわち、第1の二値画像データ生成処理では、背景よりも輝度が低い文字を構成する文字画素を特定するために、反転処理が行われない輝度画像データが用いられ、第2の二値画像データ生成処理では、背景よりも輝度が高い文字を構成する文字画素を特定するために、反転処理が行われた輝度画像データが用いられても良い。 (6) In the first binary image data generation process (FIG. 5) of the above embodiment, the minimum component data is used (S100). Instead of this, for example, luminance image data may be used. That is, in the first binary image data generation process, in order to identify the character pixels constituting the character having a brightness lower than that of the background, the brightness image data that is not inverted is used, and the second binary image is used. In the data generation processing, inversion-processed brightness image data may be used in order to identify character pixels constituting characters having a brightness higher than that of the background.
(7)上記各実施例では、文字画素に対して、文字鮮鋭化処理が実行され(図2のS40)、非文字画素に対して、網点平滑化処理が実行される(図2のS30)。これに代えて、文字画素に対しては、文字の見栄えを向上するためのアンチエイリアス処理が実行されても良い。また、非文字画素に対しては、例えば、印刷時の色材の使用量を減らすために、色を飛ばす処理(白に変換する処理)が実行されても良い。一般的には、文字画素と、非文字画素と、に互いに異なる画像処理が実行されることが好ましい。あるいは、文字画素と非文字画素のいずれか一方に対して、特定の画像処理が実行され、他方に対して、該特定の画像処理が実行されなくても良い。 (7) In each of the above embodiments, character sharpening processing is executed for character pixels (S40 in FIG. 2), and halftone dot smoothing processing is executed for non-character pixels (S30 in FIG. 2). ). Instead of this, antialiasing processing for improving the appearance of the character may be executed on the character pixel. Further, for non-character pixels, for example, in order to reduce the amount of color material used during printing, a process of skipping colors (a process of converting to white) may be executed. In general, it is preferable that character pixels and non-character pixels are subjected to different image processing. Alternatively, the specific image processing may be executed on either the character pixel or the non-character pixel, and the specific image processing may not be executed on the other.
(8)上記実施例の図9のブロック判定処理では、全てのブロックBLについての判断の後に、ブロック判定データに、不明を示す値が残っている場合には(S460:YES)、CPU210は、S465にて、不明を示す値を、文字を示す値に設定する。これは、文字画素の一部が、誤って非文字画素として特定されることを抑制して、文字の一部がぼけるなどの不都合を避けるためである。例えば、非文字画素の一部が、誤って文字画素として特定されることを抑制して、網点が目立つなどの不都合を避けることを重視する場合には、CPU210は、S465にて、不明を示す値を、非文字を示す値に設定しても良い。
(8) In the block determination process of FIG. 9 of the above embodiment, if a value indicating unknown remains in the block determination data after the determination for all the block BLs (S460: YES), the
(9)上記実施例では、第1の二値画像データと、第2の二値画像データと、を用いて、最終的に、文字特定データが生成される(図2のS21〜S27)。これに代えて、第1の二値画像データと、第2の二値画像データと、第3の二値画像データと、を用いて、文字特定データが生成されても良い。例えば、図2のS26とS27の間で、上述した最大成分データを用いて生成され、該最大成分データが二値化されて、第3の二値画像データが生成される。そして、第3の二値画像データと、S22で生成された第1のブロック判定処理と、の論理積をとることによって、第3の文字特定データが生成される。そして、図2のS27では、第1の二値画像データを用いて生成された第1の文字特定データ(図2のS23)と、第2の二値画像データを用いて生成された第2の文字特定データ(図2のS26)と、第3の二値画像データを用いて生成された第3の文字特定データと、の論理和を取ることによって、最終的な文字特定データが生成されても良い。これによって、文字画素の特定漏れをさらに抑制することができる。 (9) In the above embodiment, character identification data is finally generated using the first binary image data and the second binary image data (S21 to S27 in FIG. 2). Instead of this, character identification data may be generated using the first binary image data, the second binary image data, and the third binary image data. For example, between S26 and S27 in FIG. 2, it is generated using the above-mentioned maximum component data, the maximum component data is binarized, and a third binary image data is generated. Then, the third character identification data is generated by taking the logical product of the third binary image data and the first block determination process generated in S22. Then, in S27 of FIG. 2, the first character identification data (S23 of FIG. 2) generated using the first binary image data and the second binary image data generated using the second binary image data are used. The final character identification data is generated by taking the logical sum of the character identification data (S26 in FIG. 2) and the third character identification data generated by using the third binary image data. You may. Thereby, the specific omission of the character pixel can be further suppressed.
(10)上記実施例のブロック判定処理では、縦(L×M)画素×横(L×M)画素の注目ブロックを、M画素ずつずらしながら、文字ブロックであるか否かを判断するので、スキャン画像SI上に配置される複数個のブロックは互いに重複している(図10)。これに代えて、複数個のブロックが互いに重複しないように、スキャン画像SI上に複数個のブロックが配置されても良い。 (10) In the block determination process of the above embodiment, it is determined whether or not the block is a character block while shifting the attention block of vertical (L × M) pixels × horizontal (L × M) pixels by M pixels. A plurality of blocks arranged on the scanned image SI overlap each other (FIG. 10). Instead of this, a plurality of blocks may be arranged on the scanned image SI so that the plurality of blocks do not overlap each other.
(11)上記実施例のブロック判定処理では、CPU210は、注目ブロックが、文字ブロック、非文字ブロック、不明ブロックのいずれであるかを判断している。これに代えて、CPU210は、注目ブロックが、文字ブロックと非文字ブロックとのいずれであるかを判断しても良い。この場合には、例えば、S415で用いる閾値TH1と、S425で用いる閾値TH2と、を同じ値にすれば良い。例えば、TH1=TH2=50%とすれば良い。
(11) In the block determination process of the above embodiment, the
(12)上記実施例では、上述したように、図9のS420、S430に示すように、注目ブロックが文字ブロックまたは非文字ブロックであると判断されると、ブロック判定データにおいて、注目ブロック内の全ての画素の値が、判断結果に応じて設定される。これに代えて、ブロック判定データにおいて、注目ブロック内のN個の画素のうち、不明を示す値を有する画素の値だけが、判断結果に応じて設定されても良い。すなわち、互いに重複する第1のブロックと第2のブロックとの両方が、不明ブロック以外のブロック(すなわち、文字ブロックまたは非文字ブロック)であると判断されるとする。この場合には、第1のブロックと第2のブロックの重複領域については、第1のブロックと第2のブロックとのうち、判断の処理順序が先のブロックについての判断結果が優先されても良い。 (12) In the above embodiment, as described above, as shown in S420 and S430 of FIG. 9, when the attention block is determined to be a character block or a non-character block, in the block determination data, the attention block is contained. The values of all the pixels are set according to the judgment result. Instead of this, in the block determination data, of the N pixels in the block of interest, only the value of the pixel having a value indicating unknown may be set according to the determination result. That is, it is determined that both the first block and the second block that overlap each other are blocks other than the unknown block (that is, a character block or a non-character block). In this case, regarding the overlapping area of the first block and the second block, even if the judgment result of the block whose judgment processing order is earlier than that of the first block and the second block is prioritized. good.
(13)上記実施例では、対象画像データは、スキャンデータであるが、これに限られない。対象画像データは、2次元イメージセンサを備えるデジタルカメラによって印刷物を読み取ることによって生成されても良い。また、対象画像データは、描画作成や文書作成などのアプリケーションプログラムを用いて作成された画像データであっても良い。 (13) In the above embodiment, the target image data is scan data, but is not limited to this. The target image data may be generated by reading the printed matter with a digital camera equipped with a two-dimensional image sensor. Further, the target image data may be image data created by using an application program such as drawing creation or document creation.
(14)図2の画像処理を実現する画像処理装置は、複合機200に限らず、種々の装置であってよい。例えば、スキャナやデジタルカメラが、自身で生成された画像データを用いて、プリンタに供給するための印刷データを生成するために、図2の画像処理を実行しても良い。また、例えば、スキャナやプリンタと通信可能な接続される端末装置(例えば、端末装置100)やサーバ(図示省略)が、スキャナから取得したスキャンデータを用いて、図2の画像処理を実行して、印刷データを生成し、該印刷データをプリンタに供給しても良い。また、ネットワークを介して互いに通信可能な複数個のコンピュータ(例えば、クラウドサーバ)が、画像処理に要する機能を一部ずつ分担して、全体として、画像処理を実行してもよい。この場合、複数個のコンピュータの全体が、画像処理装置の例である。
(14) The image processing device that realizes the image processing of FIG. 2 is not limited to the
(15)上記各実施例において、ハードウェアによって実現されていた構成の一部をソフトウェアに置き換えるようにしてもよく、逆に、ソフトウェアによって実現されていた構成の一部あるいは全部をハードウェアに置き換えるようにしてもよい。例えば、図9のS410の機械学習モデルを用いて文字確率Txrを算出する処理は、ASICなどの専用のハードウェアによって、実行されても良い。 (15) In each of the above embodiments, a part of the configuration realized by the hardware may be replaced with software, and conversely, a part or all of the configuration realized by the software may be replaced with the hardware. You may do so. For example, the process of calculating the character probability Txr using the machine learning model of S410 in FIG. 9 may be executed by dedicated hardware such as ASIC.
以上、実施例、変形例に基づき本発明について説明してきたが、上記した発明の実施の形態は、本発明の理解を容易にするためのものであり、本発明を限定するものではない。本発明は、その趣旨並びに特許請求の範囲を逸脱することなく、変更、改良され得ると共に、本発明にはその等価物が含まれる。 Although the present invention has been described above based on Examples and Modifications, the above-described embodiments of the invention are for facilitating the understanding of the present invention and do not limit the present invention. The present invention can be modified and improved without departing from the spirit and claims, and the present invention includes equivalents thereof.
100…端末装置、200…複合機、210…CPU、220…揮発性記憶装置、230…不揮発性記憶装置、240…表示部、250…操作部、270…通信IF、280…印刷実行部、290…読取実行部、Vmin…最小成分値、Vmax…最大成分値、VRmin…反転最小成分値、D1…第1方向、D2…第2方向、SB…サブブロック、TB…文字ブロック、OB…非文字ブロック、PG…コンピュータプログラム、TI…文字特定画像、GI…平滑化画像、FI…処理済み画像、YI…輝度画像、BI…ブロック判定画像、SI…スキャン画像、BL…ブロック、DT…網点、Px…画素、Tx…文字、Ob1〜Ob7…オブジェクト、MNI…最小成分画像、Bg1〜Bg3…背景 100 ... Terminal device, 200 ... Complex machine, 210 ... CPU, 220 ... Volatile storage device, 230 ... Non-volatile storage device, 240 ... Display unit, 250 ... Operation unit, 270 ... Communication IF, 280 ... Print execution unit, 290 ... Reading execution unit, Vmin ... Minimum component value, Vmax ... Maximum component value, VRmin ... Inverted minimum component value, D1 ... 1st direction, D2 ... 2nd direction, SB ... Subblock, TB ... Character block, OB ... Non-character Block, PG ... computer program, TI ... character specific image, GI ... smoothed image, FI ... processed image, YI ... brightness image, BI ... block judgment image, SI ... scanned image, BL ... block, DT ... halftone dot, Px ... Pixel, Tx ... Character, Ob1 to Ob7 ... Object, MNI ... Minimum component image, Bg1 to Bg3 ... Background
Claims (9)
対象画像を示す対象画像データを取得する画像取得部と、
対象画像データを用いて、複数個の文字画素の候補である複数個の文字候補画素を抽出する候補画素抽出部であって、前記複数個の文字画素のそれぞれは、前記対象画像上の文字が配置された領域において文字を構成する画素である、前記候補画素抽出部と、
前記対象画像データを用いて、前記対象画像上に配置される複数個のブロックのそれぞれが文字ブロックであるか否かをブロックごとに判断する判断部であって、前記文字ブロックは、対象画像上の文字が配置された領域に対応するブロックであり、前記ブロックごとの判断は、文字を示す複数個の文字画像データと文字を示さない複数個の非文字画像データとを用いてトレーニングされた機械学習モデルを用いて実行され、前記機械学習モデルは、第1の機械学習モデルと、前記第1の機械学習モデルとは異なる第2の機械学習モデルと、を含む、前記判断部と、
前記判断部による判断結果を用いて、前記複数個の文字候補画素の中から、前記複数個の文字画素を特定する文字画素特定部と、
を備え、
前記候補画素抽出部は、
第1の抽出処理を実行して、前記複数個の文字候補画素のうちの複数個の第1の文字候補画素を抽出し、
前記第1の抽出処理とは異なる第2の抽出処理を実行して、前記複数個の文字候補画素のうちの複数個の第2の文字候補画素を抽出し、
前記判断部は、
前記第1の機械学習モデルを用いて、前記複数個のブロックのそれぞれが前記文字ブロックあるか否かをブロックごとに判断し、
前記第2の機械学習モデルを用いて、前記複数個のブロックのそれぞれが前記文字ブロックあるか否かをブロックごとに判断し、
前記文字画素特定部は、
前記第1の機械学習モデルを用いた判断結果を用いて、前記複数個の第1の文字候補画素の中から、複数個の第1の画素を特定し、
前記第2の機械学習モデルを用いた判断結果を用いて、前記複数個の第2の文字候補画素の中から、複数個の第2の画素を特定し、
前記複数個の第1の画素と前記複数個の第2の画素とを含む前記複数個の文字画素を特定する、画像処理装置。 It is an image processing device
An image acquisition unit that acquires target image data indicating the target image,
It is a candidate pixel extraction unit that extracts a plurality of character candidate pixels that are candidates for a plurality of character pixels by using the target image data, and each of the plurality of character pixels has a character on the target image. The candidate pixel extraction unit, which is a pixel constituting a character in the arranged area,
Using the target image data, it is a determination unit that determines for each block whether or not each of the plurality of blocks arranged on the target image is a character block, and the character block is on the target image. It is a block corresponding to the area where the characters of are arranged, and the judgment for each block is a machine trained using a plurality of character image data indicating characters and a plurality of non-character image data not indicating characters. The determination unit, which is executed using the learning model, includes a first machine learning model and a second machine learning model different from the first machine learning model .
Using the judgment result by the judgment unit, a character pixel identification unit that specifies the plurality of character pixels from the plurality of character candidate pixels, and a character pixel identification unit.
Equipped with a,
The candidate pixel extraction unit
The first extraction process is executed to extract a plurality of first character candidate pixels among the plurality of character candidate pixels.
A second extraction process different from the first extraction process is executed to extract a plurality of second character candidate pixels among the plurality of character candidate pixels.
The judgment unit
Using the first machine learning model, it is determined for each block whether or not each of the plurality of blocks is the character block.
Using the second machine learning model, it is determined for each block whether or not each of the plurality of blocks is the character block.
The character pixel identification unit is
Using the determination result using the first machine learning model, a plurality of first pixels are identified from the plurality of first character candidate pixels.
Using the determination result using the second machine learning model, a plurality of second pixels are identified from the plurality of second character candidate pixels.
Wherein that identifies the plurality of character pixels and a second pixel a plurality of first pixels and the plurality, the image processing apparatus.
前記候補画素抽出部は、前記対象画像データに対して前記対象画像内のエッジの強度を調整するエッジ調整処理を実行することなく、前記複数個の文字候補画素を抽出する、画像処理装置。 The image processing apparatus according to claim 1.
The candidate pixel extraction unit is an image processing device that extracts a plurality of character candidate pixels without executing edge adjustment processing for adjusting the intensity of edges in the target image with respect to the target image data.
前記複数個の文字画像データは、複数個の第1の文字画像データと、前記複数個の第1の文字画像データとは異なる複数個の第2の文字画像データと、を含み、
前記複数個の非文字画像データは、複数個の第1の非文字画像データと、前記複数個の第1の非文字画像データとは異なる複数個の第2の非文字画像データと、を含み、
前記第1の機械学習モデルは、前記複数個の第1の文字画像データと、前記複数個の第1の非文字画像データと、を用いてトレーニングされた前記機械学習モデルであり、
前記第2の機械学習モデルは、前記複数個の第2の文字画像データと、前記複数個の第2の非文字画像データと、を用いてトレーニングされた前記機械学習モデルである、画像処理装置。 The image processing apparatus according to claim 1 or 2.
The plurality of character image data includes a plurality of first character image data and a plurality of second character image data different from the plurality of first character image data.
The plurality of non-character image data includes a plurality of first non-character image data and a plurality of second non-character image data different from the plurality of first non-character image data. ,
The first machine learning model is the machine learning model trained using the plurality of first character image data and the plurality of first non-character image data.
The second machine learning model is an image processing apparatus that is the machine learning model trained using the plurality of second character image data and the plurality of second non-character image data. ..
前記対象画像データは、複数個の画素の色値を含み、
前記色値は、複数個の成分値を含み、
前記第1の抽出処理は、
前記対象画像データを用いて、前記複数個の画素の色値に対応する複数個の第1値を含む第1画像データであって、前記複数個の第1値のそれぞれは、対応する前記色値の複数個の成分値のうちの最小値および最大値のいずれかに基づく値である、前記第1画像データを生成する処理と、
前記第1画像データを二値化することによって前記複数個の第1の画素を特定する処理と、
を含み、
前記第2の抽出処理は、
前記対象画像データを用いて、前記対象画像内の複数個の画素のうちの対応する画素の輝度を示す複数個の第2値を含む第2画像データを生成する処理と、
基準よりも高い輝度を有する画素を前記文字候補画素として特定するように、前記第2画像データを二値化することによって前記複数個の第2の画素を特定する処理と、
を含み、
前記第1の機械学習モデルは、背景よりも輝度が低い文字である第1の文字を示す前記複数個の第1の文字画像データと、前記第1の文字を示さない前記複数個の第1の非文字画像データと、を用いてトレーニングされた前記機械学習モデルであり、
前記第2の機械学習モデルは、背景よりも輝度が高い文字である第2の文字を示す前記複数個の第2の文字画像データと、前記第2の文字を示さない前記複数個の第2の非文字画像データと、を用いてトレーニングされた前記機械学習モデルである、画像処理装置。 The image processing apparatus according to claim 3.
The target image data includes color values of a plurality of pixels.
The color value includes a plurality of component values and contains a plurality of component values.
The first extraction process is
Using the target image data, it is the first image data including a plurality of first values corresponding to the color values of the plurality of pixels, and each of the plurality of first values is the corresponding color. The process of generating the first image data, which is a value based on either the minimum value or the maximum value of the plurality of component values of the value, and
A process of identifying the plurality of first pixels by binarizing the first image data, and
Including
The second extraction process is
A process of using the target image data to generate second image data including a plurality of second values indicating the brightness of the corresponding pixel among the plurality of pixels in the target image.
A process of specifying the plurality of second pixels by binarizing the second image data so that a pixel having a brightness higher than the reference is specified as the character candidate pixel.
Including
In the first machine learning model, the plurality of first character image data showing the first character, which is a character having a brightness lower than that of the background, and the plurality of first characters not showing the first character. The machine learning model trained using the non-character image data of
In the second machine learning model, the plurality of second character image data showing the second character, which is a character having a brightness higher than that of the background, and the plurality of second characters not showing the second character. An image processing apparatus, which is the machine learning model trained using the non-character image data of.
前記複数個の文字画像データは、背景よりも輝度が低い文字である第1の文字を示す複数個の第1の文字画像データと、背景よりも輝度が高い文字である第2の文字を示す複数個の第2の文字画像データと、を含み、
前記第1の機械学習モデルは、前記複数個の第1の文字画像データを用いてトレーニングされた前記機械学習モデルであり、
前記第2の機械学習モデルは、前記複数個の第2の文字画像データを用いてトレーニングされた前記機械学習モデルである、画像処理装置。 The image processing apparatus according to claim 1 or 2.
The plurality of character image data indicates a plurality of first character image data indicating a first character which is a character having a brightness lower than that of the background, and a second character which is a character having a brightness higher than that of the background. Includes a plurality of second character image data and
The first machine learning model is the machine learning model trained using the plurality of first character image data.
The second machine learning model is an image processing device that is the machine learning model trained using the plurality of second character image data.
前記対象画像データのうち、特定済みの前記複数個の文字画素の値に対して第1の画像処理を実行し、前記複数個の文字画素とは異なる画素の値に対して前記第1の画像処理とは異なる第2の画像処理を実行して、画像処理済みの前記対象画像データを生成する画像処理部を備える、画像処理装置。 The image processing apparatus according to any one of claims 1 to 5.
Among the target image data, the first image processing is executed on the identified values of the plurality of character pixels, and the first image is applied to the values of pixels different from the plurality of character pixels. An image processing apparatus including an image processing unit that executes a second image processing different from the processing to generate the target image data that has been image-processed.
前記画像処理済みの前記対象画像データを用いて、印刷データを生成する印刷データ生成部を備える、画像処理装置。 The image processing apparatus according to claim 6.
An image processing apparatus including a print data generation unit that generates print data using the target image data that has been image-processed.
対象画像を示す対象画像データを取得する画像取得機能と、
対象画像データを用いて、複数個の文字画素の候補である複数個の文字候補画素を抽出する候補画素抽出機能であって、前記複数個の文字画素のそれぞれは、前記対象画像上の文字が配置された領域において文字を構成する画素である、前記候補画素抽出機能と、
前記対象画像データを用いて、前記対象画像上に配置される複数個のブロックのそれぞれが文字ブロックであるか否かをブロックごとに判断する判断機能であって、前記文字ブロックは、対象画像上の文字が配置された領域に対応するブロックであり、前記ブロックごとの判断は、文字を示す複数個の文字画像データと文字を示さない複数個の非文字画像データとを用いてトレーニングされた機械学習モデルを用いて実行され、前記機械学習モデルは、第1の機械学習モデルと、前記第1の機械学習モデルとは異なる第2の機械学習モデルと、を含む、前記判断機能と、
前記判断機能による判断結果を用いて、前記複数個の文字候補画素の中から、前記複数個の文字画素を特定する文字画素特定機能と、
をコンピュータに実現させ、
前記候補画素抽出機能は、
第1の抽出処理を実行して、前記複数個の文字候補画素のうちの複数個の第1の文字候補画素を抽出し、
前記第1の抽出処理とは異なる第2の抽出処理を実行して、前記複数個の文字候補画素のうちの複数個の第2の文字候補画素を抽出し、
前記判断機能は、
前記第1の機械学習モデルを用いて、前記複数個のブロックのそれぞれが前記文字ブロックあるか否かをブロックごとに判断し、
前記第2の機械学習モデルを用いて、前記複数個のブロックのそれぞれが前記文字ブロックあるか否かをブロックごとに判断し、
前記文字画素特定機能は、
前記第1の機械学習モデルを用いた判断結果を用いて、前記複数個の第1の文字候補画素の中から、複数個の第1の画素を特定し、
前記第2の機械学習モデルを用いた判断結果を用いて、前記複数個の第2の文字候補画素の中から、複数個の第2の画素を特定し、
前記複数個の第1の画素と前記複数個の第2の画素とを含む前記複数個の文字画素を特定する、コンピュータプログラム。 It ’s a computer program,
An image acquisition function that acquires target image data indicating the target image, and
It is a candidate pixel extraction function that extracts a plurality of character candidate pixels that are candidates for a plurality of character pixels by using the target image data, and each of the plurality of character pixels has a character on the target image. The candidate pixel extraction function, which is a pixel constituting a character in the arranged area,
Using the target image data, it is a determination function for determining for each block whether or not each of the plurality of blocks arranged on the target image is a character block, and the character block is on the target image. It is a block corresponding to the area where the characters of are arranged, and the judgment for each block is a machine trained using a plurality of character image data indicating characters and a plurality of non-character image data not indicating characters. The determination function, which is executed using the learning model, includes a first machine learning model and a second machine learning model different from the first machine learning model .
A character pixel identification function for identifying the plurality of character pixels from the plurality of character candidate pixels using the determination result by the determination function, and a character pixel identification function.
To the computer ,
The candidate pixel extraction function
The first extraction process is executed to extract a plurality of first character candidate pixels among the plurality of character candidate pixels.
A second extraction process different from the first extraction process is executed to extract a plurality of second character candidate pixels among the plurality of character candidate pixels.
The judgment function
Using the first machine learning model, it is determined for each block whether or not each of the plurality of blocks is the character block.
Using the second machine learning model, it is determined for each block whether or not each of the plurality of blocks is the character block.
The character pixel identification function is
Using the determination result using the first machine learning model, a plurality of first pixels are identified from the plurality of first character candidate pixels.
Using the determination result using the second machine learning model, a plurality of second pixels are identified from the plurality of second character candidate pixels.
Wherein that identifies a plurality of character pixels, the computer program and a second pixel of the plurality the first pixel of the plurality.
対象画像を示す対象画像データを取得する画像取得工程と、
対象画像データを用いて、複数個の文字画素の候補である複数個の文字候補画素を抽出する候補画素抽出工程であって、前記複数個の文字画素のそれぞれは、前記対象画像上の文字が配置された領域において文字を構成する画素である、前記候補画素抽出工程と、
前記対象画像データを用いて、前記対象画像上に配置される複数個のブロックのそれぞれが文字ブロックであるか否かをブロックごとに判断する判断工程であって、前記文字ブロックは、対象画像上の文字が配置された領域に対応するブロックであり、前記ブロックごとの判断は、文字を示す複数個の文字画像データと文字を示さない複数個の非文字画像データとを用いてトレーニングされた機械学習モデルを用いて実行され、前記機械学習モデルは、第1の機械学習モデルと、前記第1の機械学習モデルとは異なる第2の機械学習モデルと、を含む、前記判断工程と、
前記判断工程における判断結果を用いて、前記複数個の文字候補画素の中から、前記複数個の文字画素を特定する文字画素特定工程と、
を備え、
前記候補画素抽出工程は、
第1の抽出処理を実行して、前記複数個の文字候補画素のうちの複数個の第1の文字候補画素を抽出し、
前記第1の抽出処理とは異なる第2の抽出処理を実行して、前記複数個の文字候補画素のうちの複数個の第2の文字候補画素を抽出し、
前記判断工程は、
前記第1の機械学習モデルを用いて、前記複数個のブロックのそれぞれが前記文字ブロックあるか否かをブロックごとに判断し、
前記第2の機械学習モデルを用いて、前記複数個のブロックのそれぞれが前記文字ブロックあるか否かをブロックごとに判断し、
前記文字画素特定工程は、
前記第1の機械学習モデルを用いた判断結果を用いて、前記複数個の第1の文字候補画素の中から、複数個の第1の画素を特定し、
前記第2の機械学習モデルを用いた判断結果を用いて、前記複数個の第2の文字候補画素の中から、複数個の第2の画素を特定し、
前記複数個の第1の画素と前記複数個の第2の画素とを含む前記複数個の文字画素を特定する、画像処理方法。 It is an image processing method
An image acquisition process for acquiring target image data indicating a target image, and
This is a candidate pixel extraction step of extracting a plurality of character candidate pixels that are candidates for a plurality of character pixels using the target image data, and each of the plurality of character pixels has a character on the target image. The candidate pixel extraction step, which is a pixel constituting a character in the arranged area,
It is a determination step of determining for each block whether or not each of the plurality of blocks arranged on the target image is a character block using the target image data, and the character block is on the target image. It is a block corresponding to the area where the characters of are arranged, and the judgment for each block is a machine trained using a plurality of character image data indicating characters and a plurality of non-character image data not indicating characters. The determination step, which is executed using the learning model, includes a first machine learning model and a second machine learning model different from the first machine learning model .
A character pixel specifying step of specifying the plurality of character pixels from the plurality of character candidate pixels by using the judgment result in the determination step.
Equipped with a,
The candidate pixel extraction step is
The first extraction process is executed to extract a plurality of first character candidate pixels among the plurality of character candidate pixels.
A second extraction process different from the first extraction process is executed to extract a plurality of second character candidate pixels among the plurality of character candidate pixels.
The judgment step is
Using the first machine learning model, it is determined for each block whether or not each of the plurality of blocks is the character block.
Using the second machine learning model, it is determined for each block whether or not each of the plurality of blocks is the character block.
The character pixel identification step is
Using the determination result using the first machine learning model, a plurality of first pixels are identified from the plurality of first character candidate pixels.
Using the determination result using the second machine learning model, a plurality of second pixels are identified from the plurality of second character candidate pixels.
Wherein that identifies a plurality of character pixels, the image processing method and a second pixel of the plurality the first pixel of the plurality.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2017247063A JP6944127B2 (en) | 2017-12-22 | 2017-12-22 | Image processing equipment, computer programs, and image processing methods |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2017247063A JP6944127B2 (en) | 2017-12-22 | 2017-12-22 | Image processing equipment, computer programs, and image processing methods |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2019114927A JP2019114927A (en) | 2019-07-11 |
JP6944127B2 true JP6944127B2 (en) | 2021-10-06 |
Family
ID=67222926
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2017247063A Active JP6944127B2 (en) | 2017-12-22 | 2017-12-22 | Image processing equipment, computer programs, and image processing methods |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP6944127B2 (en) |
Families Citing this family (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP6703672B1 (en) * | 2019-07-16 | 2020-06-03 | 株式会社テクムズ | Defect detection method for inspection target product, apparatus therefor, and computer program therefor |
CN113313120A (en) * | 2020-02-27 | 2021-08-27 | 顺丰科技有限公司 | Method and device for establishing intelligent card image recognition model |
Family Cites Families (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPH11261814A (en) * | 1998-03-13 | 1999-09-24 | Matsushita Electric Ind Co Ltd | Discrimination system for image attribute |
JP3334047B2 (en) * | 1999-04-12 | 2002-10-15 | ミノルタ株式会社 | IMAGE PROCESSING APPARATUS, IMAGE READING APPARATUS AND IMAGE FORMING APPARATUS EQUIPPED WITH THE SAME, IMAGE PROCESSING METHOD, AND COMPUTER-READABLE STORAGE MEDIUM CONTAINING IMAGE PROCESSING PROCEDURE |
JP3392798B2 (en) * | 2000-02-22 | 2003-03-31 | 理想科学工業株式会社 | Image attribute determination method and apparatus |
JP5857634B2 (en) * | 2011-10-31 | 2016-02-10 | 富士通株式会社 | Word space detection device, word space detection method, and computer program for word space detection |
-
2017
- 2017-12-22 JP JP2017247063A patent/JP6944127B2/en active Active
Also Published As
Publication number | Publication date |
---|---|
JP2019114927A (en) | 2019-07-11 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP4926568B2 (en) | Image processing apparatus, image processing method, and image processing program | |
JP4890974B2 (en) | Image processing apparatus and image processing method | |
US11233921B2 (en) | Image processing apparatus that specifies edge pixel in target image using single-component image data | |
JP7248943B2 (en) | Image processing device and computer program | |
JP6769045B2 (en) | Image processing equipment and computer programs | |
JP6944127B2 (en) | Image processing equipment, computer programs, and image processing methods | |
JP6841075B2 (en) | Image processing equipment and computer programs | |
JP3689574B2 (en) | Image processing method and apparatus, image processing system, and recording medium | |
US10565465B2 (en) | Image processing apparatus that identifies character pixel in target image using first and second candidate character pixels | |
US20020136456A1 (en) | Image process apparatus, image process method and storage medium | |
JP2010114503A (en) | Apparatus, method, program for processing image and recording medium | |
US10339636B2 (en) | Image processing apparatus that specifies edge pixel in target image by calculating edge strength | |
JP2010268399A (en) | Image processing apparatus, image forming apparatus, image processing method, program and recording medium | |
JP7205689B2 (en) | Image processing device and computer program | |
JP6879465B2 (en) | Image processing equipment and computer programs | |
JP6841254B2 (en) | Image processing equipment and computer programs | |
US10389909B2 (en) | Image processing apparatus that specifies edge pixel in target image using minimum and maximum component values of pixel value in target image data | |
JP7248944B2 (en) | Image processing device and computer program | |
JP6867609B2 (en) | Image processing equipment and computer programs | |
TWI729416B (en) | Method of optimizing printing | |
JP6852665B2 (en) | Image processing equipment, computer programs, and image processing methods | |
JP2020136785A (en) | Image processing apparatus, and computer program | |
JP2006109482A (en) | Image processing method, image processing apparatus and image processing program | |
JP2007306432A (en) | Image forming apparatus and method | |
JP2020052892A (en) | Image processing apparatus and computer program |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20200312 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20201120 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20201201 |
|
A521 | Written amendment |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20210129 |
|
A521 | Written amendment |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20210217 |
|
A02 | Decision of refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A02 Effective date: 20210310 |
|
A521 | Written amendment |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20210607 |
|
C60 | Trial request (containing other claim documents, opposition documents) |
Free format text: JAPANESE INTERMEDIATE CODE: C60 Effective date: 20210607 |
|
A521 | Written amendment |
Free format text: JAPANESE INTERMEDIATE CODE: A821 Effective date: 20210608 |
|
A911 | Transfer to examiner for re-examination before appeal (zenchi) |
Free format text: JAPANESE INTERMEDIATE CODE: A911 Effective date: 20210719 |
|
C21 | Notice of transfer of a case for reconsideration by examiners before appeal proceedings |
Free format text: JAPANESE INTERMEDIATE CODE: C21 Effective date: 20210721 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20210811 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20210824 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 6944127 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |