Nothing Special   »   [go: up one dir, main page]

JPH0877294A - Image processor for document - Google Patents

Image processor for document

Info

Publication number
JPH0877294A
JPH0877294A JP6212951A JP21295194A JPH0877294A JP H0877294 A JPH0877294 A JP H0877294A JP 6212951 A JP6212951 A JP 6212951A JP 21295194 A JP21295194 A JP 21295194A JP H0877294 A JPH0877294 A JP H0877294A
Authority
JP
Japan
Prior art keywords
feature
input
document
format structure
ruled line
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP6212951A
Other languages
Japanese (ja)
Inventor
Yasuto Ishitani
康人 石谷
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Toshiba Corp
Original Assignee
Toshiba Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Toshiba Corp filed Critical Toshiba Corp
Priority to JP6212951A priority Critical patent/JPH0877294A/en
Publication of JPH0877294A publication Critical patent/JPH0877294A/en
Pending legal-status Critical Current

Links

Landscapes

  • Character Input (AREA)
  • Character Discrimination (AREA)

Abstract

PURPOSE: To provide the document image processor which can accurately specify the document format of a document, etc., and efficiently extract and read a character string. CONSTITUTION: Figure feature quantities extracted by a feature extraction part 12 from an input image of the document generated by an image input part 11 are grouped by a feature structuring part 13, and the relation of the respective features is extracted and managed. The kind of the format structure of the input document is estimated by using the structured features and information (format structure model) regarding the format structure of a document to be processed which is previously registered in a format structure kind identification part 15. A format structure information collation part 16 extracts detailed correspondence relation between the format structure model corresponding to the estimated kind of the format structure and the structured features of the input document. After noncorrespondence and contradict correspondence finding and correction part 18 obtains the matching of the correspondence relation, a document structure acquisition part 19 copies information regarding the previously registered document structure model to the input document on the basis of the correspondence relation to acquire the structure and relative knowledge of the input document.

Description

【発明の詳細な説明】Detailed Description of the Invention

【0001】[0001]

【産業上の利用分野】本発明は、例えば帳票などの文書
上に記載された文字の読みとり、データベースへの自動
入力、帳票画像の自動ファイリングに用いられる文書画
像処理装置に関するものである。
BACKGROUND OF THE INVENTION 1. Field of the Invention The present invention relates to a document image processing apparatus used for reading characters written on a document such as a form, automatically inputting into a database, and automatic filing of form images.

【0002】[0002]

【従来の技術】近年、書類形態で管理・利用されていた
文書を電子化して計算機に入力し、多用な用途で活用し
ている。様々な業務処理で用いられている文書には、表
形式のものが多く、文書中の特定の位置に記載されてい
る所望の文字列を所望の形式で計算機に効率よく入力
し、管理したいという要求が高まっている。これらの期
待に答えるためにこれまでに光学的文字読みとり装置が
開発され、実用化されてきた。
2. Description of the Related Art In recent years, documents that have been managed and used in the form of documents are digitized and input to a computer, and are used for various purposes. Many documents used in various business processes are in tabular form, and I want to efficiently input and manage the desired character string written in a specific position in the document in the desired format on the computer. The demand is increasing. In order to meet these expectations, optical character reading devices have been developed and put into practical use.

【0003】このような帳票上の特定の位置に記載され
ている文字列を読み取り対象とする場合、帳票の書式構
造を事前に知る必要がある。帳票のように定型的な書式
構造を持つ文書に対する文字列の読み取り処理では、書
式構造を事前に覚えさせておき、それに基づいて効率良
く文字列領域を特定し、読み取るようにしている。
When reading a character string written in a specific position on such a form, it is necessary to know the format structure of the form in advance. In the process of reading a character string for a document having a standard format structure such as a form, the format structure is memorized in advance, and the character string area is efficiently specified and read based on the stored structure structure.

【0004】このようなアプローチをとるものとして
は、対象文書の書式構造に関する知識とそれを利用する
処理を分離することで書式構造の多用性への拡張性を高
めている。これらのものは書式構造に関する知識として
文書構造の物理情報、例えば位置、大きさ、幾何学的関
係などの情報を用いている。代表的な研究として、文献
「信学論(D)、J71−D、10、pp.2050-2058(1988-1
0)」と文献「信学論(D−II)、J72−D−II、7、p
p.1029-1039(1989-07)」がある。
According to such an approach, the expandability to the versatility of the format structure is enhanced by separating the knowledge about the format structure of the target document and the process using it. These items use physical information of the document structure as knowledge about the format structure, for example, information such as position, size, and geometrical relationship. As a typical research, reference is made to the literature “Shingaku theory (D), J71-D, 10, pp.2050-2058 (1988-1).
0) ”and the literature“ Shingaku Theory (D-II), J72-D-II, 7, p.
p.1029-1039 (1989-07) ”.

【0005】一方、最近になって、文書構造に関する物
理情報を用いるだけでは対応できない帳票に対しても文
字列領域の特定を可能にすることが考えられている。こ
の場合、文字領域を空間的な隣接・接続関係に基づいた
論理情報で表現し、識別することを可能にしている。
On the other hand, recently, it has been considered to make it possible to specify a character string area even for a form that cannot be handled only by using physical information regarding the document structure. In this case, the character area can be expressed and identified by logical information based on the spatial adjacency / connection relationship.

【0006】このようなアプローチをとるものとして
は、種々の帳票文書の書式構造に関する構成規則を一般
化してメタ知識と表現されたものを用いて対象文書画像
の書式構造を認識している。代表的な研究として文献
「信学論(D−II)、J76−D−II、3、pp.534-545(1
993-03)」がある。
In order to take such an approach, the format rule of the target document image is recognized by using the one expressed as meta-knowledge by generalizing the configuration rules regarding the format structure of various form documents. As a typical research, the literature “Biological theory (D-II), J76-D-II, 3, pp.534-545 (1)
993-03) ”.

【0007】[0007]

【発明が解決しようとする課題】文献「信学論(D)、
J71−D、10、pp.2050-2058(1988-10)」や文献「信学
論(D−II)、J72−D−II、7、pp.1029-1039(1989-
07)」のようなアプローチをとる手法では、物理情報に
依存しているので文書が大幅にずれて入力されたり、拡
大・縮小によるスケール変換を受けている場合には対応
できない。また、文献「信学論(D−II)、J76−D−
II、3、pp.534-545(1993-03)」のようなアプローチを
とる手法では、入力文書は高品質で画像の劣化がないこ
とを前提としているため、処理対象文書の品質が悪く画
像情報が不足している場合には所望の処理結果を得られ
ないという問題がある。
[Problems to be Solved by the Invention] The literature "Dieology (D),
J71-D, 10, pp. 2050-2058 (1988-10) "and the literature," Theoretical theory (D-II), J72-D-II, 7, pp.1029-1039 (1989-).
The method such as "07)" cannot be applied when the document is input with a large deviation or undergoes scale conversion due to enlargement / reduction because it relies on physical information. In addition, the literature, “Sociology (D-II), J76-D-
II, 3, pp.534-545 (1993-03) ”, it is assumed that the input document is of high quality and there is no deterioration of the image. If the information is insufficient, there is a problem that the desired processing result cannot be obtained.

【0008】また、何れの手法においても、以下の
(1)〜(6)の問題がある。
Further, any of the methods has the following problems (1) to (6).

【0009】(1) 表が複数混在している場合には対
応できない。
(1) It is not possible to deal with the case where a plurality of tables are mixed.

【0010】(2) 表が分裂している場合には対応で
きない。
(2) If the table is divided, it cannot be dealt with.

【0011】(3) 罫線がかすれていたり、欠落して
いる場合には対応できない。
(3) If the ruled line is faint or missing, it cannot be dealt with.

【0012】(4) 罫線分布が局所的に変動している
場合には対応できない。
(4) It is not possible to deal with the case where the ruled line distribution locally changes.

【0013】(5) 入力された文書の処理方法を限定
している(左右に90度および180度回転している文
書に対応できない)。
(5) The processing method of the input document is limited (it cannot support documents rotated 90 degrees and 180 degrees to the left and right).

【0014】(6) 種々の書式構造の文書を一括して
読み取らせる場合、適用すべき書式構造モデルの自動同
定ができない。
(6) When documents of various format structures are read collectively, the format structure model to be applied cannot be automatically identified.

【0015】本発明は上記事情に鑑みてなされたもの
で、表形式の帳票などの書式構造を正確に認識でき、効
率の良い文字列の領域の特定を可能にした文書画像処理
装置を提供することを目的とする。
The present invention has been made in view of the above circumstances, and provides a document image processing apparatus capable of accurately recognizing a format structure of a tabular form or the like and efficiently specifying a character string area. The purpose is to

【0016】[0016]

【課題を解決するための手段】本発明は、文書より入力
画像を生成する画像入力手段と、入力文書の書式構造を
認識するために用いられる処理対象文書の書式構造に関
する情報を登録する際に、正立した処理対象文書の書式
構造に関する情報を複数の所定角度で回転させたものを
発生させ、それぞれに正立したものから何度回転してい
るかに関する情報を付与し、それらすべてを処理対象文
書の書式構造に関する情報として登録する書式構造情報
登録手段と、前記画像入力手段により生成された入力画
像から線分と文字成分に関する図形特徴を抽出し、さら
に前記入力画像における文字成分以外の領域から線分に
関する特徴を罫線を構成する図形特徴とみなして抽出す
る特徴抽出手段と、前記特徴抽出手段より抽出された罫
線に関する図形特徴をグループ化することにより表に関
する特徴を抽出し、各表に関する特徴において罫線が交
差・接続する部分に生じる接合部に関する情報を抽出
し、それぞれの特徴間の関係を抽出・管理する特徴構造
化手段と、前記特徴構造化手段で得られた入力画像の構
造化された画像特徴と、予め前記書式構造情報登録手段
によって登録されている処理対象文書の書式構造に関す
る情報を用いて、類似度を計算し、最も類似度の高い書
式構造モデルあるいは類似度の高いものから順に複数個
の書式構造モデルあるいはある一定値以上の類似度を有
する書式構造モデルを選び、前記入力文書の書式構造の
種別を一つあるいは複数個の候補に絞りこむ書式構造種
別同定手段と、前記特徴構造化手段により得られた入力
文書の表に関する特徴と、前記書式構造情報登録手段に
より登録されている当該書式構造モデルを構成する表に
関する特徴との間い照合処理を行ない、表間対応関係を
獲得する表照合手段と、前記表照合手段により得られた
表の対応関係において入力文書の表を構成する罫線と同
罫線に対応付く書式構造モデルの表を構成する罫線との
間の対応関係を獲得する罫線照合手段と、前記照合処理
結果に基づき特徴間の対応付きの程度を表す照合度を計
算し、正しい対応付けが行なわれているか否かの判断を
行なう照合結果判定手段とにより構成されているモデル
照合手段と、前記モデル照合手段で選択された書式構造
文書と入力文書における構造化特徴間の対応付けにおい
て、不完全な対応付けおよび矛盾した対応付けを解消す
ることにより整合のとれた前記書式構造モデルと入力文
書の構造化された特徴間の対応関係を獲得する未対応・
矛盾対応発見修正手段と、前記モデル照合手段で入力画
像に対応付いた書式構造モデルが所定角度で回転させた
ものである場合には、その回転角度を正立する方向に入
力画像を回転し、正立した当該書式モデルと対応付ける
画像回転手段と、前記書式構造モデルと入力文書の構造
化された特徴間の対応関係に基づいて、予め登録されて
いる当該書式構造モデルに関する情報を入力文書にコピ
ーすることにより入力文書の書式構造と関連情報を獲得
する文書構造獲得手段とを具備し、この文書構造獲得手
段により得られる結果に基づいて入力画像の書式構造を
認識するように構成されている。
SUMMARY OF THE INVENTION According to the present invention, an image input means for generating an input image from a document and an information regarding the format structure of a processing target document used for recognizing the format structure of the input document are registered. , Generates information about the format structure of an upright document to be processed at multiple predetermined angles, gives information about how many times it is rotated from the upright document, and processes all of them. Form structure information registration means for registering as information about the format structure of the document, and graphic features regarding line segments and character components are extracted from the input image generated by the image input means, and further extracted from areas other than the character components in the input image. Feature extraction means for extracting the features related to the line segment as the graphic features forming the ruled lines, and the graphic feature related to the ruled lines extracted by the feature extraction means. Feature structuring means for extracting features related to a table by grouping, extracting information about a joint portion at a portion where ruled lines intersect / connect in the features related to each table, and extracting / managing a relationship between the features. And calculating the similarity using the structured image features of the input image obtained by the feature structuring means and the information about the format structure of the processing target document registered in advance by the format structure information registration means. Then, a plurality of format structure models or a format structure model having a similarity of a certain value or more are selected in order from the format structure model having the highest similarity or the one having the highest similarity, and the type of the format structure of the input document is set to one. Format structure type identifying means for narrowing down to one or a plurality of candidates, features relating to the table of the input document obtained by the feature structuring means, and the format structure Correspondence between the table obtained by the table collating means and the table collating means for performing the collating process with the features relating to the tables constituting the format structure model registered by the information registering means to obtain the inter-table correspondence relationship. In the relation, ruled line collating means for acquiring the correspondence between the ruled lines forming the table of the input document and the ruled lines forming the table of the format structure model corresponding to the ruled line, and the correspondence between the features based on the result of the collation processing. Of the structured structure document selected by the model matching means, and a model matching means configured by a matching result determining means for calculating a matching degree indicating the degree of matching and determining whether or not correct matching is performed. In the correspondence between the structured features in the input document and the input document, the formal structure model and the input document are matched by eliminating incomplete correspondence and inconsistent correspondence. Uncorrespondence that acquires the correspondence between the structured features of
When the format structure model associated with the input image by the contradiction correspondence finding and correction means and the model matching means is rotated by a predetermined angle, the input image is rotated in a direction in which the rotation angle is erect, Based on the correspondence between the image rotation means associated with the upright format model and the structured features of the format structure model and the input document, information on the previously registered format structure model is copied to the input document. The document structure acquisition means for acquiring the format structure and the related information of the input document is provided, and the format structure of the input image is recognized based on the result obtained by the document structure acquisition means.

【0017】[0017]

【作用】この結果、本発明は、入力文書画像から罫線に
関する図形特徴量と文字成分に関する図形特徴量を抽出
し、これらのかかわり合いから文字成分以外の領域で正
確に罫線の特徴量を抽出できる。また、この罫線特徴を
グループ化することにより表に関する特徴量が得られ、
さらに各表において罫線に関する特徴とそれらの交差・
接合により生じる接合部を抽出し、全体−部分関係で記
述・管理することにより図形特徴量に対してより豊富な
情報を付加することができる。それらを効率的に検索す
ることができる。これにより文書内に表が複数個混在し
ていても各々の情報を抽出することができ、また罫線に
関する特徴も表ごとに区別することができる。
As a result, according to the present invention, the feature amount of the ruled line and the feature amount of the character component related to the ruled line are extracted from the input document image, and the feature amount of the ruled line can be accurately extracted in the area other than the character component based on the relation between them. Also, by grouping these ruled line features, the feature amount related to the table can be obtained,
Furthermore, in each table, the features related to ruled lines and their intersections
It is possible to add more abundant information to the graphic feature amount by extracting the joint portion generated by the joint and describing and managing the joint portion by the whole-part relation. You can search them efficiently. As a result, even if a plurality of tables are mixed in the document, the respective information can be extracted, and the characteristics regarding ruled lines can be distinguished for each table.

【0018】本発明では、入力画像から得られた構造化
された特徴と予め登録されている書式構造モデルの構造
化特徴との間で照合処理を行なうことにより入力文書を
解釈するが、照合処理の前に書式構造モデルの種別を同
定することで登録されているすべての書式構造モデルと
の照合処理を行なうことを避けることができる。この処
理では、文書中に含まれている接合部の数や罫線の数を
用いているので入力文書と書式構造モデルの間で拡大縮
小に伴うスケール変換がなされていたり、表や罫線の構
成要素の大きさが部分的に変動していても安定した結果
を得ることができる。書式構造モデルの種別を同定する
時に唯一の結果を出力するのではなく複数個の候補を出
力することで同定誤りが生じないようにしている。候補
となっている書式構造モデルの構造化特徴と入力文書の
構造化特徴との間で行なわれる照合処理では、もっとも
良く対応付く書式構造モデルを選ぶことができ、得られ
た対応関係が正しく獲得されているか否かの判断を行な
うことにより処理結果の信頼性を高めている。このと
き、照合処理まず表単位に行なわれ、次いで罫線単位に
行なわれる。この結果、局所的にまったく同じ特徴量を
持つ罫線でもそれが所属する表が異なれば誤った対応付
けが行なわれることはない。
According to the present invention, the input document is interpreted by performing the matching process between the structured feature obtained from the input image and the structured feature of the format structure model registered in advance. By identifying the type of the format structure model before, it is possible to avoid performing the matching process with all the registered format structure models. In this process, since the number of joints and the number of ruled lines included in the document are used, scale conversion is performed between the input document and the format structure model due to scaling, or the components of tables and ruled lines are used. It is possible to obtain a stable result even if the size of is partially varied. The identification error is prevented by outputting a plurality of candidates instead of outputting a single result when identifying the type of the format structure model. In the matching process performed between the structured features of the candidate format structure model and the structured features of the input document, the format structure model with the best correspondence can be selected, and the obtained correspondence relationship can be acquired correctly. The reliability of the processing result is improved by determining whether or not the processing result is obtained. At this time, the collating process is first performed for each table and then for each ruled line. As a result, even if a ruled line having exactly the same local feature amount locally belongs to a different ruled line, incorrect association is not performed.

【0019】また、本発明では、対応関係に対してどち
らかの構造化特徴の欠落による不完全な対応付きや矛盾
した対応付きの有無およびこの箇所を発見し、それを解
消する。この結果、整合のとれた対応関係を獲得するこ
とができ、安定した処理結果を得ることができる。この
対応関係に基づいて予め登録されている書式構造モデル
に関連する情報を入力文書に複写することにより入力文
書の文書構造を獲得し、読みとるべき文字列の記載位置
を正確に特定することができる。
Further, in the present invention, the presence or absence of incomplete correspondence or inconsistent correspondence due to the lack of one of the structured features in the correspondence relation and this portion are found and solved. As a result, a matching correspondence can be obtained, and a stable processing result can be obtained. The document structure of the input document can be acquired by copying the information related to the pre-registered format structure model based on this correspondence to the input document, and the position where the character string to be read can be accurately specified. .

【0020】[0020]

【実施例】以下、図面を参照して本発明の一実施例を説
明する。図1は本実施例に係わる画像処理装置の概略構
成を示すブロック図である。
An embodiment of the present invention will be described below with reference to the drawings. FIG. 1 is a block diagram showing the schematic arrangement of an image processing apparatus according to this embodiment.

【0021】本発明は、画像入力部11、特徴抽出部1
2、特徴構造化部13、書式構造情報登録部14、書式
構造種別同定部15、書式構造情報照合部16、未対応
・矛盾対応発見修正部17、照合結果判定部18、及び
文書構造獲得部19の各機能部から構成されている。
The present invention includes an image input unit 11 and a feature extraction unit 1.
2, feature structuring unit 13, form structure information registration unit 14, form structure type identifying unit 15, form structure information collating unit 16, uncorrespondence / contradiction correspondence finding and correcting unit 17, collation result judging unit 18, and document structure acquiring unit. It is composed of 19 functional units.

【0022】また、処理対象とする帳票は、図2に示す
ように、罫線により文字列領域が規定されているものと
する。
Further, it is assumed that the form to be processed has a character string area defined by ruled lines as shown in FIG.

【0023】画像入力部11は、スキャナ装置やTVカ
メラ、FAXデータの入力部などによって構成されるも
のである。画像入力部11は、処理対象である帳票等の
文書の画像を検出してシステム内に取り込む。画像入力
部11によって入力された画像(入力画像)は、特徴抽
出部12に送られる。
The image input unit 11 is composed of a scanner device, a TV camera, a FAX data input unit, and the like. The image input unit 11 detects an image of a document such as a form to be processed and takes it into the system. The image (input image) input by the image input unit 11 is sent to the feature extraction unit 12.

【0024】特徴抽出部12は、画像入力部11から得
られた入力画像から、罫線や文字成分に関する幾何学的
な図形特徴量をそれぞれ基本特徴として抽出する。特徴
抽出部12により抽出された基本特徴の集合は特徴構造
化部13に送られる。
The feature extraction unit 12 extracts, from the input image obtained from the image input unit 11, geometrical figure feature amounts regarding ruled lines and character components as basic features. The set of basic features extracted by the feature extraction unit 12 is sent to the feature structuring unit 13.

【0025】特徴構造化部13は、特徴抽出部12によ
り抽出された基本特徴の集合について、例えば罫線に関
する特徴をグループ化することにより得られる表や、罫
線が交差・接続する部分に生じる接合部などに関する情
報を構造化特徴として抽出し、さらにそれぞれの特徴間
の関係を記述、管理する。
The feature structuring unit 13 is a table obtained by, for example, grouping features related to ruled lines in the set of basic features extracted by the feature extraction unit 12, and a joint portion generated at a portion where ruled lines intersect / connect. Information related to etc. is extracted as a structured feature, and the relationship between each feature is described and managed.

【0026】書式構造情報登録部14は、システムとオ
ペレータとの対話的な入力作業により、処理対象文書に
関する知識の登録を行なう。本実施例では、処理対象文
書の種類ごとに用意された種々の知識の総体をモデルと
呼び、モデルを定義したときに用いた文書をモデル文書
と呼ぶことにする。モデルは例えば、そのモデル文書の
構造化特徴に関する情報などを有している。
The format structure information registration unit 14 registers knowledge about the document to be processed by interactive input work between the system and the operator. In the present embodiment, the total of various knowledge prepared for each type of document to be processed is called a model, and the document used when the model is defined is called a model document. The model has, for example, information about the structured features of the model document.

【0027】このとき、書式構造情報登録部14は、正
立している構造化特徴から、右に90度回転したもの、
左に90度回転したもの、180度回転したものの3種
類の構造化特徴を発生させ、それぞれが正立したものか
ら何度回転されているものであるかという情報を付与し
て知識ベースとして格納してもよい。
At this time, the format structure information registration unit 14 rotates the structure feature standing upright by 90 degrees to the right,
Generates three types of structured features, one rotated 90 degrees to the left and one rotated 180 degrees, and added as information about how many times each of them has been rotated from an upright one and stored as a knowledge base. You may.

【0028】この他に、例えば罫線により規定されてい
る領域内に含まれる文字列を文字認識装置で認識・コー
ド化させるような場合には、各種情報を構造化特徴に関
連付けて知識ベースとして登録・管理するようにしても
よい。
In addition to this, for example, when a character string included in an area defined by a ruled line is to be recognized and coded by a character recognition device, various kinds of information are registered as a knowledge base in association with structured features.・ It may be managed.

【0029】各種情報には、例えば、文字認識対象領域
の指定に関する情報、文字認識対象領域の文字列方向の
情報、文字読み取り処理時に拘束条件として働く文字種
情報及び筆記形態情報、文字認識後処理のための項目属
性情報、文字認識結果の対応関係などの情報がある。
The various information includes, for example, information relating to designation of the character recognition target area, information on the character string direction of the character recognition target area, character type information and writing form information which acts as a constraint condition at the time of character reading processing, and post-character recognition processing. There is information such as item attribute information and a correspondence relationship between character recognition results.

【0030】書式構造種別同定部15は、特徴構造化部
13によって抽出された入力画像に対する構造化特徴
と、予め書式構造情報登録部14によって登録されてい
るモデル文書のそれぞれの構造化特徴との間で、類似度
計算を行なうことにより入力文書のフォーマットの種別
を同定する。すなわち類似度値が高いモデルのフォーマ
ットが入力文書のフォーマットである可能性が高いもの
と判別する。書式構造種別同定部15は、該当する構造
化特徴を次段の書式構造情報照合部16に出力する。
The format structure type identifying unit 15 includes a structured feature for the input image extracted by the feature structuring unit 13 and each structured feature of the model document registered in advance by the format structure information registration unit 14. In between, the type of format of the input document is identified by performing similarity calculation. That is, it is determined that the model format having a high similarity value is highly likely to be the input document format. The format structure type identifying unit 15 outputs the corresponding structured feature to the format structure information matching unit 16 in the next stage.

【0031】なお、書式構造種別同定部15は、最も類
似度値の高いモデルのみに注目するのではなく、例えば
ある事前に定められたしきい値以上の類似度値を示す全
てのモデル文書の構造化特徴を候補として、書式構造情
報照合部16に入力構造化特徴と共に送り込むようにし
てもよい。
It should be noted that the format structure type identifying unit 15 does not focus only on the model having the highest similarity value, for example, for all model documents showing a similarity value equal to or higher than a certain predetermined threshold value. The structured feature may be sent to the format structure information matching unit 16 together with the input structured feature as a candidate.

【0032】書式構造情報照合部16は、書式構造種別
同定部15によって候補とされた全てのモデル文書と入
力文書の間で構造化特徴間の対応関係を獲得する。ま
た、書式構造情報照合部16は、入力文書の構造化特徴
と各モデル文書の構造化特徴との対応付け結果に対して
対応付きの度合いを表す尺度(以後、照合度と呼ぶ)を
計算する。書式構造情報照合部16は、構造化特徴間の
対応関係を示す情報、及び照合度を示す情報を照合結果
判定部17に出力する。
The format structure information collating unit 16 acquires the correspondence relation between the structured features between all the model documents and the input documents which are candidates by the format structure type identifying unit 15. Further, the format structure information matching unit 16 calculates a scale (hereinafter, referred to as a matching degree) indicating the degree of correspondence with the correspondence result between the structured feature of the input document and the structured feature of each model document. . The format structure information matching unit 16 outputs the information indicating the correspondence between the structured features and the information indicating the matching degree to the matching result determination unit 17.

【0033】なお、書式構造種別同定部15から複数の
モデル文書の構造化特徴が送られてきた場合には、書式
構造情報照合部16は、さらに最大照合度を示すモデル
文書を選択・出力するようになっていてもよい。
When the structured features of a plurality of model documents are sent from the format structure type identifying unit 15, the format structure information matching unit 16 further selects and outputs the model document showing the maximum matching degree. It may be like this.

【0034】照合結果判定部17は、書式構造情報照合
部16によって得られた情報に基づいて、最大照合度を
示す文書モデルと入力文書との間で対応関係が取れてい
るか否かを判定する。ここで対応関係が取れていると判
定された場合には、後段の未対応・矛盾対応発見修正部
18に着目入力文書とモデル文書間の対応関係に関する
情報が送られるようにする。対応関係が取れていないと
みなされる場合には、入力文書を棄却して、次の文書を
入力するようにオペレータに促す。
Based on the information obtained by the format structure information matching unit 16, the matching result judging unit 17 judges whether or not there is a correspondence between the document model showing the maximum matching degree and the input document. . If it is determined that the correspondence is established, the information about the correspondence between the input document of interest and the model document is sent to the uncorresponding / contradiction correspondence finding / correcting unit 18 in the subsequent stage. When it is considered that the correspondence is not established, the input document is rejected and the operator is urged to input the next document.

【0035】未対応・矛盾対応発見修正部18は、書式
構造情報照合部16で獲得された入力文書の構造化特徴
とモデル文書の構造化特徴の対応関係において、誤った
特徴の抽出や必要な特徴の欠落のために不完全な対応や
矛盾した対応が生じているか否かを発見する。未対応・
矛盾対応発見修正部18は、不完全な対応や矛盾した対
応を発見した場合には、それらを解消することにより整
合のとれた入力・モデル間の対応関係を獲得した上で、
文書構造獲得部19に出力する。
The non-correspondence / contradiction correspondence finding / correction unit 18 extracts an erroneous feature in the correspondence relation between the structured feature of the input document and the structured feature of the model document acquired by the format structure information collation unit 16 and extracts a necessary feature. Discover whether incomplete or inconsistent correspondences occur due to missing features. Not compatible·
When the inconsistent correspondence finding / correcting unit 18 finds an incomplete correspondence or an inconsistent correspondence, the inconsistent correspondence finding / correcting unit 18 eliminates them to obtain a matching correspondence between the input and the model, and
It is output to the document structure acquisition unit 19.

【0036】文書構造獲得部19は、未対応・矛盾対応
発見修正部18で得られた整合のとれた入力文書とモデ
ル文書の構造化特徴間の対応関係に基づいて、予め書式
構造情報登録部14で登録されているモデル文書に関す
る知識を入力文書にコピーすることにより入力文書の文
書構造及び関連知識を獲得する。
The document structure acquisition unit 19 preliminarily uses the format structure information registration unit based on the correspondence between the structured features of the matched input document and the model document obtained by the uncorrespondence / contradiction correspondence finding / correction unit 18. The document structure of the input document and the related knowledge are acquired by copying the knowledge about the model document registered in 14 to the input document.

【0037】次に、上述した必須構成要素を含む具体的
な文書画像処理システムについて説明する。ここでは、
図3に示すように、文字認識装置と組み合わせた文書画
像処理システムについて説明する。このシステムは、入
力文書から得られた入力画像において、特定の位置に記
載されている文字列領域を自動的に抽出し、さらにその
文字列画像を認識・コード化して、所望の出力様式で出
力するという動作をするものである。以後、図2に示す
文書(以下、特に断らない限り図2の文書を入力文書と
呼ぶ)を用いて説明する。
Next, a specific document image processing system including the above-mentioned essential components will be described. here,
As shown in FIG. 3, a document image processing system combined with a character recognition device will be described. This system automatically extracts the character string area described at a specific position in the input image obtained from the input document, recognizes and codes the character string image, and outputs it in the desired output format. It is the action of doing. Hereinafter, description will be made using the document shown in FIG. 2 (hereinafter, the document of FIG. 2 is referred to as an input document unless otherwise specified).

【0038】図3に示すように、文書画像処理システム
は、画像入力部21、2値化処理部23、前処理部2
5、特徴抽出部27、特徴構造化部29、モデル登録部
31、フォント種別同定部33、モデル照合部35、照
合結果判定部37、未対応矛盾対応発見修正部39、文
書構造獲得部41、文字列領域抽出部43、文字認識部
45、及び文字認識結果出力部47によって構成されて
いる。
As shown in FIG. 3, the document image processing system includes an image input section 21, a binarization processing section 23, and a preprocessing section 2.
5, feature extraction unit 27, feature structuring unit 29, model registration unit 31, font type identification unit 33, model collation unit 35, collation result determination unit 37, uncorresponding contradiction correspondence finding and correction unit 39, document structure acquisition unit 41, The character string area extraction unit 43, the character recognition unit 45, and the character recognition result output unit 47 are included.

【0039】画像入力部21は、図1において説明した
画像入力部11と同じものとして説明を省略する。
The image input section 21 is the same as the image input section 11 described with reference to FIG.

【0040】2値化処理部23は、画像入力部23から
取り込まれた文書画像を、公知である2値化処理により
白と黒の2値の画像データに変換し、前処理部25に出
力する。
The binarization processing unit 23 converts the document image fetched from the image input unit 23 into binary image data of white and black by a known binarization process, and outputs it to the preprocessing unit 25. To do.

【0041】前処理部25は、2値化処理部23から出
力された2値画像について、例えば文献「信学技報、P
RU92−32、1992」に記載されている傾き検出
・補正処理により、傾きのない2値画像に変換する。さ
らに、前処理部25は、傾きが補正された2値画像に対
して、公知である黒連結成分抽出処理により、連結する
黒画素のまとまりを囲む外接矩形枠を生成し、その大き
さ(縦幅と横幅の長さ)や位置座標値を抽出、管理し、
その結果を特徴抽出部27に出力する。
The pre-processing unit 25 processes the binary image output from the binarization processing unit 23, for example, in the literature “Science Technical Report, P.
RU92-32, 1992 ”, the image is converted into a binary image having no inclination by the inclination detection / correction processing. Further, the preprocessing unit 25 generates a circumscribing rectangular frame surrounding a group of black pixels to be connected to the binary image whose inclination has been corrected by a known black connected component extraction process, and determines its size (vertical length). (Width and width) and position coordinate values are extracted and managed,
The result is output to the feature extraction unit 27.

【0042】なお、入力文書の位置座標は左上端を原点
とし、x座標値は右方向に次第に大きくなり、y座標値
は下方向に次第に大きくなるように定義されているもの
とする。本実施例で触れる文書画像は全てこの座標系で
定義されている。この内、縦幅と横幅の長さが、それぞ
れ動的に検出されたしきい値th1 、th2 よりも小さく、
かつ最近傍の他の黒連結成分矩形から距離th3 以上離れ
ているものを、ノイズあるいは網点であるとして除去す
るようにしてもよい。
The position coordinates of the input document are defined such that the upper left corner is the origin, the x coordinate value gradually increases in the right direction, and the y coordinate value gradually increases in the downward direction. All the document images touched in this embodiment are defined in this coordinate system. Of these, the width and height are smaller than the dynamically detected thresholds th1 and th2, respectively.
In addition, it is also possible to remove those that are separated from the other nearest black connected component rectangle by a distance th3 or more as noise or halftone dots.

【0043】以後、画像入力部21から入力された文書
画像に対して、2値化処理部23における2値化処理、
前処理部25における前処理を施して得た画像を入力文
書画像または単に入力画像と呼ぶ。入力画像は、特徴抽
出部27に送られる特徴抽出部27は、前処理部25か
ら得られた入力画像から幾何学的な図形特徴を抽出する
ものであり、図4に示すように、線分抽出部27a、文
字候補矩形抽出部27b、及び罫線特徴抽出部27cに
よって構成されている。特徴抽出部27は、以下に示す
手順で幾何学的な図形特徴を抽出する。
After that, the document image input from the image input unit 21 is binarized by the binarization processing unit 23.
An image obtained by performing the preprocessing in the preprocessing unit 25 is called an input document image or simply an input image. The input image is sent to the feature extraction unit 27. The feature extraction unit 27 extracts geometrical graphic features from the input image obtained from the preprocessing unit 25. As shown in FIG. The extraction unit 27a, the character candidate rectangle extraction unit 27b, and the ruled line feature extraction unit 27c are configured. The feature extraction unit 27 extracts geometrical graphic features by the following procedure.

【0044】まず、線分抽出部27aは、例えば、以下
に述べる手順に基づいて入力画像から線分を抽出する。
このとき線分抽出処理は、垂直方向と水平方向の2つの
方向に限定して実施されるようにしてもよい。具体的な
例として、垂直方向の線分を抽出する場合について説明
する。なお、水平方向の線分についても同様の手順によ
り抽出することができる。
First, the line segment extraction unit 27a extracts a line segment from the input image based on the procedure described below, for example.
At this time, the line segment extraction process may be performed only in two directions, that is, the vertical direction and the horizontal direction. As a specific example, a case of extracting a line segment in the vertical direction will be described. Note that line segments in the horizontal direction can also be extracted by the same procedure.

【0045】Step1:文書画像を垂直方向に順次走
査し、各走査線において、予め定めた例えば3ドット以
上の長さを持つ連続する黒画素の連なりの集合(BL=
{bli |i=1,2,…,n})を抽出する。
Step 1: A document image is sequentially scanned in the vertical direction, and a series of consecutive black pixels (BL ==) having a predetermined length of, for example, 3 dots or more is scanned in each scanning line.
{Bli | i = 1, 2, ..., N}) is extracted.

【0046】Step2:BLの要素のうち、水平方向
に隣接しているものを統合してまとめることにより、さ
らに、その集合(BLG={blgj |j=1,2,…
M})を抽出する。
Step 2: Of the elements of BL, those that are adjacent in the horizontal direction are integrated and put together, and the set (BLG = {blgj | j = 1, 2, ...
M}) is extracted.

【0047】Step3:BLGの各要素に含まれるB
Lにおいて、垂直方向に最も長い黒画素の連なりblma
x を抽出し、その長さblmax のα(例えばα=0.
3)倍未満の長さを持つbli を削除する。
Step3: B included in each element of BLG
In L, a series of black pixels that are longest in the vertical direction blma
x is extracted, and its length blmax is α (for example, α = 0.
3) Delete bli with length less than double.

【0048】Step4:残ったbli を内接する矩形
を抽出し、その集合(RL={rlk |k=1,2,
…,P})を抽出する(このとき、rlk とそれを構成
するbli とを相互に関連づける)。rlk の左上端お
よび右下端のy座標値を検出し、それぞれrlk y1 、
rlk y2 とする。
Step 4: A rectangle inscribed in the remaining bli is extracted and its set (RL = {rlk | k = 1, 2,
, P}) (at this time, rlk and bli that compose it are correlated with each other). The y coordinate values of the upper left corner and the lower right corner of rlk are detected, and rlk y1, respectively.
Let rlk y2.

【0049】Step5:RLの各要素を水平方向(左
から右への方向)に順次走査し、各走査線において最初
に出現するbli のx座標(xis)と最後に出現するb
liのx座標(xie)を保持する。
Step 5: Each element of RL is sequentially scanned in the horizontal direction (from left to right), and the x coordinate (xis) of bli that first appears in each scanning line and the b that appears last in bli.
Hold the x coordinate (xie) of li.

【0050】Step6:各rlk の各水平走査線にお
いて得られたxisの集まりと、eieの集まりの平均値r
lk x1 ,rlk x2 をそれぞれ計算する。
Step 6: The average value r of the collection of xis and the collection of eie obtained in each horizontal scanning line of each rlk.
lk x1 and rlk x2 are calculated respectively.

【0051】Step7:各rlk の左上端および右下
端の座標をそれぞれ(rlk x1 ,rlk y1 )、(r
lk x2 ,rlk y2 )に設定し、それを線分として抽
出する。
Step 7: The coordinates of the upper left corner and the lower right corner of each rlk are (rlk x1, rlk y1) and (r
lk x2, rlk y2) and extract it as a line segment.

【0052】線分抽出部27aにより、入力画像から抽
出された線分の例を図5に示している。図5に示すよう
に、この段階では文字の部分において、文字を構成する
短い線分を検出している。これらを取り除くように以下
の処理を行なってもよい。すなわち、線分抽出部27a
による線分抽出処理に前後して、あるいは同時に黒連結
成分群に対して、文字候補矩形抽出部27bは、以下に
述べる手順により、文字とみなすことのできる黒連結成
分(以後、文字候補矩形と呼ぶ)を選出する。
FIG. 5 shows an example of the line segment extracted from the input image by the line segment extraction unit 27a. As shown in FIG. 5, at this stage, short line segments forming a character are detected in the character portion. The following processing may be performed to remove these. That is, the line segment extraction unit 27a
Before or after the line segment extraction processing by, the character candidate rectangle extraction unit 27b uses the procedure described below to determine a black connected component that can be regarded as a character (hereinafter referred to as a character candidate rectangle). Call).

【0053】Step1:各黒連結成分を内接する矩形
を抽出し、その縦幅chと横幅cwを求める。
Step 1: A rectangle inscribed in each black connected component is extracted, and its vertical width ch and horizontal width cw are obtained.

【0054】Step2:chとcwの各値に対して出
現頻度を求め、最頻値を抽出する。最頻値を示すchを
入力文書中の文字の平均的な文字高さ(CH)、最頻値
を示すcwを入力文書中の文字の平均的な文字幅(C
W)とみなす。
Step 2: The appearance frequency is calculated for each value of ch and cw, and the mode value is extracted. The ch indicating the mode value is the average character height (CH) of the characters in the input document, and the cw indicating the mode value is the average character width (C) of the character in the input document.
W).

【0055】Step3:(CW−th)≦cw≦(C
W+th)かつ(CH−th)≦ch≦(CH+th)
を満たす黒連結成分を文字候補矩形として抽出する。
Step 3: (CW-th) ≤cw≤ (C
W + th) and (CH-th) ≦ ch ≦ (CH + th)
Black connected components that satisfy the above are extracted as character candidate rectangles.

【0056】文字候補矩形抽出部27bにより抽出され
た文字候補矩形の抽出結果例を図6(文字部を外枠矩形
で囲んだ例)に示している。
An example of the extraction result of the character candidate rectangles extracted by the character candidate rectangle extraction unit 27b is shown in FIG. 6 (an example in which the character portion is surrounded by an outer frame rectangle).

【0057】なお、文字候補矩形抽出処理を線分抽出処
理より先に行ない、得られた文字候補矩形以外の入力画
像上の部分に対して垂直方向と水平方向の両方向に、以
下に述べるフィルタリング処理を適用して、罫線がかす
れていたり、とぎれているような場合でも線分抽出処理
結果を安定させるようにしてもよい。
The character candidate rectangle extraction process is performed before the line segment extraction process, and the filtering process described below is performed in both the vertical direction and the horizontal direction with respect to the portion other than the obtained character candidate rectangle on the input image. May be applied to stabilize the line segment extraction processing result even when the ruled line is faint or broken.

【0058】この場合、特徴抽出部27は、図7に示す
ように構成される。すなわち、文字候補矩形抽出部27
bの処理結果がフィルタリング処理部27dに出力され
フィルタリング処理が施される。そして、フィルタリン
グ処理の後に、線分抽出部27aによる線分抽出処理実
行される。
In this case, the feature extraction unit 27 is constructed as shown in FIG. That is, the character candidate rectangle extraction unit 27
The processing result of b is output to the filtering processing unit 27d and subjected to filtering processing. Then, after the filtering process, the line segment extracting process is executed by the line segment extracting unit 27a.

【0059】フィルタリング処理部27dによるフィル
タリング処理は、例えば、2値画像において水平(垂
直)方向の走査線上のある決まった長さ以内で連続する
白画素を全て黒画素に置き換えるという処理で実現され
る。これにより、かすれやとぎれのある罫線部分が補正
されるので、線分抽出処理結果が安定される。
The filtering process by the filtering process unit 27d is realized by, for example, a process of replacing all continuous white pixels within a predetermined length on a horizontal (vertical) scanning line in a binary image with black pixels. . As a result, the ruled line portion having faintness or discontinuity is corrected, so that the line segment extraction processing result is stabilized.

【0060】罫線特徴抽出部27cは、線分抽出部27
aによって抽出された線分群において、図8に示すよう
な文字候補矩形に交差あるいは包含されている線分を除
去し、残った線分を罫線特徴として抽出する。
The ruled line feature extraction unit 27c is a line segment extraction unit 27.
In the line segment group extracted by a, line segments that intersect or are included in the character candidate rectangle as shown in FIG. 8 are removed, and the remaining line segments are extracted as ruled line features.

【0061】この時点では、各罫線特徴は、入力画像に
おける当該画像を囲む外接矩形の左上端と右下端の位置
座標、外接矩形の縦幅及び横幅などの種々の情報で表現
されるようにしてもよい。また、罫線特徴に「対応付い
た罫線特徴の識別番号」を用意しておいて、後段のモデ
ル照合部35で実施される照合処理において、対応付い
た相手の識別番号を格納するようにしてもよい。
At this point, each ruled line feature is represented by various information such as the position coordinates of the upper left and lower right edges of the circumscribing rectangle surrounding the image in the input image, and the vertical and horizontal widths of the circumscribing rectangle. Good. In addition, a ruled line feature “corresponding ruled line feature identification number” may be prepared, and the corresponding partner identification number may be stored in the matching process performed by the model matching unit 35 in the subsequent stage. Good.

【0062】得られた罫線特徴の集合は、さらに水平罫
線と垂直罫線の2種類に分類され、水平罫線特徴の集合
とその要素数、垂直罫線特徴の集合とその要素数が抽出
される。
The obtained set of ruled line features is further classified into two types of horizontal ruled lines and vertical ruled lines, and the set of horizontal ruled line features and the number of elements thereof, and the set of vertical ruled line features and the number of elements thereof are extracted.

【0063】入力画像に対する罫線特徴抽出結果の例を
図9に示す。ここで、入力画像から抽出された水平罫線
の集合(水平罫線特徴集合)と垂直罫線の集合(垂直罫
線特徴集合)の各要素に、 IHL=(ihl1 ,ihl2 ,ihl3 ,ihl4
ihl5 ,ihl6 ,ihl7 ), IVL=(ivl1 ,ivl2 ,ivl3 ,ivl4
ivl5 ,ivl6 ,ivl7 ,ivl8 ,ivl9 ) となるように識別番号を付与する。
FIG. 9 shows an example of ruled line feature extraction results for the input image. Here, IHL = (ihl 1 , ihl 2 , ihl 3 , ihl 4 , ihl 4 , ihl 4 , ihl 4 , ihl 4 , ihl 4 , ihl 4 , ihl 4 , ihl 4 , ihl 4 , ihl 4 , ihl 4 , ihl 4 , ihl 4 , ihl 4 , ihl 4 ,
ihl 5 , ihl 6 , ihl 7 ), IVL = (ivl 1 , ivl 2 , ivl 3 , ivl 4 ,
(ivl 5 , ivl 6 , ivl 7 , ivl 8 , ivl 9 ) are assigned identification numbers.

【0064】また、水平罫線特徴集合の要素数をih-n
um、垂直罫線特徴集合の要素数をiv-numとし、水平罫
線特徴集合と垂直罫線特徴集合をまとめて入力罫線特徴
集合と呼ぶことにする。入力罫線特徴集合は、後段の特
徴構造化部29に送られる。以後の説明において上記記
号を用いることにする。
The number of elements of the horizontal ruled line feature set is ih-n.
um and the number of elements of the vertical ruled line feature set are iv-num, and the horizontal ruled line feature set and the vertical ruled line feature set are collectively referred to as an input ruled line feature set. The input ruled line feature set is sent to the subsequent feature structuring unit 29. In the following description, the above symbols will be used.

【0065】特徴構造化部29は、特徴抽出部27から
得られた入力罫線特徴集合から以下に述べる手順で罫線
に関する構造化特徴を抽出するもので、図10に示すよ
うに、罫線グループ化処理部29a、表特徴抽出部29
b、罫線接合部検出部29c、及び特徴間関係記述部2
9dによって構成されている。
The feature structuring unit 29 extracts structured features relating to ruled lines from the input ruled line feature set obtained from the feature extracting unit 27 by the procedure described below. As shown in FIG. 10, ruled line grouping processing is performed. Unit 29a, table feature extraction unit 29
b, the ruled line joint detection unit 29c, and the inter-feature relationship description unit 2
It is composed of 9d.

【0066】まず、罫線グループ化処理部29aは、交
差・接続する罫線特徴を一まとめにグループ化する。罫
線グループ化処理アルゴリズムは例えば以下のようにな
る。このアルゴリズムは、交差・接続する罫線には同じ
ラベルを与えることにより罫線をグループ化するもので
ある。
First, the ruled line grouping processing unit 29a groups the ruled line features intersecting / connecting into one group. The ruled line grouping processing algorithm is as follows, for example. This algorithm groups ruled lines by giving the same label to the ruled lines that intersect and connect.

【0067】Step1:ラベル番号を初期化する。Step 1: Initialize the label number.

【0068】Step2:1本の垂直罫線を選択する。Step 2: Select one vertical ruled line.

【0069】Step3:ステップ2で選択された当該
垂直罫線に直交する全ての水平罫線を抽出する。
Step 3: All horizontal ruled lines orthogonal to the vertical ruled line selected in step 2 are extracted.

【0070】Step4:当該垂直罫線か当該水平罫線
のいずれかに既にラベルが付与されている場合には、そ
の中で最小値のラベルを当該罫線の全てに付与する。
Step 4: If a label is already attached to either the vertical ruled line or the horizontal ruled line, the minimum value label is given to all of the ruled lines.

【0071】Step5:当該垂直罫線と当該水平罫線
のいずれにもラベルが付与されていない場合には、それ
ら全てに新しいラベル番号を付与し、ラベル番号を更新
する。
Step 5: If no label is given to either the vertical ruled line or the horizontal ruled line, new label numbers are given to all of them and the label numbers are updated.

【0072】Step6:Step2からStep5を
全ての垂直罫線に適用する。(Step2からStep
6までを手続きAとする) Step7:1本の水平罫線を選択する。
Step 6: Steps 2 to 5 are applied to all vertical ruled lines. (Step 2 to Step
6 is the procedure A) Step 7: Select one horizontal ruled line.

【0073】Step8:当該水平罫線に直交する全て
の垂直罫線を抽出する。
Step 8: Extract all vertical ruled lines orthogonal to the horizontal ruled line.

【0074】Step9:当該水平罫線か当該垂直罫線
のいずれかに既にラベルが付与されている場合にはその
中で最小値のラベルを当該罫線の全てに付与する。
Step 9: When a label is already attached to either the horizontal ruled line or the vertical ruled line, the minimum value label is given to all the ruled lines.

【0075】Step10:当該垂直罫線と当該水平罫線
のいずれにもラベルが付与されていない場合には、それ
ら全てに新しいラベル番号を付与し、ラベル番号を更新
する。
Step 10: If no label is given to either the vertical ruled line or the horizontal ruled line, new label numbers are given to all of them and the label numbers are updated.

【0076】Step11:Step7 からStep10を
全ての垂直罫線に対して適用する(Step7 からSt
ep11までを手続きBとする)。
Step11: Apply Step7 to Step10 to all vertical ruled lines (Step7 to St)
(Procedure B is up to ep11).

【0077】Step12:手続きAと手続きBをラベル
番号の更新がなくなるまで繰り返す。
Step 12: Procedures A and B are repeated until the label number is no longer updated.

【0078】Step13:同じラベルが付与されている
罫線特徴をグループ化する。
Step 13: The ruled line features having the same label are grouped.

【0079】例えば、図9に示す入力罫線特徴集合に対
して、前述のようなグループ化処理を適用すると以下に
示す2つのグループが得られる。
For example, when the above-described grouping process is applied to the input ruled line feature set shown in FIG. 9, the following two groups are obtained.

【0080】Group1:(ihl1 ,ihl2 ,ihl
3 ,ihl4 ,ihl5 ,ivl1,ivl2 ,ivl
3 ,ivl4 ,ivl5 ,ivl6 ), Group2:(ihl6 ,ihl7 ,ivl7 ,ivl8
,ivl9 ) 表特徴抽出部29bは、罫線グループ化処理部29aに
よって得られたグループごとに、グループに含まれる罫
線を内接する矩形(以後、表枠と呼ぶ)を抽出する。さ
らに、表特徴抽出部29bは、表特徴として、例えば左
上端の位置座標、右下端の位置座標、表の縦幅、表の横
幅、重心の位置座標、水平罫線数、当該表に含まれる水
平罫線の集合、垂直罫線数、当該表に含まれる垂直罫線
の集合、当該表に含まれる接合部数、他の表に内接され
ているか否かの情報などを抽出する。この時、水平(垂
直)罫線特徴は、その左上端のy(x)座標値の昇順に
ソートされていてもよい。
Group1: (ihl 1 , ihl 2 , ihl
3 , ihl 4 , ihl 5 , ivl 1 , ivl 2 , ivl
3 , ivl 4 , ivl 5 , ivl 6 ), Group2: (ihl6, ihl7, ivl7, ivl8)
, Ivl9) The table feature extraction unit 29b extracts, for each group obtained by the ruled line grouping processing unit 29a, a rectangle (hereinafter referred to as a table frame) inscribed with the ruled lines included in the group. Further, the table feature extraction unit 29b, as the table feature, for example, the position coordinates of the upper left corner, the position coordinates of the lower right corner, the vertical width of the table, the horizontal width of the table, the positional coordinates of the center of gravity, the number of horizontal ruled lines, the horizontal included in the table. A set of ruled lines, the number of vertical ruled lines, a set of vertical ruled lines included in the table, the number of joints included in the table, and information about whether or not the table is inscribed in another table are extracted. At this time, the horizontal (vertical) ruled line features may be sorted in ascending order of the y (x) coordinate values at the upper left end thereof.

【0081】ここで接合部数については、後段の罫線接
合部検出部29cで抽出され、表特徴として格納され
る。例えば、Group1からは、図11に示すように以下
の表特徴it1 が得られる。また、Group2から得られ
る表特徴をit2 とする。
Here, the number of joints is extracted by the ruled line joint detector 29c in the subsequent stage and stored as a table feature. For example, the following table feature it 1 is obtained from Group1 as shown in FIG. Also, the table feature obtained from Group2 is set to it2.

【0082】 表特徴:it1 左上端の位置座標 (it1 x1 ,it1 y1 ) 右下端の位置座標 (it1 x2 ,it1 y2 ) 表の縦幅 it1 height 表の横幅 it1 width 重心の位置座標 (it1 cx,it1 cy) 水平罫線数 ihl1 num 当該表に含まれる水平罫線の集合 IHL1 垂直罫線数 ivl1 num 当該表に含まれる垂直罫線の集合 IVL1 当該表に含まれる接合部数 i1 junc-num 他の表に内接されているか否かの情報 nest flag it1 height=it1 y2 −it1 y1 +1, it1 width =it1 x2 −it1 x1 +1, it1 cx=(it1 x1 +it1 x2 )/2, it1 cy=(it1 y1 +it1 y2 )/2, ihl1 num =5, IHL1 =(ihl1 ,ihl2 ,ihl3 ,ih
4 ,ihl5 ), ivl1 num =6, IVL1 =(ivl1 ,ivl2 ,ivl3 ,iv
4 ,ivl5 ,ivl6), nest flag =0(すなわち他の表に含まれていない) 1枚の入力帳票に複数の表が含まれていることを考慮し
て、さらにページ特徴を抽出、管理する。ページ特徴
は、例えば、表数、表特徴の集合、水平罫線数、垂直罫
線数、及び接合部数によって定義される。
Table features: it 1 top left position coordinates (it 1 x1, it 1 y1) bottom right position coordinates (it 1 x2, it 1 y2) table vertical width it 1 height table width it 1 width centroid Position coordinates (it 1 cx, it 1 cy) Number of horizontal ruled lines ihl 1 num Set of horizontal ruled lines included in the table IHL 1 Number of vertical ruled lines ivl 1 num Set of vertical ruled lines included in the table IVL 1 Included in the table Number of joints i 1 junc-num Information on whether or not it is inscribed in another table nest flag it 1 height = it 1 y2 −it 1 y1 +1, it 1 width = it 1 x2 −it 1 x1 +1, it 1 cx = (it 1 x1 + it 1 x2) / 2, it 1 cy = (it 1 y1 + it 1 y2) / 2, ihl 1 num = 5, IHL 1 = (ihl 1 , ihl 2 , ihl 3 , ih
l 4 , ihl 5 ), ivl 1 num = 6, IVL 1 = (ivl 1 , ivl 2 , ivl 3 , iv
l 4 , ivl 5 , ivl 6 ), nest flag = 0 (that is, not included in other tables) Considering that one input form contains multiple tables, page features are further extracted. ,to manage. The page feature is defined by, for example, the number of tables, the set of table features, the number of horizontal ruled lines, the number of vertical ruled lines, and the number of joints.

【0083】例えば、図9の入力罫線集合からは、ペー
ジ特徴:IPとして、 表数=2、 表特徴の集合IT=(it1 ,it2 )、 水平罫線数ihl-num=7、垂直罫線数ivl-num=
9、接合部数ijunc-num=28、が得られる。
For example, from the set of input ruled lines in FIG. 9, as the page feature: IP, the number of tables = 2, the set of table features IT = (it 1 , it 2 ), the number of horizontal ruled lines ihl-num = 7, the vertical ruled lines Number ivl-num =
9, the number of junctions ijunc-num = 28 is obtained.

【0084】次に、罫線接合部検出部29cは、各表に
おいて、そこに含まれる水平罫線と垂直罫線の交差部分
・接続部分(以後、接合部と呼ぶ)を求め、さらに各表
特徴で接合部の個数を管理する。罫線接合部検出部29
cの動作手順は例えば次のようになる。
Next, the ruled line joining portion detecting unit 29c finds the intersections / connections (hereinafter referred to as joining portions) of the horizontal ruled lines and vertical ruled lines contained therein in each table, and joins them according to the characteristics of each table. Manage the number of copies. Ruled line joint detection unit 29
The operation procedure of c is as follows, for example.

【0085】Step1:一本の水平罫線を選択する。Step 1: Select one horizontal ruled line.

【0086】Step2:着目した水平罫線に交差・接
続する全ての垂直罫線を抽出する。
Step 2: Extract all vertical ruled lines that intersect / connect to the focused horizontal ruled line.

【0087】Step3:当該水平罫線と当該垂直罫線
の交点を求め、水平罫線ごとにその座標値を管理する。
各水平罫線では接合部特徴はx座標値の昇順にソートし
ておく。
Step 3: The intersection between the horizontal ruled line and the vertical ruled line is obtained, and the coordinate value is managed for each horizontal ruled line.
In each horizontal ruled line, the joint features are sorted in ascending order of the x coordinate value.

【0088】Step4:Step1 からStep3 ま
でを全ての水平罫線に対して実施する。
Step 4: Steps 1 to 3 are executed for all horizontal ruled lines.

【0089】Step5:一本の垂直罫線を選択する。Step 5: Select one vertical ruled line.

【0090】Step6:着目した垂直罫線に交差・接
続する全ての水平罫線を抽出する。
Step 6: Extract all horizontal ruled lines that intersect and connect with the vertical ruled line of interest.

【0091】Step7:当該垂直罫線と当該水平罫線
の交点を求め、垂直罫線ごとにその座標値を管理する。
各垂直罫線では接合部特徴はy座標値の昇順にソートし
ておく。
Step 7: The intersection of the vertical ruled line and the horizontal ruled line is obtained, and the coordinate value is managed for each vertical ruled line.
In each vertical ruled line, the joint features are sorted in ascending order of the y coordinate value.

【0092】Step8:Step5からStep7ま
でを全ての垂直罫線に対して実施する。
Step 8: Steps 5 to 7 are executed for all vertical ruled lines.

【0093】例えば、表特徴it1 では、水平罫線集合
IHL1 と、垂直罫線集合IVL2から、図12に示す
接合部が得られ、その接合部数「22」を表特徴に加え
る(i1 junc-num=22とする)。
For example, in the table feature it 1 , the joint shown in FIG. 12 is obtained from the horizontal ruled line set IHL 1 and the vertical ruled line set IVL 2 , and the number of joints “22” is added to the table feature (i 1 junc -num = 22).

【0094】特徴間関係記述部29dは、以上の処理結
果より得られた情報を、例えば図13のように関係づけ
て管理する。この結果、ページ特徴から表特徴、罫線特
徴、接合特徴と階層的に関連づけられて管理され、特徴
に関する情報を効率的に検索できるようになる。
The inter-feature relation description part 29d manages the information obtained from the above processing results in relation to each other as shown in FIG. As a result, the page features are managed by being hierarchically associated with the table features, the ruled line features, and the joining features, and the information about the features can be efficiently searched.

【0095】以後、これらの特徴を総称して構造化特徴
と呼ぶ。また、入力文書から抽出された構造化特徴を入
力構造化特徴、モデル文書から抽出された構造化特徴を
モデル構造化特徴と呼ぶ。
Hereinafter, these features will be collectively referred to as structured features. In addition, the structured features extracted from the input document are called input structured features, and the structured features extracted from the model document are called model structured features.

【0096】一方、処理対象文書に対する処理とは別
に、モデル登録部31は、オペレータによって提示され
た処理対象文書の種類ごとの一例であるサンプル文書を
もとに、オペレータとの間の対話的入力作業によりモデ
ルの登録を行なう。ここでは、モデル登録作業時のモデ
ル登録部31の動作の一例について説明する。
On the other hand, in addition to the processing on the processing target document, the model registration unit 31 interactively inputs the operator based on the sample document presented by the operator, which is an example for each type of the processing target document. The model is registered by work. Here, an example of the operation of the model registration unit 31 during the model registration work will be described.

【0097】まず、画像入力部21を介して登録対象の
サンプル文書を入力し、2値化処理部23、前処理部2
5を経て文書画像(以後、モデル画像と呼ぶ)を取得す
る。次いで、特徴抽出部27においてモデル画像から罫
線特徴を抽出する。
First, the sample document to be registered is input via the image input unit 21, and the binarization processing unit 23 and the preprocessing unit 2 are input.
A document image (hereinafter referred to as a model image) is acquired via step 5. Next, the feature extraction unit 27 extracts ruled line features from the model image.

【0098】モデル登録部31は、特徴抽出部27にお
ける抽出結果に対して特徴抽出処理の誤りを推定し、そ
れを修正する旨のメッセージを、表示部31aのディス
プレイの画面上に表示して、修正作業をオペレータに指
示する。
The model registration unit 31 estimates the error of the feature extraction processing with respect to the extraction result of the feature extraction unit 27 and displays a message to the effect that the error is corrected on the screen of the display of the display unit 31a. Instruct the operator to make corrections.

【0099】特徴抽出処理の誤りの推定方式は、例え
ば、端点が接合部となっていない罫線を見つけて、その
罫線が正しく抽出されていないとみなすことにより実現
できる。モデル登録部31は、表示部31aに表示され
た指示に従いオペレータによって画面上で修正された罫
線特徴を入力部31bを介して入力する。
The error estimation method of the feature extraction processing can be realized by, for example, finding a ruled line whose end point is not a joint portion and assuming that the ruled line is not correctly extracted. The model registration unit 31 inputs, through the input unit 31b, the ruled line feature corrected on the screen by the operator according to the instruction displayed on the display unit 31a.

【0100】修正作業が完了すると、修正された罫線特
徴は特徴構造化部29に送られ、構造化特徴が抽出され
る。この構造化特徴は、未知入力文書を処理する際に、
フォーマット種別同定部33、モデル照合部35、未対
応・矛盾対応発見修正部39、照合結果判定部37など
で用いられる。
When the modification work is completed, the modified ruled line feature is sent to the feature structuring unit 29, and the structured feature is extracted. This structured feature is useful when processing unknown input documents.
It is used by the format type identifying unit 33, the model matching unit 35, the unsupported / contradiction correspondence finding / correction unit 39, the matching result determination unit 37, and the like.

【0101】抽出・修正された罫線特徴は、画面上にモ
デル画像と重ねて表示される。オペレータは、書式構造
情報登録部31が画面上に出力するメッセージに従いな
がら、モデル文書に対応付くべき入力文書画像を処理す
るために必要な知識を構築していく。
The extracted / corrected ruled line features are displayed on the screen so as to be superimposed on the model image. The operator builds the knowledge necessary for processing the input document image to be associated with the model document while following the message output by the format structure information registration unit 31 on the screen.

【0102】この結果、モデルとして構造化特徴の情
報、文字認識対象領域の指定に関する情報、文字認識対
象領域の文字列方向の情報、文字読み取り処理時に拘束
条件として働く文字種情報、筆記形態情報、文字認識後
処理のための項目属性情報、文字認識結果の対応関係な
どの情報が知識ベース31cに格納される。
As a result, the structured feature information as the model, the information regarding the designation of the character recognition target area, the information about the character string direction of the character recognition target area, the character type information serving as a constraint condition during the character reading process, the writing form information, and the character Information such as item attribute information for post-recognition processing and correspondence between character recognition results is stored in the knowledge base 31c.

【0103】このうち構造化特徴は、正立した画像に対
して作られている。そこで、モデル登録部31は、知識
ベース31cへの登録時に、左に90度回転したものと
右に90度回転したものと180度回転したものをそれ
ぞれ発生させ、さらに何度回転されているかを示す情報
を付加するようにしてもよい。
Of these, structured features are created for upright images. Therefore, the model registration unit 31 generates one rotated 90 degrees to the left, one rotated 90 degrees to the right, and one rotated 180 degrees at the time of registration in the knowledge base 31c. You may make it add the information shown.

【0104】これら4方向の構造化特徴と入力構造化特
徴は、後段のモデル照合部35において、それぞれの方
向の特徴と入力画像とを照合させることにより、入力文
書の文書方向が未知であっても、モデルマッチングで最
良マッチングした構造化特徴に付与されている回転角度
を知ることができる。従って、その角度を0度にする方
向に入力画像を回転させれば、必ず正立した入力画像を
得ることができる。
In the model collating unit 35 in the subsequent stage, the structured feature in the four directions and the input structured feature are collated with the feature in each direction and the input image, and the document direction of the input document is unknown. Also, it is possible to know the rotation angle given to the structured feature best matched by the model matching. Therefore, if the input image is rotated in the direction in which the angle is set to 0 degree, an upright input image can be obtained without fail.

【0105】モデル登録部31は、以上の処理を全ての
モデル文書に対して行なう。ここでは、一例として図1
4と図15に示す2種類の構造化特徴がモデルとして登
録されたものとする(以後、図14をモデル1、図15
をモデル2と呼ぶ)。
The model registration unit 31 performs the above processing on all model documents. Here, as an example, FIG.
It is assumed that two types of structured features shown in FIG. 4 and FIG. 15 are registered as models (hereinafter, FIG. 14 is model 1, FIG.
Is called model 2).

【0106】フォーマット種別同定部33は、モデル登
録部31によって予め登録されているモデルから、入力
文書に対応するもの(あるいは対応する可能性のあるも
の)を選出する。
The format type identifying unit 33 selects a model corresponding to (or possibly corresponding to) the input document from the models registered in advance by the model registering unit 31.

【0107】ここでは、入力文書の構造化特徴と登録さ
れている全てのモデルの構造化特徴との間で類似度計算
を行ない、最も類似度の高いモデルあるいは、ある一定
の値以上の類似度を有するモデルの構造化特徴を後段の
モデル照合部35に送り込む。
Here, the similarity is calculated between the structured features of the input document and the structured features of all the registered models, and the model with the highest similarity or the similarity of a certain value or more is calculated. The structured features of the model having the above are sent to the model matching unit 35 in the subsequent stage.

【0108】類似度計算に用いる特徴としては、例えば
文書中に含まれる、特徴構造化29によって抽出された
接合部数を用いる。接合部数という特徴は、未知入力文
書が寸法の拡大・縮小、さらには各表が独立してスケー
ル変換されている場合にも、影響を受けない特徴である
ので書式構造種別同定のための類似度計算に適してい
る。
As the feature used for the similarity calculation, for example, the number of joints extracted by the feature structuring 29 included in the document is used. The number of joints is a feature that is not affected even when the unknown input document is scaled up or down, and when each table is scale-converted independently. Suitable for calculation.

【0109】この他に、文書中に含まれる水平罫線特徴
数や垂直罫線特徴数、表特徴数なども類似度計算のため
の特徴として有効である。ここでモデル文書は適宜に順
序づけがなされているとする。
Besides this, the number of horizontal ruled line features, the number of vertical ruled line features, the number of table features, etc. included in the document are also effective as features for similarity calculation. Here, it is assumed that the model documents are appropriately ordered.

【0110】また、類似度は以下のようにして求まる。
ここで、モデルの総数:model-num、入力文書中の接合
部数:ijn、k番目のモデル文書中の接合部数:mj
k(ただし1≦k≦model-num )、入力文書とk番目
のモデル文書との類似度:simk (ただし− 100≦s
imk ≦ 100)とすると、類似度は例えば、 ijn>0またはmjnk >0のとき simk = 100− 200×|ijn−mjnk |/(ij
n+mjnk ) ijn=0かつmjnk =0のとき simk =−100 により求まる。
The degree of similarity can be obtained as follows.
Here, the total number of models: model-num, the number of joints in the input document: ijn, the number of joints in the kth model document: mj
n k (where 1 ≦ k ≦ model-num), the similarity between the input document and the kth model document: sim k (where −100 ≦ s
Im k ≦ 100), the similarity is, for example, when ijn> 0 or mjn k > 0 sim k = 100−200 × | ijn−mjn k | / (ij
n + mjn k ) ijn = 0 and mjn k = 0, it is obtained by sim k = −100.

【0111】得られた類似度のうち類似度が最大である
もの、あるいは予め設定されたしきい値th5 以上のもの
を候補のモデルとして入力文書の構造化特徴とともにモ
デル照合部35に送る。このとき、全てのモデルにおい
て類似度がしきい値th5 未満である場合、以後の処理を
中断して、入力文書を棄却してもよいし、また、全ての
モデルの構造化特徴をモデル照合部に送り込むようにし
てもよい。
Among the obtained similarities, the one having the maximum similarity or one having a preset threshold value th5 or more is sent to the model matching unit 35 as a candidate model together with the structured feature of the input document. At this time, if the similarity is less than the threshold value th5 in all models, the subsequent processing may be interrupted and the input document may be rejected. You may send it to.

【0112】例えば、登録されているモデル文書が図1
4と図15の2種類である場合、入力文書とそれら2つ
のモデル文書との類似度計算は以下のようになる。ここ
で入力文書の接合部数:ijn=28、モデル1の接合部
数:mjn1 =31、モデル2の接合部数:mjn2 =26
とし、入力文書とモデル1との類似度をsim1 、入力
文書とモデル2との類似度をsim2 、しきい値:th5
=80とする。
For example, the registered model document is shown in FIG.
4 and FIG. 15, the similarity calculation between the input document and these two model documents is as follows. Here, the number of joints in the input document: ijn = 28, the number of joints in the model 1: mjn 1 = 31, the number of joints in the model 2: mjn 2 = 26
, The similarity between the input document and the model 1 is sim 1 , the similarity between the input document and the model 2 is sim 2 , and the threshold value is th5.
= 80.

【0113】 sim1 = 100− 200×|28−31|/(28+31) =89.83 sim2 = 100− 200×|28−26|/(28+26) =92.59 以上の計算結果からsim1 とsim2 が共にしきい値
th5 を越えているので、双方とも入力文書に対応付く可
能性のあるモデルとしてそれらの構造化特徴を後段のモ
デル照合部35に送る。
Sim 1 = 100−200 × | 28−31 | / (28 + 31) = 89.83 sim 2 = 100−200 × | 28−26 | / (28 + 26) = 92.59 From the above calculation results, sim1 and sim2 are combined. Threshold
Since th5 is exceeded, both of them send their structured features to the model matching unit 35 in the subsequent stage as models that may correspond to the input document.

【0114】モデル照合部35は、入力文書から抽出さ
れた構造化特徴(以後、入力構造化特徴と呼ぶ)と、書
式構造種別同定部で選出された一つあるいは複数個のモ
デル文書の構造化特徴(以後、モデル構造化特徴と呼
ぶ)を受け取り、それらの間で以下に述べる照合処理を
行ない、照合度を計算する。
The model matching unit 35 structures the structured features extracted from the input document (hereinafter referred to as input structured features) and one or more model documents selected by the format structure type identifying unit. The features (hereinafter referred to as model structured features) are received, and the matching process described below is performed between them to calculate the matching degree.

【0115】照合処理は、当該入力構造化特徴と当該モ
デル構造化特徴との間の対応付け処理のことであり、照
合度はその対応付きの程度を表す尺度である。ここで
は、最も高い照合度を示すモデル文書が入力文書に対応
するものであるとし、入力構造化特徴とそのモデル構造
化特徴との間の対応関係に関する情報を、後段の照合結
果判定部に送り込む。最大照合度を示すモデル文書と入
力文書との間の対応関係が獲得されているか否かの最終
的な判断は照合結果判定部で行なわれる。
The matching process is a matching process between the input structured feature and the model structured feature, and the matching degree is a scale indicating the degree of correspondence. Here, it is assumed that the model document having the highest matching degree corresponds to the input document, and information regarding the correspondence between the input structured feature and the model structured feature is sent to the matching result determination unit in the subsequent stage. . The collation result judging unit makes a final judgment as to whether or not the correspondence between the model document showing the maximum matching degree and the input document is acquired.

【0116】特徴構造化部29で得られた構造化特徴
は、図13に示すように、ページ特徴から表特徴へ、さ
らに表特徴から罫線特徴へと全体−部分という階層的な
関係が抽出されて構造化されている。この特質を用いる
場合、照合処理は階層的に実施される。これに対応し
て、モデル照合部35は、さらに図16に示すように、
選択部35a、表照合部35b、罫線照合部35c、照
合度計算部35d、及び照合結果出力部35eによって
構成される。
As shown in FIG. 13, the structured features obtained by the feature structuring unit 29 have a hierarchical relationship of whole-part extracted from page features to table features, and from table features to ruled line features. Is structured. When using this feature, the matching process is performed hierarchically. In response to this, the model matching unit 35 further, as shown in FIG.
The selection unit 35a, the table matching unit 35b, the ruled line matching unit 35c, the matching degree calculation unit 35d, and the matching result output unit 35e.

【0117】まず、選択部35aは、複数個のモデルの
構造化特徴から一つのモデルの構造化特徴を選択し、入
力文書の構造化特徴とともに表照合部35bに送る。
First, the selecting unit 35a selects the structured feature of one model from the structured features of a plurality of models and sends it to the table collating unit 35b together with the structured feature of the input document.

【0118】次いで、表照合部35bは、入力文書の表
特徴の集合(以後、入力表特徴集合と呼ぶ)とモデル文
書の表特徴の集合(以後、モデル表特徴集合と呼ぶ)と
の間で対応付けを行なう。
Next, the table collating unit 35b performs processing between the set of table features of the input document (hereinafter referred to as the input table feature set) and the set of table features of the model document (hereinafter referred to as the model table feature set). Correspond.

【0119】表間対応がとれた場合には、さらに罫線照
合部35cは、入力文書の当該表の内部に含まれる罫線
特徴(以後、入力罫線特徴と呼ぶ)とモデル文書の当該
表の内部に含まれる罫線特徴(以後、モデル罫線特徴と
呼ぶ)との間で対応付けを行なう。
When the correspondence between the tables is established, the ruled line collating unit 35c further determines whether the ruled line features included in the table of the input document (hereinafter referred to as the input ruled line feature) and the table of the model document are included. Correspondence is performed between the included ruled line features (hereinafter referred to as model ruled line features).

【0120】罫線間の対応がとれた場合には、照合度計
算部35dは、(入力文書と当該モデル文書との間の)
照合度を計算する。ここで、表間対応と罫線間対応のど
ちらも得られなかった場合には、照合度に最低値(−10
0 )を代入する。
When the ruled lines are matched with each other, the matching degree calculation unit 35d determines (between the input document and the model document).
Calculate the degree of matching. If neither table correspondence nor ruled line correspondence is obtained, the minimum matching degree (-10
0) is substituted.

【0121】照合結果出力部35eは、それまでに計算
されている最も高い照合度を示すモデル文書と入力文書
の組を選び、その構造化特徴間の対応関係に関する情報
を後段の照合結果判定部37に出力する。
The collation result output unit 35e selects a set of the model document and the input document showing the highest collation degree calculated up to that time, and provides information on the correspondence between the structured features in the collation result determination unit in the subsequent stage. Output to 37.

【0122】以下では、フォーマット種別同定部33か
ら図14と図15の2種類のモデルと入力文書の構造化
特徴がそれぞれ送られてきた場合のモデル照合部35の
処理動作例について説明する。
In the following, an example of the processing operation of the model collating unit 35 when the two types of models of FIGS. 14 and 15 and the structured feature of the input document are respectively sent from the format type identifying unit 33 will be described.

【0123】2種類のモデルのうち、選択部35aによ
ってモデル1が選ばれ、入力文書とともにそれぞれの構
造化特徴が表照合部35bに送り込まれたとする。ここ
で、入力文書の表特徴数をit-num=2とし、表特徴集
合をITとすると、IT=(it1 ,it2 )(図9参
照)モデル1の表特徴数をmt1-num =2とし、表特徴
集合をMT1とすると、MT1=(mt11 ,mt
2 )(図14参照)とする。
It is assumed that, out of the two types of models, Model 1 is selected by the selection unit 35a and the structured features thereof are sent to the table matching unit 35b together with the input document. Here, if the number of table features of the input document is it-num = 2 and the table feature set is IT, IT = (it 1 , it 2 ) (see FIG. 9) mt 1-num = 2 and the table feature set is MT1, MT1 = (mt1 1 , mt
1 2 ) (see FIG. 14).

【0124】表照合部35bは、さらに図17に示すよ
うに、対応可能ペア検出部35b−1、異種対応可能ペ
ア間両立関係判定部35b−2、及び最良マッチング抽
出部35b−3によって構成されており、次のように動
作する。
As shown in FIG. 17, the table collating unit 35b further includes a compatible pair detecting unit 35b-1, a heterogeneous compatible inter-pair compatibility determining unit 35b-2, and a best matching extracting unit 35b-3. And operates as follows.

【0125】まず、対応可能ペア検出部35b−1は、
選択部35aで選択されたモデルの表特徴集合の各要素
に対して、それと対応付く可能性のある入力の表特徴を
すべて検出し、対応可能ペアとして管理する。すなわ
ち、 Step1:任意のMTから任意の一つの表特徴mtk
(着目モデルの表特徴集合のうちk番目の表特徴)を選
ぶ。
First, the available pair detection unit 35b-1
For each element of the table feature set of the model selected by the selection unit 35a, all the input table features that may be associated with it are detected and managed as a pair that can be associated. That is, Step 1: any MT to any one table feature mt k
(Kth table feature of the table feature set of the model of interest) is selected.

【0126】Step2:表特徴mtk の接合部数とI
Tの各表特徴の接合部数との間で類似度を計算をする。
Step 2: The number of joints of the table feature mt k and I
Similarity is calculated between the number of joints of each table feature of T.

【0127】Step3:例えばmtk とitj (入力
表特徴集合のj番目の表特徴)の類似度simkjが、あ
らかじめ設定したしきい値th6 以上である場合には、対
応可能であるとして、その組(mtk ,itj )を対応
可能ペアとして保持する。
Step 3: For example, if the similarity sim kj between mt k and it j (the j-th table feature of the input table feature set) is equal to or greater than a preset threshold th6, it is possible to handle it. The set (mt k , it j ) is held as a compatible pair.

【0128】Step4:Step3を表特徴集合IT
のすべての要素に対して適用する。
Step4: Step3 is a table feature set IT
Applies to all elements of.

【0129】Step5:Step1〜Step4まで
を着目MTのすべての要素に対して適用する。
Step 5: Steps 1 to 4 are applied to all the elements of the MT of interest.

【0130】ここで、itj の接合部数をijnj 、m
k の接合部数をmjnk とすると、類似度は、例えば
次の式で求まるとする。
Here, the number of junctions of itj is ijn j , m
Assuming that the number of joints of t k is mjn k , it is assumed that the degree of similarity is obtained by the following equation, for example.

【0131】ijnj >0またはmjnj >0のとき、 simkj= 100− 200×|ijnj −mjnk |/(i
jnj +mjnk ) ijnj =0かつmjnk =0のとき、 simkj=−100 上記動作をITとMT1を例として具体的に説明すると
以下のようになる。th6 =75、it1 の接合部数=22、
it2 の接合部数=6、mt11 の接合部数=25、mt
2 の接合部数=6とすると式から、 mt11 とit1 の間の類似度:sim111=86.67 と
なり、sim111>th6 であるから、対応可能であると
して、その組(mt11 ,it1 )を対応可能ペアとし
て保持する。
When ijn j > 0 or mjn j > 0, sim kj = 100-200 × | ijn j −mjn k | / (i
jn j + mjn k ) ijn j = 0 and mjn k = 0, sim kj = −100 The above operation will be described in detail using IT and MT1 as examples. th6 = 75, number of junctions of it 1 = 22,
Number of joints of it 2 = 6, number of joints of mt1 1 = 25, mt
If the number of joints of 1 2 = 6, from the formula, the similarity between mt1 1 and it 1 is sim1 11 = 86.67, and sim1 11 > th6. Therefore, it is considered that the pair (mt1 1 , it) 1 ) is held as a compatible pair.

【0132】mt11 とit2 の間の類似度:sim1
12=−22.58 となり、sim112<th6 であるから、対
応不可能であるとする。
Similarity between mt1 1 and it 2 : sim1
Since 12 = −22.58, and sim1 12 <th6, it cannot be handled.

【0133】mt12 とit1 の間の類似度:sim1
21=−14.28 となり、sim121<th6 であるから、対
応可能であるとする。
Similarity between mt1 2 and it 1 : sim1
Since 21 = -14.28, and sim1 21 <th6, it is possible to deal with it.

【0134】mt12 とit2 の間の類似度:sim1
22= 100となり、sim122>th6であるから、その組
(mt12 ,it2 )を対応可能ペアとして保持する。
Similarity between mt1 2 and it 2 : sim1
Since 22 = 100 and sim1 22 > th6, the set (mt1 2 , it 2 ) is held as a compatible pair.

【0135】以上の結果、対応可能ペアとして、ITと
MT1との間では、p1=(mt11,it1 )とp2=
(mt12 ,it2 )が検出された。
As a result, as a compatible pair, p1 = (mt1 1 , it 1 ) and p2 = between IT and MT1.
(Mt1 2 , it 2 ) was detected.

【0136】次に、異種対応可能ペア間両立関係判定部
35b−2は、当該モデル文書と入力文書の間で、対応
可能ペア検出部35b−1で検出された2つの異なる対
応可能ペアが両立するものであるか否かを判定する。
Next, the heterogeneous compatible pair compatibility relationship determining unit 35b-2 is compatible with the two different compatible pairs detected by the compatible pair detecting unit 35b-1 between the model document and the input document. It is determined whether or not to do.

【0137】ここでいう「両立する」ということは、2
つの対応可能ペアが同時に存在することに矛盾が無いこ
とを意味する。ここでの判定条件としては以下のものが
上げられる。判定対象となる対応可能ペアをそれぞれ
(mtk ,itj )、(mt′k ,it′j )とする。
ここで、mtk の左上端の位置座標を(mtk x1 ,m
k y1 )、右下端の位置座標を(mtk x2 ,mtk
y2 )、mt′k の左上端の位置座標を(mt′k x1
,mt′k y1 )、右下端の位置座標を(mt′k x2
,mt′k y2 )、itj の左上端の位置座標を(i
j x1 ,itj y1 )、右下端の位置座標を(itj
x2 ,itj y2 )、it′j の左上端の位置座標を
(it′j x1 ,it′j y1 )、右下端の位置座標を
(it′j x2 ,it′j y2 )とする。
"Compatible" here means 2
It means that there is no contradiction that two corresponding pairs exist at the same time. The determination conditions here include the following. Corresponding pairs to be judged are (mt k , it j ) and (mt ′ k , it ′ j ), respectively.
Here, the position coordinates of the upper left point of the mt k (mt k x1, m
t k y1), and the position coordinates of the lower right corner are (mt k x2, mt k
y2), 'the position coordinates of the upper left point of the k (mt' mt k x1
, Mt ′ k y1) and the position coordinates of the lower right corner are (mt ′ k x2
, Mt ′ k y2), and the position coordinate of the upper left end of it j is (i
t j x1, it j y1), and the position coordinates of the lower right corner are (it j
x2, it j y2), it 'j of the coordinates of the upper left end (it' j x1, it is' j y1), the position coordinates of the lower right (it 'and j x2, it' j y2) .

【0138】また、文書画像の座標系(x,y):0<
x≦WIDTH,0<y≦HEIGHTにおいて、図1
8に示すような座標系を定義する。すなわち、図18
(a)中に示す矩形領域T:(左上端の位置座標を(t
x1 ,ty1 )、右下端の位置座標を(tx2 ,ty2
)とする)に対して、図18(b)に示す0<x<t
x1 かつ0<y≦HEIGHTを満たす領域を領域1、
図18(c)に示すtx2<x≦WIDTHかつ0<y
≦HEIGHTを満たす領域を領域2、図18(d)に
示す0<x≦WIDTHかつ0<y<ty1 を満たす領
域を領域3、図18(e)に示す0<x≦WIDTHか
つty2 <y≦HEIGHTを満たす領域を領域4と定
義する。
The coordinate system (x, y) of the document image: 0 <
In the case of x ≦ WIDTH and 0 <y ≦ HEIGHT, FIG.
A coordinate system as shown in 8 is defined. That is, in FIG.
Rectangular area T shown in (a): (The position coordinate of the upper left corner is (t
x1, ty1) and the position coordinates of the lower right corner are (tx2, ty2)
) And 0 <x <t shown in FIG.
The region where x1 and 0 <y≤HEIGHT is satisfied is region 1,
18 (c), tx2 <x ≦ WIDTH and 0 <y
The region satisfying ≤HEIGHT is region 2, the region satisfying 0 <x≤WIDTH and 0 <y <ty1 shown in FIG. 18D is region 3, and the region satisfying 0 <x≤WIDTH and ty2 <y shown in FIG. 18E. A region that satisfies ≦ HEIGHT is defined as a region 4.

【0139】また、判定条件として、以下の条件1から
条件3までのすべての条件を満たさない場合のみ、2つ
の対応可能ペアが両立可能であると見なす。
Also, it is considered that two compatible pairs are compatible only when all the following conditions 1 to 3 are not satisfied as the determination conditions.

【0140】条件1:mtk =mt′k 、 条件2:itj =it′j 、 条件3:配置関係に逆転があること。条件3は、以下の
条件3−1〜3−4の条件を満たす場合である。すなわ
ち、 条件3−1:itj (it′j )に対して、it′
j (itj )が領域1にあり、mtk (mt′k )に対
して、mt′k (mtk )が領域2にある。
Condition 1: mt k = mt ' k , Condition 2: it j = it' j , Condition 3: There is an inversion in the arrangement relationship. Condition 3 is a case where the following conditions 3-1 to 3-4 are satisfied. That is, condition 3-1: it ′ for it j (it ′ j )
j (it j ) is in region 1 and mt ' k (mt k ) is in region 2 for mt k (mt' k ).

【0141】条件3−2:itj (it′j )に対し
て、it′j (itj )が領域2にあり、mtk (m
t′k )に対して、mt′k (mtk )が領域1にあ
る。
Condition 3-2: For it j (it ' j ), it' j (it j ) is in the region 2 and mt k (m
For t ′ k ), mt ′ k (mt k ) is in region 1.

【0142】条件3−3:itj (it′j )に対し
て、it′j (itj )が領域3にあり、mtk (m
t′k )に対して、mt′k (mtk )が領域4にあ
る。
Condition 3-3: For it j (it ' j ), it' j (it j ) is in the region 3, and mt k (m
'to k), mt' t k ( mt k) is in the region 4.

【0143】条件3−4:itj (it′j )に対し
て、it′j (itj )が領域4にあり、mtk (m
t′k )に対して、mt′k (mtk )が領域3にあ
る。
Condition 3-4: For it j (it ' j ), it' j (it j ) is in the region 4, and mt k (m
'to k), mt' t k ( mt k) is in the region 3.

【0144】異種対応可能ペア間両立関係判定部35b
−2の動作を、前述した対応可能ペアp1とp2を用いて具
体的に説明する。ITとMT1の間における2つの異な
る対応可能ペアの組として(p1,p2)がある。このペア
は条件1から条件3までのすべてを満たさないので両立
可能であると判断される。異種対応可能ペア間両立関係
判定部35b−2は、両立可能と判断された対応可能ペ
アを、最良マッチング抽出部35b−3に出力する。
Different type compatible compatibility determination unit 35b
The operation -2 will be specifically described by using the compatible pairs p1 and p2 described above. There is (p1, p2) as a set of two different compatible pairs between IT and MT1. Since this pair does not satisfy all of the conditions 1 to 3, it is judged that they are compatible with each other. The heterogeneous compatible pair compatibility relationship determination unit 35b-2 outputs the compatible pair determined to be compatible to the best matching extraction unit 35b-3.

【0145】最良マッチング抽出部35b−3は、異種
対応可能ペア間両立関係判定部35b−2において両立
すると判定された対応可能ペアのうち、すべてが互いに
両立可能な対応可能ペアの最大の集合を求めることによ
り、入力表特徴集合とモデル表特徴集合間の最良マッチ
ングを抽出する。
The best matching extraction unit 35b-3 selects the maximum set of compatible pairs that are compatible with each other among the compatible pairs determined to be compatible by the heterogeneous compatible pair compatibility relationship determination unit 35b-2. By finding, the best matching between the input table feature set and the model table feature set is extracted.

【0146】最良マッチング抽出部35b−3は、さら
に図19に示すように、連合グラフ作成部35b−3a
と最大クリーク抽出部35b−3bにより構成されてい
る。連合グラフ作成部35b−3aは、異種対応可能ペ
ア間両立関係判定部35b−2の判定結果を受け取り、
その情報をもとに連合グラフを作成する。この連合グラ
フの節点は対応可能ペアを示し、節点間を結ぶ弧は2つ
の対応可能ペアが両立可能であることを示すものであ
り、異種対応可能ペア間両立関係判定部35b−2の判
定結果を表す補助的なデータ構造である。
The best matching extraction unit 35b-3, as shown in FIG. 19, further includes an association graph creation unit 35b-3a.
And the maximum clique extraction unit 35b-3b. The association graph creation unit 35b-3a receives the determination result of the inter-pair compatible compatibility determination unit 35b-2,
An association graph is created based on the information. The nodes of this union graph indicate compatible pairs, and the arc connecting the nodes indicates that two compatible pairs are compatible, and the determination result of the compatibility compatible pair determining unit 35b-2 for different types is possible. Is an auxiliary data structure that represents.

【0147】具体的には、対応可能ペアp1とp2が連合グ
ラフ作成部35b−3aに送られ、この結果、図20に
示す連合グラフが得られる。上述した「すべてが互いに
両立可能な対応可能ペアの最大の集合」はこの連合グラ
フにおいては全体的に連結した(完全に互いに両立可能
な)最大の節点集合であると捉えることができる。それ
はクリークであり、本実施例ではより大きなクリークは
より良いマッチングを表している。
Specifically, the available pairs p1 and p2 are sent to the association graph creating section 35b-3a, and as a result, the association graph shown in FIG. 20 is obtained. The above-mentioned “maximum set of compatible pairs that are all compatible with each other” can be regarded as the maximum connected node set (completely compatible with each other) in this association graph. It is a clique, with larger cliques representing better matching in this example.

【0148】最大クリーク検出部35b−3bは、連合
グラフ作成部35b−3aによって作成された連合グラ
フから、節点数が最大である完全連結部分グラフ(最大
クリーク)を抽出する。なお、最大クリーク検出部35
b−3bの動作は、例えば文献「信学論(D),J68-
D,3,pp221-228,1985」に記載されている方式を適用す
ることができる。
The maximum clique detection unit 35b-3b extracts a fully connected subgraph (maximum clique) having the maximum number of nodes from the association graph created by the association graph creation unit 35b-3a. The maximum clique detection unit 35
The operation of b-3b is described in, for example, the literature “Science theory (D), J68-
D, 3, pp 221-228, 1985 ”can be applied.

【0149】最大クリーク検出部35b−3bによって
抽出されたクリーク、すなわち、「すべてが互いに両立
可能な対応可能ペアの最大の集合」を構成する要素の対
応可能ペアは、入力文書の表特徴集合ITと当該モデル
文書の表特徴集合MT1との間で対応の取れた表の組を
表す。具体的には、最大クリーク:mclique =p1,p2が
得られ、mt11 とit1 、mt12 とit2 の対応が
それぞれ得らたことになる。この対応結果は、後段の罫
線照合部35cに送られる。
The cliques extracted by the maximum clique detectors 35b-3b, that is, the corresponding pairs of elements that make up the "maximum set of compatible pairs that are all compatible with each other" are the table feature set IT of the input document. And a table feature set MT1 of the model document are associated with each other. Specifically, the maximum cliques: mclique = p1, p2 are obtained, and the correspondences of mt1 1 and it 1 and mt1 2 and it 2 are obtained. This correspondence result is sent to the ruled line collating unit 35c in the subsequent stage.

【0150】このとき、入力文書とモデル文書の表特徴
集合の各表では、その内部に含まれる罫線特徴の座標値
は、表の左上端の座標値で正規化されている。また、入
力文書の各表の罫線特徴の座標値は、対応付くモデル文
書の表に重ね合わせられるようにスケール変換されてい
る。
At this time, in each table of the table feature set of the input document and the model document, the coordinate value of the ruled line feature contained therein is normalized by the coordinate value of the upper left end of the table. Further, the coordinate values of the ruled line feature of each table of the input document are scale-converted so as to be superimposed on the corresponding model document table.

【0151】すなわち、入力表の縦幅がit-height 、
横幅がit-width、対応付いたモデル表の縦幅がmt-h
eight 、横幅がmt-widthであるとき、当該入力表の正
規化された罫線特徴の座標値は、さらに、x座標値では
(mt-width/it-width)倍、y座標値では(mt-h
eight /it-height )倍されることによりスケール変
換される。この結果、後段の罫線照合部35cでは同じ
スケールかつ同じ座標系のもとで入力表とモデル表に含
まれる罫線集合間の対応付け処理が可能になる。
That is, the vertical width of the input table is it-height,
The width is it-width, and the corresponding model table height is mt-h.
When the width is eight and the width is mt-width, the coordinate value of the normalized ruled line feature in the input table is further multiplied by (mt-width / it-width) for the x coordinate value and (mt-width for the y coordinate value. h
Eight / it-height) Scale conversion by multiplication. As a result, the ruled line collating unit 35c in the subsequent stage can perform the matching process between the ruled line sets included in the input table and the model table under the same scale and the same coordinate system.

【0152】前述した対応可能ペア検出部35b−1の
動作を示すStep3において、simkj<th6 である
場合には、mtk とitj の構造が異なっている他に、
例えば図21(a)に示すように、入力文書の印刷品質
が悪いために表が分離している場合(図中(a−1))
や、隣接する表の間隔が狭いために画像入力時に接触し
てしまったりする場合(図中(b−1))も考えられ
る。
In Step 3 showing the operation of the above-mentioned compatible pair detection unit 35b-1, if sim kj <th6, the structures of mt k and it j are different, and
For example, as shown in FIG. 21A, when the input document has poor print quality and the table is separated ((a-1) in the figure)
Alternatively, there may be a case where the adjacent tables come into contact with each other at the time of image input because of a narrow interval ((b-1) in the figure).

【0153】このような問題点に対応するために対応可
能ペア検出部35b−1は、さらに以下の処理を実施す
るようにしてもよい。
In order to deal with such a problem, the available pair detection unit 35b-1 may further execute the following processing.

【0154】Step3−1:mjnk >ijnj (m
jnk <ijnj )である場合には、IT(MT1)の
中から以下の条件を満たすitj (mtk )に隣接する
表特徴itl (mtl )を1つ検出し、それらを統合し
て仮想的な表特徴it′j を新たに生成し、その際に生
じる接合部数ijn′j (mjn′k )とmjnk (i
jnj )との類似度siml′kjを計算する。
Step 3-1: mjn k > ijn j (m
If it is jn k <ijn j) is a table wherein it l (mt l) detecting one adjacent to the following conditions are met it j (mt k) from the IT (MT1), integrate them Then, a new virtual table feature it ′ j is newly generated, and the number of joints ijn ′ j (mjn ′ k ) and mjn k (i
jn j ) and the similarity degree siml ′ kj .

【0155】類似度:siml′kjがしきい値th6 以上
である場合には、対応可能であるとして、(mtk ,i
t′j )((mt′k ,itj ))を対応可能ペアとし
て保持する。
Similarity: If siml ' kj is greater than or equal to the threshold value th6, it is considered that it is possible to cope with (mt k , i
t ′ j ) ((mt ′ k , it j )) is held as a compatible pair.

【0156】条件:itj (mtk )とitl (m
l )の間に他の表が存在しないこと。
Condition: it j (mt k ) and it l (m
No other table exists during t l ).

【0157】Step3−2:Step3−1で求めた
siml′kjがしきい値th6 に満たない場合、類似度:
siml′kjがしきい値th6 以上となるまで、あるいは
条件を満たす統合すべき表が見つからなくなるまでSt
ep3−1を繰り返す。
Step 3-2: If the siml ' kj obtained in Step 3-1 is less than the threshold value th6, the similarity:
St is continued until siml ' kj becomes equal to or greater than the threshold value th6, or until a table that satisfies the conditions cannot be found.
Repeat ep3-1.

【0158】この場合、表照合部35bの最良マッチン
グ部35b−3では、最大クリークを構成する「対応付
き」のすべての組み合わせを出力するようにして、その
後に次の条件を適用することにより候補を絞り込む。そ
れでもなお複数の組み合わせが生じている場合には、そ
れらすべてを後段の罫線照合部35cに送り込み、その
結果に基づいて(それらの中で照合度が最も高くなる組
み合わせを選ぶことにより)最終的に表間対応関係を一
意に決めるようにしてもよい。
In this case, the best matching unit 35b-3 of the table matching unit 35b outputs all the combinations of "corresponding" that make up the maximum clique, and then applies the following conditions to the candidates. Narrow down. If a plurality of combinations still occur, all of them are sent to the ruled line matching unit 35c in the subsequent stage, and finally based on the result (by selecting the combination with the highest matching degree). The correspondence between tables may be uniquely determined.

【0159】条件:モデル表特徴集合のすべての要素が
入力表特徴集合のいずれかの要素に対応していること。
Condition: All the elements of the model table feature set correspond to any of the elements of the input table feature set.

【0160】次に、罫線照合部35cでは、表照合部3
5bで対応付いた入力表とモデル表にそれぞれ含まれる
罫線集合間で対応付け処理を行なう。このとき水平罫線
集合間の対応付けと垂直罫線集合間の対応付けを独立に
行なうようにしてもよい。そして両者の整合を、各々の
対応付け処理が済んだあとで得るようにしてもよい。こ
の場合の罫線照合部35cは、さらに図22に示すよう
に構成される。すなわち、表対応選択部35c−1、垂
直罫線照合部35c−2、水平罫線照合部35c−3、
及び方向間整合獲得部35c−4によって構成されてい
る。
Next, in the ruled line collating unit 35c, the table collating unit 3
Correspondence processing is performed between the ruled line sets included in the input table and the model table associated with each other in 5b. At this time, the association between the horizontal ruled line sets and the association between the vertical ruled line sets may be performed independently. Then, the matching between the two may be obtained after the corresponding processing is completed. The ruled line matching unit 35c in this case is further configured as shown in FIG. That is, the table correspondence selection unit 35c-1, the vertical ruled line matching unit 35c-2, the horizontal ruled line matching unit 35c-3,
And an inter-direction matching acquisition unit 35c-4.

【0161】まず、表対応選択部35c−1は、表照合
部35bで抽出された表間対応付きの中から任意の対応
を選択する。垂直罫線照合部35c−2は、表対応選択
部35c−1によって選択された入力表とモデル表の垂
直罫線集合間で対応付けを行なう。この対応付けに成功
すれば、さらに水平罫線照合部35c−3は、水平罫線
集合間で対応付けを行なう。方向間整合獲得部35c−
3は、垂直罫線照合部35c−2による対応付けと水平
罫線照合部35c−3による対応付けとの間の整合を獲
得する。
First, the table correspondence selecting unit 35c-1 selects an arbitrary correspondence from the correspondences between tables extracted by the table collating unit 35b. The vertical ruled line collating unit 35c-2 associates the vertical ruled line set of the input table selected by the table correspondence selecting unit 35c-1 with the vertical ruled line set of the model table. If this matching is successful, the horizontal ruled line matching unit 35c-3 further matches the horizontal ruled line sets. Direction matching acquisition unit 35c-
3 obtains the matching between the matching by the vertical ruled line matching unit 35c-2 and the matching by the horizontal ruled line matching unit 35c-3.

【0162】なお、垂直罫線照合部35c−2と水平罫
線照合部35c−2は、さらに図23に示すように構成
されている。これらの処理動作は、罫線方向の違いを考
慮する以外は、基本的に同じである。
The vertical ruled line matching unit 35c-2 and the horizontal ruled line matching unit 35c-2 are further configured as shown in FIG. These processing operations are basically the same except that the difference in ruled line direction is taken into consideration.

【0163】以下に、具体的な説明として、垂直罫線照
合部35c−2における、mt11の垂直罫線集合M1
VL1 とit1 の垂直罫線集合IVL1 の間の対応付け
処理の動作について説明する。ただし、図14より、 M1 VL1 =(m1 vl1 ,m1 vl2 ,m1 vl3
1 vl4 ,m1 vl5 ,m1 vl6 ,m1 vl7 ,m
1 vl8 )とする。以後、垂直罫線を単に罫線と略して
説明する。
As a concrete description, the vertical ruled line set M 1 of mt1 1 in the vertical ruled line matching unit 35c-2 will be described below.
The operation of the associating process between the vertical ruled line set IVL 1 of VL 1 and it 1 will be described. However, from FIG. 14, M 1 VL 1 = (m 1 vl 1 , m 1 vl 2 , m 1 vl 3 ,
m 1 vl 4 , m 1 vl 5 , m 1 vl 6 , m 1 vl 7 , m
1 vl 8 ). Hereinafter, the vertical ruled line will be simply described as a ruled line.

【0164】図23中に示す対応可能罫線特徴ペア検出
部35c−2aは、モデルの罫線集合の各要素に対し
て、要素と対応付く可能性のある入力の罫線特徴をすべ
て検出し、対応可能な罫線特徴のペアとして管理する。
すなわち、以下に説明する手順を実行する。
The applicable ruled line feature pair detection unit 35c-2a shown in FIG. 23 detects, for each element of the ruled line set of the model, all of the input ruled line features that may be associated with the element, and can handle them. Manage as a pair of different ruled line features.
That is, the procedure described below is executed.

【0165】Step1:任意のM1 VL1 から任意の
一つの罫線特徴m1 vlk (k番目の罫線特徴を意味す
る)を選ぶ。
Step 1: Select any one ruled line feature m 1 vl k (meaning the kth ruled line feature) from any M 1 VL 1 .

【0166】Step2:m1 vlk に対応付く入力罫
線特徴を検出するための探索範囲(areamvl )を設
定する。
Step 2: A search range (area mvl ) for detecting the input ruled line feature corresponding to m 1 vl k is set.

【0167】ここで、m1 vlk の罫線特徴の左上端と
右下端の位置座標を(mlx1 ,mly1 )、(mlx
2 ,mly2 )とすると、探索範囲は例えば(mlx1
−th9 ,mly1 )と(mlx2 +th9 ,mly2 )の
座標値で構成される矩形の内部としてもよい。ここで、
しきい値th9 が予め与えられているものとする。
Here, the position coordinates of the upper left end and the lower right end of the ruled line feature of m 1 vl k are (mlx1, mly1), (mlx
2, mly2), the search range is, for example, (mlx1
-Th9, mly1) and (mlx2 + th9, mly2) may be used as the inside of a rectangle constituted by coordinate values. here,
It is assumed that the threshold th9 is given in advance.

【0168】Step3:Step2で求められた探索
範囲に内包・交差する入力罫線特徴を抽出する。
Step 3: The input ruled line feature that is included / intersects in the search range obtained in Step 2 is extracted.

【0169】この処理は例えば以下のようにして行なわ
れる。すなわち、探索対象となる入力罫線の左上端と右
下端の位置座標値を(ix1 ,iy1 )、(ix2 ,i
y2)とした場合、以下の条件を満たす入力罫線を抽出
する。
This processing is performed, for example, as follows. That is, the position coordinate values of the upper left corner and the lower right corner of the input ruled line to be searched are (ix1, iy1), (ix2, i
If y2), the input ruled line satisfying the following conditions is extracted.

【0170】条件:min(mlx2 +th9 ,ix2 )
−max(mlx1 +th9 ,ix1)+1>0でかつm
in(mly2 ,iy2 )−max(mly1 ,iy1
)+1>0である。
Condition: min (mlx2 + th9, ix2)
-Max (mlx1 + th9, ix1) +1> 0 and m
in (mly2, iy2) -max (mly1, iy1
) +1> 0.

【0171】Step4:抽出された入力罫線特徴の一
つを選ぶ(例えば、ivlj (入力罫線特徴集合のj番
目の罫線特徴)を選んだものとする)。
Step 4: Select one of the extracted input ruled line features (for example, ivl j ( jth ruled line feature of the input ruled line feature set) is selected).

【0172】Step5:m1 vlk の縦幅:ml-hei
ght とivlj の縦幅:il-height との類似度:si
mlkjを計算する。
Vertical width of Step 5: m 1 vl k : ml-hei
Vertical width of ght and ivl j : il-height similarity: si
Calculate ml kj .

【0173】ここで、類似度:simlkjは例えば次の
式で求まるとする。
Here, it is assumed that the degree of similarity: siml kj is obtained by the following equation, for example.

【0174】 ml-height >0またはil-height >0のとき simlkj= 100− 200×|ml-height −il-heigh
t |/(ml-height+il-height ) ml-height =0かつil-height =0のとき simlkj=−100 Step6:類似度:simlkjがあらかじめ設定した
しきい値th10以上である場合には、対応可能であるとし
て、その組(m1 vlk ,ivlj )を対応可能ペアと
して保持する。
When ml-height> 0 or il-height> 0 siml kj = 100−200 × | ml-height−il-heigh
t | / (ml-height + il-height) ml-height = 0 and il-height = 0 siml kj = -100 Step 6: Similarity: If siml kj is equal to or greater than a preset threshold th10, Assuming that the correspondence is possible, the pair (m 1 vl k , ivl j ) is held as a correspondence pair.

【0175】Step7:類似度:simlkjがしきい
値th10未満である場合には、さらに以下の処理を行な
う。
Step 7: Similarity: When siml kj is less than the threshold value th10, the following processing is further performed.

【0176】Step7−1:図24に示すように、1
本であるべき線がかすれたり、途切れたりしているため
に分離している場合に対応するために以下の処理を行な
う。
Step 7-1: As shown in FIG.
The following processing is performed in order to deal with the case where a line that should be a book is faint or is broken and is separated.

【0177】Step7−1−1:Step3で抽出さ
れた入力罫線特徴のうち、以下の条件を満たす罫線特徴
のうち最も近接するものを1つ抽出し、それらを図25
に示すように統合した際に生じる縦幅:il-height′と
ml-height との類似度:siml′kjを計算する。た
だし、ivlj の左上端と右下端の位置座標値を、(i
vlj x1 ,ivlj y1 )、(ivlj x2 ,ivl
j y2 )、抽出対象となる入力罫線の左上端と右下端の
位置座標値を(ix1,iy1)、(ix2,iy2)
とする。
Step 7-1-1: Among the input ruled line features extracted in Step 3, one of the ruled line features that satisfies the following conditions is extracted, and the closest one is extracted.
As shown in (1), the similarity between the vertical width: il-height 'and ml-height: siml' kj is calculated. However, the position coordinate values of the upper left corner and the lower right corner of ivl j are (i
vl j x1, ivl j y1), (ivl j x2, ivl
j y2), and the position coordinate values of the upper left corner and the lower right corner of the input ruled line to be extracted are (ix1, iy1), (ix2, iy2)
And

【0178】条件:min(ivlj x2 ,ix2 )−
max(ivlj x1 ,ix1 )+1>0、類似度:s
iml′kjがしきい値th10以上である場合には、対応可
能であるとして、その組(m1 vlk ,ivl′j )を
対応可能ペアとして保持する。
Condition: min (ivl j x2, ix2)-
max (ivl j x1, ix1) +1> 0, similarity: s
If iml ' kj is greater than or equal to the threshold value th10, it is determined that they can be supported, and the set (m 1 vl k , ivl' j ) is held as a compatible pair.

【0179】Step7−1−2:Step7−1−1
で求めたsiml′kj<th10である場合、類似度:si
ml′kjがしきい値th10以上となるまで、あるいは条件
を満たす統合すべき罫線が見つからなくなるまでSte
p7−1−1を繰り返す。
Step 7-1-2: Step 7-1-1
When siml ′ kj <th10 obtained in step S1, the similarity: si
Step until ml ′ kj becomes equal to or greater than the threshold value th10, or until no ruled line that meets the conditions is found.
Repeat p7-1-1.

【0180】Step7−2:図26に示すようにモデ
ルの複数本の罫線特徴と入力の複数本の罫線特徴とが対
応付くような場合に対応するために以下の処理を行な
う。
Step 7-2: As shown in FIG. 26, the following processing is performed in order to cope with a case where a plurality of ruled line features of the model correspond to a plurality of input ruled line features.

【0181】Step7−2−1:ml-height >il
-height (ml-height <il-height )である場合に
は、IVL1 (M1 VL1 )の中から以下の条件を満た
すivlj (m1 vlk )に最も近接する罫線特徴iv
l′j (m1 vl′k )を1つ検出し、それらを統合し
た際に生じる縦幅il-height ′(ml-height ′)と
ml-height(il-height)との類似度:siml′kj
計算する。
Step 7-2-1: ml-height> il
-height (ml-height <il-height), the ruled line feature iv that is closest to ivl j (m 1 vl k ) satisfying the following condition out of IVL 1 (M 1 VL 1 ).
Similarity between the vertical widths il-height ′ (ml-height ′) and ml-height (il-height) generated by detecting one l ′ j (m 1 vl ′ k ) and integrating them: siml Calculate ′ kj .

【0182】ただし、ivlj の左上端と右下端の位置
座標値を、(ivlj x1′,ivlj y1′)、(i
vlj x2′,ivlj y2′)、予め設定されたしき
い値をth11とする。
[0182] However, the position coordinates of the left upper and right lower ends of ivl j, (ivl j x1 ' , ivl j y1'), (i
vl j x2 ', ivl j y2'), and a preset threshold value is th11.

【0183】条件:min(ivlj x2+th11,iv
j x2′)−max(ivlj x1−th11,ivlj
x1′)+1>0 類似度:siml′kjがしきい値th10以上である場合に
は、対応可能であるとして、(m1 vlk ,ivlj
と(m1 vlk ,ivl′j )((m1 vlk,ivl
j )と(m1 vl′k ,ivlj ))を対応可能ペアとし
て保持する。
Condition: min (ivl j x2 + th11, iv
l j x2 ′)-max (ivl j x1-th11, ivl j
x1 ′) + 1> 0 Similarity: When siml ′ kj is greater than or equal to the threshold value th10, it is possible to support (m 1 vl k , ivl j ).
And (m 1 vl k, ivl ' j) ((m 1 vl k, ivl
j ) and (m 1 vl ′ k , ivl j )) are held as a pair capable of correspondence.

【0184】Step7−2−2:Step7−2−1
で求めたsiml′kj<th10である場合、類似度:si
ml′kjがしきい値th10以上となるまで、あるいは条件
を満たす統合すべき罫線が見つからなくなるまでSte
p7−2−1を繰り返す。
Step 7-2-2: Step 7-2-1
When siml ′ kj <th10 obtained in step S1, the similarity: si
Step until ml ′ kj becomes equal to or greater than the threshold value th10, or until no ruled line that meets the conditions is found.
Repeat p7-2-1.

【0185】Step8:Step4〜Step7まで
をStep3で抽出されたすべての入力罫線特徴に対し
て適用する。
Step 8: Steps 4 to 7 are applied to all the input ruled line features extracted in Step 3.

【0186】Step9:Step1〜Step8まで
を着目M1 VL1 のすべての要素に対して適用する。
Step 9: Steps 1 to 8 are applied to all the elements of the attention M 1 VL 1 .

【0187】ここで、min()は()内の2変数の
内、小さい方を出力する関数であり、max()は()
内の2変数の内、大きい方を出力する関数である。
Here, min () is a function that outputs the smaller one of the two variables in (), and max () is ().
This is a function that outputs the larger of the two variables.

【0188】対応可能罫線特徴ペア検出部35c−2a
の前述した処理動作を、M1 VL1とIVL1 を用いて
具体的に説明する。対応可能罫線特徴ペア検出部35c
−2aにおいて、M1 VL1 の各要素で探索範囲を設け
て、それぞれ対応付く可能性を持つIVL1 の要素を抽
出した結果、以下のような罫線特徴ペアが得られたもの
とする。
Correspondence Ruled Line Feature Pair Detection Unit 35c-2a
The above-mentioned processing operation will be specifically described by using M 1 VL 1 and IVL 1 . Available ruled line feature pair detection unit 35c
-2a, it is assumed that the following ruled line feature pairs are obtained as a result of extracting the elements of IVL 1 that have a possibility of being associated with each other by providing a search range for each element of M 1 VL 1 .

【0189】pl1 =(m1 vl1 ,ivl1 )、 pl2 =(m1 vl2 ,ivl2 )、 pl3 =(m1 vl3 ,ivl3 )、 pl4 =(m1 vl4 ,ivl2 )、 pl5 =(m1 vl4 ,ivl4 )、 pl6 =(m1 vl5 ,ivl4 )、 pl7 =(m1 vl6 ,ivl4 )、 pl8 =(m1 vl7 ,ivl5 )、 pl9 =(m1 vl8 ,ivl6 )。Pl 1 = (m 1 vl 1 , ivl 1 ), pl 2 = (m 1 vl 2 , ivl 2 ), pl 3 = (m 1 vl 3 , ivl 3 ), pl 4 = (m 1 vl 4). , Ivl 2 ), pl 5 = (m 1 vl 4 , ivl 4 ), pl 6 = (m 1 vl 5 , ivl 4 ), pl 7 = (m 1 vl 6 , ivl 4 ), pl 8 = (m 1 vl 7 , ivl 5 ), pl 9 = (m 1 vl 8 , ivl 6 ).

【0190】このうち、pl1 、pl2 、pl3 、pl
4 、pl8 、pl9 は、Step2からStep6まで
の処理(以後、Step2からStep6までの処理で
得られた対応可能特徴ペアのみを1対1対応可能ペアと
呼ぶ)で得られる。
Of these, pl 1 , pl 2 , pl 3 , pl
4 , pl 8 and pl 9 are obtained by the processing from Step 2 to Step 6 (hereinafter, only the corresponding feature pairs obtained by the processing from Step 2 to Step 6 are referred to as one-to-one correspondence pair).

【0191】pl5 は、Step2からStep6まで
の処理で類似度:siml44がしきい値th10未満であっ
たために、Step7−2−1によりivl4 と「m1
vl4 とm1 vl5 を統合したもの」のペアを検出し
た。そして、そのペアをpl5とpl6 の対応可能なペ
アに分けて管理している。pl7 についても同様にSt
ep7−2−1でivl4 と「m1 vl4 とm1 vl6
を統合したもの」のペアを検出していることにより対応
可能なペアとして抽出されている。
[0191] pl5 is similarity in the process from Step2 to Step6: To Siml 44 is less than the threshold value TH10, and IVL 4 by Step7-2-1 "m 1
v1 4 and m1 vl5 integrated "pair was detected. Then, the pair is managed by dividing it into a compatible pair of pl 5 and pl 6 . Similarly for pl 7 , St
In ep7-2-1, ivl 4 and “m 1 vl 4 and m 1 vl 6
Is detected as a pair that is integrated, and is extracted as a compatible pair.

【0192】対応可能罫線特徴ペア検出部35c−2a
における処理動作のStep2における探索範囲の設定
は、例えば以下に述べる手順で行なわれてもよい。例え
ば、図27に示すモデル垂直罫線VL1 の探索範囲は、
モデル垂直罫線VL1 に左側で隣接するモデル垂直罫線
VL2 と、右側で隣接するモデル垂直罫線VL3 との距
離に応じて設定するようにしてもよい。
Correspondence Ruled Line Feature Pair Detection Unit 35c-2a
The setting of the search range in Step 2 of the processing operation may be performed by the procedure described below, for example. For example, the search range of the model vertical ruled line VL 1 shown in FIG.
It may be set according to the distance between the model vertical ruled line VL 2 adjacent to the model vertical ruled line VL 1 on the left side and the model vertical ruled line VL 3 adjacent to the right side.

【0193】すなわち、VL1 の左上端の位置座標値を
(VL1 x1 ,VL1 y1 )、右下端の位置座標値を
(VL1 x2 ,VL1 y2 )、VL2 の左上端の位置座
標値を(VL2 x1 ,VL2 y1 )、右下端の位置座標
値を(VL2 x2 ,VL2 y2)、VL3 の左上端の位
置座標値を(VL3 x1 ,VL3 y1 )、右下端の位置
座標値を(VL3 x2 ,VL3 y2 )とすると、VL1
とVL2 の間の距離:dist12と、VL1 とVL3
間の距離:dist13はそれぞれ、 dist12=VL1 x1 −VL2 x2 +1、 dist13=VL3 x1 −VL1 x2 +1、より求まる
こととする。
[0193] That is, the position coordinates of the upper left point of the VL 1 (VL 1 x1, VL 1 y1), the position coordinates of the lower right end (VL 1 x2, VL 1 y2 ), the position coordinates of the upper left point of the VL 2 value (VL 2 x1, VL 2 y1 ), the position coordinates of the lower right end (VL 2 x2, VL 2 y2 ), the position coordinates of the upper left point of the VL 3 (VL 3 x1, VL 3 y1), right If the position coordinate value of the lower end is (VL 3 x2, VL 3 y2), VL 1
The distance between the VL 2: a Dist12, the distance between the VL 1 and VL 3: dist13 respectively, dist12 = VL 1 x1 -VL 2 x2 +1, dist13 = VL 3 x1 -VL 1 x2 +1, more determined that And

【0194】そして探索範囲を、((VL1 x1 −dis
t12/2),(VL1 y1 +th9))と、((VL1 x2 +
dist13/2),(VL1 y2 +th9))、の位置座標
値で構成される矩形領域としてもよい。
Then, the search range is set to ((VL 1 x1 -dis
t12 / 2), (VL 1 y1 + th9)) and ((VL 1 x2 +
dist13 / 2), (VL 1 y2 + th9)), it may be a rectangular region composed of position coordinates of the.

【0195】ここで、VL1 とその左側で隣接するモデ
ル垂直罫線VL2 は、min(VL1 y2 ,VL2 y2 )−
max(VL1 y1 ,VL2 y1 )+1>th13を満たす、距
離dist12が最小であるモデル垂直罫線を検出するこ
とにより求めることができ、右側で隣接するモデル垂直
罫線VL3 は、min(VL1 y2 ,VL3 y2 )−max(V
1 y1 ,VL3 y1 )+1>th13を満たす、距離di
st13が最小であるモデル垂直罫線を検出することによ
り求めることができる。ここでth13をしきい値とする。
各モデル水平罫線の探索範囲も同様に求めることができ
る。
Here, the model vertical ruled line VL 2 adjacent to VL 1 on its left side is min (VL 1 y2, VL 2 y2) −
The model vertical ruled line VL3 adjacent to the right side can be obtained by detecting the model vertical ruled line having the minimum distance dist12, which satisfies max (VL 1 y1, VL 2 y1) +1> th13, and min (VL 1 y2 , VL 3 y2) -max (V
L 1 y1, VL 3 y1) +1> th13, distance di
This can be obtained by detecting the model vertical ruled line for which st13 is the minimum. Here, th13 is the threshold.
The search range of each model horizontal ruled line can be similarly obtained.

【0196】この他にも、Step2における探索範囲
を次のようにして設定してもよい。例えばk番目のモデ
ル罫線に着目したとき、探索対象となっている入力罫線
のうちk±α以内の番号を有するものを着目モデル罫線
の探索範囲とするようにしてもよい。また、ある大きさ
のパラメータでスケール変換がなされた状態で、着目モ
デル罫線と同じ長さを持つ全ての入力罫線を探索範囲と
しても良い。
In addition to this, the search range in Step 2 may be set as follows. For example, when the k-th model ruled line is focused, the input ruled line that is the search target and has a number within k ± α may be set as the search range of the focused model ruled line. Further, all the input ruled lines having the same length as the target model ruled line may be set as the search range in the state where the scale conversion is performed with the parameter of a certain size.

【0197】次に、対応可能罫線特徴ペア間両立性判定
部35c−2bは、対応可能罫線特徴ペア検出部35c
−2aで検出されたすべての2つの異なる対応可能ペア
の組み合わせにおいて、それらが両立するものであるか
否かを判定する。
Next, the compatible ruled line feature pair compatibility determination unit 35c-2b determines the applicable ruled line feature pair detection unit 35c.
-2a, it is determined whether or not they are compatible with each other in the combination of all the two different compatible pairs detected.

【0198】ここでの判定条件としては以下のものが上
げられる。判定対象となる対応可能ペアをそれぞれp=
(mlk ,ilj )、p′=(ml′k ,il′j )と
する。
The following are given as the judgment conditions here. Each available pair to be judged is p =
Let (ml k , il j ) and p ′ = (ml ′ k , il ′ j ).

【0199】ここで、mlk の左上端の位置座標を(m
k x1 ,mlk y1 )、右下端の位置座標を(mlk
x2 ,mlk y2 )、ml′k の左上端の位置座標を
(ml′k x1 ,ml′k y1 )、右下端の位置座標を
(ml′k x2 ,ml′k y2)、ilj の左上端の位
置座標を(ilj x1 ,ilj y1 )、右下端の位置座
標を(ilj x2 ,ilj y2 )、il′j の左上端の
位置座標を(il′j x1 ,il′j y1 )、右下端の
位置座標を(il′j x2 ,il′j y2 )とする。
Here, the position coordinate of the upper left corner of ml k is (m
l k x1, ml k y1), and the position coordinates of the lower right corner are (ml k
x2, ml k y2), 'the position coordinates of the upper left point of the k (ml' ml k x1, ml 'k y1), the position coordinates (ml lower right end' k x2, ml 'k y2 ), the il j the position coordinates of the upper left corner (il j x1, il j y1 ), the position coordinates of the lower right end (il j x2, il j y2 ), il ' the position coordinates of the upper left point of the j (il' j x1, il ' j y1) and the position coordinates of the lower right corner are (il ′ j x2, il ′ j y2).

【0200】判定条件は、条件1から条件4までのすべ
ての条件を満たさない場合のみ2つの対応可能ペアが両
立可能であるとみなす。
It is considered that the two compatible pairs are compatible only when all the conditions 1 to 4 are not satisfied as the determination conditions.

【0201】条件1:pとp′のどちらかが1対1対応
可能ペアでり、かつmlk =ml′k である。
Condition 1: Either p or p'can be a one-to-one correspondence pair, and ml k = ml ' k .

【0202】条件2:pとp′のどちらかが1対1対応
可能ペアでり、かつilj =il′j である。
Condition 2: Either p or p'is a one-to-one correspondence pair, and il j = il ' j .

【0203】条件3:pとp′のどちらも1対1対応可
能ペアでり、かつ以下の条件3−1,3−2のどちらか
を満たす。
Condition 3: Both p and p'are one-to-one correspondence pairs, and satisfy either of the following conditions 3-1 and 3-2.

【0204】条件3−1:(min(mlk x2 ,ml′k
x2 )−max(mlk x1 ,ml′kx1 )+1)>0か
つ(min(mlk y2 ,ml′k y2 )−max(mlk y1
,ml′k y1 )+1)>0。
Condition 3-1: (min (ml k x2, ml ' k
x2) -max (ml k x1, ml ′ k x1) +1)> 0 and (min (ml k y2, ml ′ k y2) −max (ml k y1
, Ml ′ k y1) +1)> 0.

【0205】条件3−2:(min(ilk x2 ,il′k
x2 )−max(ilk x1 ,il′kx1 )+1)>0か
つ(min(ilk y2 ,il′k y2 )−max(ilk y1
,il′k y1 )+1)>0。
Condition 3-2: (min (il k x2, il ' k
x2) -max (il k x1, il 'k x1) +1)> 0 and (min (il k y2, il ' k y2) -max (il k y1
, Il ′ k y1) +1)> 0.

【0206】条件4:配置関係に逆転がある。すなわ
ち、以下の4−1〜4−4の状態にある。
Condition 4: The arrangement relationship is reversed. That is, it is in the following states 4-1 to 4-4.

【0207】4−1:ilj (il′j )に対して、i
l′j (ilj )が領域1にあり、mlk (ml′k
に対して、ml′k (mlk )が領域2にある。
4-1: For il j (il ' j ), i
l ′ j (il j ) is in the region 1 and ml k (ml ′ k )
, There is ml ′ k (ml k ) in region 2.

【0208】4−2:ilj (il′j )に対して、i
l′j (ilj )が領域2にあり、mlk (ml′k
に対して、ml′k (mlk )が領域1にある。
4-2: For il j (il ′ j ), i
l ′ j (il j ) is in the region 2, and ml k (ml ′ k )
, There is ml ' k (ml k ) in region 1.

【0209】4−3:ilj (il′j )に対して、i
l′j (ilj )が領域3にあり、mlk (ml′k
に対して、ml′k (mlk )が領域4にある。
4-3: For il j (il ′ j ), i
l ′ j (il j ) is in the region 3, and ml k (ml ′ k )
, There is ml ′ k (ml k ) in region 4.

【0210】4−4:ilj (il′j )に対して、i
l′j (ilj )が領域4にあり、mlk (ml′k
に対して、ml′k (mlk )が領域3にある。
4-4: For il j (il ' j ), i
l ′ j (il j ) is in the region 4, and ml k (ml ′ k )
, There is ml ′ k (ml k ) in region 3.

【0211】対応可能罫線特徴ペア間両立性判定部35
c−2bの動作を、前述した対応可能罫線特徴ペアpl
1 〜pl9 を用いて具体的に説明する。pl1 からpl
9 までの9個の対応可能罫線特徴ペアのすべての組み合
わせは36通りある。
Compatible ruled line feature pair compatibility determination unit 35
The operation of c-2b can be performed by the corresponding ruled line feature pair pl described above.
A specific description will be given using 1 to pl 9 . pl 1 to pl
There are 36 combinations of all 9 possible ruled line feature pairs up to 9.

【0212】そのうち上記条件1〜4をすべて満たさな
い組み合わせは、(pl1 ,pl2)、(pl1 ,pl
3 )、(pl1 ,pl4 )、(pl1 ,pl5 )、(p
1,pl6 )、(pl1 ,pl7 )、(pl1 ,pl
8 )、(pl1 ,pl9 )、(pl2 ,pl3 )、(p
2 ,pl5 )、(pl2 ,pl6 )、(pl2 ,pl
7 )、(pl2 ,pl8 )、(pl2 ,pl9 )、(p
3 ,pl5 )、(pl3 ,pl6 )、(pl3 ,pl
7 )、(pl3 ,pl8 )、(pl3 ,pl9)、(p
4 ,pl6 )、(pl4 ,pl7 )、(pl4 ,pl
8 )、(pl4,pl9 )、(pl5 ,pl6 )、(p
5 ,pl7 )、(pl5 ,pl8 )、(pl5 ,pl
9 )、(pl6 ,pl7 )、(pl6 ,pl8 )、(p
6 ,pl9 )、(pl7 ,pl8 )、(pl7 ,pl
9 )、(pl8 ,pl9 )の32通りである。これらの
組み合わせの各々において、それを構成する対応可能罫
線特徴ペアは、両立可能であると判断される。
Among the combinations which do not satisfy all of the above conditions 1 to 4, (pl 1 , pl 2 ), (pl 1 , pl)
3 ), (pl 1 , pl 4 ), (pl 1 , pl 5 ), (p
l 1 , pl 6 ), (pl 1 , pl 7 ), (pl 1 , pl
8 ), (pl 1 , pl 9 ), (pl 2 , pl 3 ), (p
l 2 , pl 5 ), (pl 2 , pl 6 ), (pl 2 , pl
7 ), (pl 2 , pl 8 ), (pl 2 , pl 9 ), (p
l 3 , pl 5 ), (pl 3 , pl 6 ), (pl 3 , pl
7 ), (pl 3 , pl 8 ), (pl 3 , pl 9 ), (p
l 4 , pl 6 ), (pl 4 , pl 7 ), (pl 4 , pl
8 ), (pl 4 , pl 9 ), (pl 5 , pl 6 ), (p
l 5 , pl 7 ), (pl 5 , pl 8 ), (pl 5 , pl
9 ), (pl 6 , pl 7 ), (pl 6 , pl 8 ), (p
l 6 , pl 9 ), (pl 7 , pl 8 ), (pl 7 , pl
9 ) and (pl 8 , pl 9 ) in 32 ways. In each of these combinations, the corresponding ruled line feature pairs that make up the combination are determined to be compatible.

【0213】次に、最良マッチング抽出部35c−2c
は,対応可能罫線特徴ペア間両立性判定部35c−2b
において両立すると判定されたもののうち、すべてが互
いに両立可能な対応可能ペアの最大の集合を求めること
により、入力表特徴集合とモデル表特徴集合間の最良マ
ッチングを抽出する。
Next, the best matching extraction unit 35c-2c
Is a compatible ruled line feature pair compatibility determination unit 35c-2b.
The best matching between the input table feature set and the model table feature set is extracted by finding the maximum set of compatible pairs that are all compatible with each other.

【0214】なお、最良マッチング抽出部35c−2c
は、図17に示す最良マッチング抽出部35b−3と同
一の機能を有している(詳細は図19に示している)。
最良マッチング抽出部35c−2cを構成している連合
グラフ作成部では、対応可能罫線特徴ペア間両立性判定
部35c−2bで得られた結果から連合グラフを作る
か、pl1 からpl9 までの9個の対応可能罫線特徴ペ
アに対しては、図28に示すものが作られる。
The best matching extraction units 35c-2c
Has the same function as the best matching extraction unit 35b-3 shown in FIG. 17 (details are shown in FIG. 19).
In the association graph creation unit that constitutes the best matching extraction unit 35c-2c, an association graph is created from the results obtained by the compatible ruled line feature pair compatibility determination unit 35c-2b, or from the pl 1 to pl 9 For 9 possible ruled line feature pairs, the one shown in FIG. 28 is created.

【0215】M1 VL1 とIVL1 の間の対応付け処理
に関しては、最良マッチング抽出部35c−2cにおい
て、(m1 vl1 ,ivl1 )、(m1 vl2 ,ivl
2 )、(m1 vl3 ,ivl3 )、(m1 vl5 ,iv
4 )、(m1 vl6 ,ivl4 )、(m1 vl7 ,i
vl5 )、(m1 vl8 ,ivl6 )、の対応が抽出さ
れたものとする。
Regarding the matching process between M 1 VL 1 and IVL 1 , in the best matching extraction units 35c-2c, (m 1 vl 1 , ivl 1 ), (m 1 vl 2 , ivl)
2 ), (m 1 vl 3 , ivl 3 ), (m 1 vl 5 , iv
l 4 ), (m 1 vl 6 , ivl 4 ), (m 1 vl 7 , i
It is assumed that the correspondence of vl 5 ) and (m 1 vl 8 , ivl 6 ) is extracted.

【0216】mt11 の水平罫線集合:M1 HL1
(m1 hl1 ,m1 hl2 ,m1 hl3 ,m1 hl4
1 hl5 )とit1 の水平罫線集合:IHL1 =(i
hl1,ihl2 ,ihl3 ,ihl4 ,ihl5 )の
間の対応付け処理も、水平罫線照合部35c−3におい
て、同様に、(m1 hl1 ,ihl1 )、(m1
2,ihl2 )、(m1 hl3 ,ihl3 )、(m1
hl4 ,ihl4 )、(m1hl5 ,ihl5 )、の対
応が抽出されたものとする。
Set of horizontal ruled lines of mt1 1 : M 1 HL 1 =
(M 1 hl 1 , m 1 hl 2 , m 1 hl 3 , m 1 hl 4 ,
horizontal ruled line set of m 1 hl 5 ) and it 1 : IHL 1 = (i
Similarly, in the matching process among the hl 1 , ihl 2 , ihl 3 , ihl 4 , ihl 5 ), the horizontal ruled line matching unit 35c-3 similarly (m1 hl 1 , ihl 1 ), (m 1 h
l 2 , ihl 2 ), (m 1 hl 3 , ihl 3 ), (m 1
It is assumed that the correspondence of hl 4 , ihl 4 ) and (m 1 hl 5 , ihl 5 ) is extracted.

【0217】表照合部35bで抽出されたmt12 とi
2 の対応における、罫線集合間の対応付け処理も罫線
照合部35cで同様に行なわれ、mt12 の垂直罫線集
合:M1 VL2 =(m1 vl9 ,m1 vl10,m1 vl
11)とit2 の垂直罫線集合:IVL2 =(ivl7
ivl8 ,ivl9 )の間では、(m1 vl9 ,ivl
7 )、(m1 vl10,ivl8 )、(m1 vl11,iv
9 )、mt12 の水平罫線集合:M1 HL1 =(m1
hl6 ,m1 hl7 )とit2 の水平罫線集合:IHL
2 =(ihl7 ,ihl8 )の間では、(m1 vl6
ivl6 )、(m1 vl7 ,ivl7 )の罫線特徴間の
対応が得られたものとする。
Mt1 2 and i extracted by the table collating unit 35b
Correspondence processing between ruled line sets in correspondence of t 2 is similarly performed by the ruled line collating unit 35c, and a vertical ruled line set of mt1 2 is: M 1 VL 2 = (m 1 vl 9 , m 1 vl 10 , m 1 vl
11 ) and it 2 vertical ruled line set: IVL 2 = (ivl 7 ,
Between ivl 8 and ivl 9 ), (m 1 vl 9 and ivl
7 ), (m 1 vl 10 , ivl 8 ), (m 1 vl 11 , iv)
l 9 ), mt1 2 horizontal ruled line set: M 1 HL 1 = (m 1
hl 6 , m 1 hl 7 ) and it 2 horizontal ruled line set: IHL
Between 2 = (ihl 7 , ihl 8 ), (m 1 vl 6 ,
It is assumed that the correspondence between the ruled line features of ivl 6 ) and (m 1 vl 7 , ivl 7 ) is obtained.

【0218】照合度計算部35dは、罫線照合部35c
によって対応関係が抽出されたモデル文書と入力文書の
間で、当該構造化特徴間の対応付きを数量化することに
よりその度合い(照合度)を計算する。
The collation degree calculation unit 35d includes a ruled line collation unit 35c.
The degree (matching degree) is calculated by quantifying the correspondence between the structured features between the model document and the input document from which the correspondence relationship is extracted by.

【0219】照合度は、モデル照合部35に送られてき
たすべてのモデル文書と入力文書との間で計算され、照
合結果出力部35eに出力される。照合度:matching-m
etric は、モデル水平罫線数をsmhl-num、モデル垂直罫
線数をsmvl-num、入力水平罫線のうちモデル水平罫線と
対応付いたものの総数をsmch-num、入力垂直罫線のうち
モデル垂直罫線と対応付いたものの総数をsmcv-numとし
たときに、例えば以下の式で定義される。
The matching degree is calculated between all the model documents sent to the model matching unit 35 and the input document, and is output to the matching result output unit 35e. Matching degree: matching-m
etric is the number of model horizontal ruled lines smhl-num, the number of model vertical ruled lines smvl-num, the total number of input horizontal ruled lines that are associated with the model horizontal ruled line is smch-num, and the corresponding input vertical ruled line is the model vertical ruled line When the total number of attached items is smcv-num, it is defined by the following formula, for example.

【0220】matching-metric = 100− 200×(|smhl
-num−smch-num|+|smvl-num−smcv-num|)/((sm
hl-num−smch-num)+(smvl-num−smcv-num)) 例えば、図9の入力文書と図14のモデル文書との間の
照合度: matching-metric1 は、smhl-num=7,smvl-n
um=11,smch-num=7,smcv-num=10より、 matching-metric1 = 100− 200×(|7−7|+|11
−10|/(7+7)+(11+11))=94.44 、となる。
Matching-metric = 100-200 × (| smhl
-num-smch-num | + | smvl-num-smcv-num |) / ((sm
hl-num-smch-num) + (smvl-num-smcv-num)) For example, the matching degree between the input document of FIG. 9 and the model document of FIG. 14: matching-metric1 is smhl-num = 7, smvl-n
From um = 11, smch-num = 7, smcv-num = 10, matching-metric 1 = 100-200 x (| 7-7 | + | 11
−10 | / (7 + 7) + (11 + 11)) = 94.44.

【0221】また、図9の入力文書と図15のモデル文
書との間の照合度: matching-metric2 は、当該構造化
特徴間の対応関係が抽出可能であったので(−100 )を
設定する。
The matching degree: matching-metric 2 between the input document in FIG. 9 and the model document in FIG. 15 is set to (-100) because the corresponding relationship between the structured features can be extracted. To do.

【0222】照合結果出力部35eは、モデル照合部3
5に送られてきたすべてのモデル構造化特徴と入力構造
化特徴との間の照合度のうち、最大値を示すモデル文書
と入力文書の組み合わせを選び、それらの構造化特徴間
の対応関係と共に照合結果判定部37に出力する。
The matching result output unit 35e is the model matching unit 3
Among the matching degrees between all the model structured features and the input structured features sent to S5, the combination of the model document and the input document showing the maximum value is selected, and the correspondence between these structured features is selected. The result is output to the collation result determination unit 37.

【0223】照合結果判定部37は、モデル照合部35
で最大照合度を示したモデル文書と入力文書の構造化特
徴間の対応関係(以後、構造化特徴間対応関係と呼ぶ)
が獲得できたか否かを判定する。
The collation result judging unit 37 is the model collating unit 35.
Correspondence between the structured features of the model document and the input document showing the maximum matching degree in (hereinafter referred to as the correspondence between structured features)
It is determined whether or not was acquired.

【0224】すなわち、モデル照合部35で計算された
最大照合度が予め与えられているしきい値:th7 以上で
ある場合には、構造化特徴間対応関係を獲得できたと判
定する。また、最大照合度がth7 未満である場合には、
構造化特徴間対応関係を獲得できなかったとして、入力
文書を棄却して、次の文書の入力を実施する。
That is, when the maximum matching degree calculated by the model matching unit 35 is equal to or greater than the threshold value: th7 which is given in advance, it is determined that the structured feature correspondence can be acquired. When the maximum matching degree is less than th7,
Assuming that the structured feature correspondence cannot be acquired, the input document is rejected and the next document is input.

【0225】また、この場合、フォーマット種別同定部
33で選出されなかったモデルのすべてに対して、モデ
ル照合部35で照合処理を行ない、その結果をこの照合
結果判定部37で判定するようにしてもよい。こうする
と、フォーマット種別同定部33における処理誤りを救
済でき、処理結果の精度が高まる。
In this case, the model collation unit 35 performs collation processing on all the models not selected by the format type identification unit 33, and the result is discriminated by the collation result determination unit 37. Good. By doing so, the processing error in the format type identifying unit 33 can be relieved, and the accuracy of the processing result can be improved.

【0226】具体的に説明すると、例えば、モデル照合
部35で図9の入力構造化特徴と図14のモデル構造化
特徴との間で最大照合度が計算されたとすると、その
値:max-sim は matching-metric1 より、max-sim =9
4.44 であり、 th7=60とするとth7<max-sim より、当
該構造化特徴間の対応関係は獲得されたと見なされる。
More specifically, for example, when the model matching unit 35 calculates the maximum matching degree between the input structured feature of FIG. 9 and the model structured feature of FIG. 14, its value: max-sim. Is from matching-metric 1 , max-sim = 9
It is 4.44, and if th7 = 60, then th7 <max-sim, and it is considered that the corresponding relationship between the structured features has been acquired.

【0227】構造化特徴間の対応関係は、例えば次のよ
うな形式により保持される。すなわち、入力罫線特徴モ
デル罫線特徴の各対応付きにおいて、入力罫線特徴のim
ageに、それに対応するモデル罫線特徴の識別子を格納
し、モデル罫線特徴のimageに、それに対応付くモデル
罫線の識別子を格納する。予め、それぞれの罫線集合の
各罫線特徴のimage に−1をセットしておけば、対応付
かない罫線特徴のimage には常に−1が設定されている
ことになる。
The correspondence between the structured features is held in the following format, for example. That is, in each input ruled line feature model ruled line feature correspondence, the input ruled line feature im
The age of the model ruled line feature corresponding thereto is stored in age, and the identifier of the model ruled line corresponding thereto is stored in image of the model ruled line feature. If -1 is set in advance to the image of each ruled line feature of each ruled line set, -1 is always set to the image of the ruled line feature that is not associated.

【0228】モデル照合部35と照合結果判定部37を
経て獲得された構造化特徴対応関係のうちで最も重要な
ものは、入力文書の罫線集合とモデル文書の罫線集合の
間の対応関係(以後、罫線特徴間対応関係と呼ぶ)であ
る。後段の文字列領域抽出部43は、この対応関係に基
づいて入力画像から文字列領域を切り出す。
The most important structured feature correspondence obtained through the model matching unit 35 and the matching result judging unit 37 is the correspondence between the ruled line set of the input document and the ruled line set of the model document (hereinafter , Which is referred to as a ruled line feature correspondence). The character string region extraction unit 43 in the subsequent stage cuts out the character string region from the input image based on this correspondence.

【0229】このとき罫線間対応関係が、どちらかの構
造化特徴の欠落のため不完全であったり、矛盾を含んで
いる場合には、処理不能となってしまう。このような問
題点を解決するために、未対応・矛盾対応発見修正部4
1は、文字列領域抽出部43による処理の前に、罫線間
対応関係に対する未対応・矛盾対応を修正する。
At this time, if the correspondence between ruled lines is incomplete due to the lack of one of the structured features or contains a contradiction, it becomes impossible to process. In order to solve such a problem, the unfixed / contradictory correspondence discovery / correction unit 4
1 corrects the non-correspondence / contradiction correspondence with respect to the correspondence between ruled lines before the processing by the character string area extraction unit 43.

【0230】未対応・矛盾対応発見修正部41は、以下
の処理(1)(2)を実施する。
The non-correspondence / contradiction correspondence finding / correcting unit 41 carries out the following processes (1) and (2).

【0231】(1)モデルの罫線集合を構成する罫線特
徴のうち入力罫線に対応付いてないものを検出し、すで
に対応付いている他の対応関係を利用し、入力罫線集合
において対応付くものを発見するか、対応付くべきもの
を仮想入力罫線として自動的に発生させて、新たに入力
罫線集合に加える。
(1) Among the ruled line features that make up the model ruled line set, those that are not associated with the input ruled line are detected, and the other features that are already associated are used to identify those that are associated with the input ruled line set. A virtual input ruled line to be discovered or associated is automatically generated and newly added to the input ruled line set.

【0232】(2)上記(1)の処理を行なうと図29
に示すような矛盾が生じてしまう場合には、それを解消
し、無矛盾な対応関係を生みだすようにする。
(2) When the processing of (1) above is performed, FIG.
If a contradiction such as the one shown in Figure 6 occurs, it is resolved and a consistent relationship is created.

【0233】このような未対応・矛盾対応発見修正部3
9の動作は、例えば図30に示すフローチャートに従
う。図30に示すフローチャートの各ステップの処理動
作は以下のようになる。ただし、この時点でも入力罫線
集合の各要素は対応付いているモデル罫線集合の座標系
に変換されたままであるものとする。
Such unsupported / contradictory correspondence discovery / correction unit 3
The operation of 9 follows the flowchart shown in FIG. 30, for example. The processing operation of each step of the flowchart shown in FIG. 30 is as follows. However, it is assumed that each element of the input ruled line set is still converted to the coordinate system of the associated model ruled line set at this point.

【0234】f1:当該モデル罫線集合の要素のうち、
特徴のimage に−1が付与されているものを検出する。
F1: Of the elements of the model ruled line set,
The feature image with -1 is detected.

【0235】f2:着目モデル罫線特徴の左上端の座標
値(mx1 ,my1 )と右下端の座標値(mx2 ,my
2 )に対して、それぞれ以下のように探索範囲を設け
る。ここで、しきい値th8 が予め設定されているものと
する。
F2: Coordinate values (mx1, my1) at the upper left end and coordinate values (mx2, my) at the lower right end of the target model ruled line feature
For 2), the search ranges are set as follows. Here, it is assumed that the threshold value th8 is preset.

【0236】lim-x1 =mx1 −th8 lim-y1 =my1 −th8 lim-x2 =mx2 +th8 lim-y2 =my2 +th8 この探索範囲に含まれる入力罫線特徴のうち、着目モデ
ル罫線に最も近いものを検出する。この時、近さの尺度
を表す距離値は、例えば罫線特徴の重心間のユークリッ
ド距離で定義されてもよい。
Lim-x1 = mx1−th8 lim-y1 = my1−th8 lim-x2 = mx2 + th8 lim-y2 = my2 + th8 Among the input ruled line features included in this search range, the one closest to the target model ruled line is detected. To do. At this time, the distance value representing the measure of the closeness may be defined by, for example, the Euclidean distance between the centers of gravity of the ruled line features.

【0237】f3:仮想入力罫線として、以下の特徴
(罫線特徴)を有するものを生成する。罫線特徴は、左
上端の位置座標(kx1 ,ky1 )、右下端の位置座標
(kx2 ,ky2 )、縦幅(k−height)、横幅(k−
width )、重心の位置座標(kcx,kcy)を含む。
F3: A virtual input ruled line having the following features (ruled line feature) is generated. The ruled line features are position coordinates (kx1, ky1) at the upper left end, position coordinates (kx2, ky2) at the lower right end, vertical width (k-height), and horizontal width (k-
width) and the position coordinates (kcx, kcy) of the center of gravity.

【0238】f4:着目モデル罫線が、 1.水平罫線の場合、着目モデル罫線の両端に接続する
垂直モデル罫線をそれぞれ検出する。これらの垂直モデ
ル罫線が、(a) 存在し、かつそれに対応付く入力罫線が
存在する場合には、その垂直入力罫線特徴の左上端と右
下端の位置座標のうちx座標値のみを、それぞれkx1
とkx2 に格納する。
F4: The target model ruled line is 1. In the case of horizontal ruled lines, vertical model ruled lines connected to both ends of the model ruled line of interest are detected. If these vertical model ruled lines exist (a) and the input ruled lines corresponding to them exist, only the x coordinate value of the position coordinates of the upper left end and the lower right end of the vertical input ruled line feature is respectively kx1.
And kx2.

【0239】(b) 存在しない場合、もしくは垂直モデル
罫線が存在してもそれに対応付く入力罫線が存在しない
場合には、着目水平モデル罫線の位置座標値であるmx
1 とmx2 をそれぞれkx1 とkx2 に格納する。
(B) If it does not exist, or if there is a vertical model ruled line but no corresponding input ruled line, the position coordinate value mx of the horizontal model ruled line of interest.
Store 1 and mx2 in kx1 and kx2, respectively.

【0240】2.垂直罫線の場合、着目モデル罫線の位
置座標値であるmx1 とmx2 をそれぞれkx1 とkx
2 に格納する。
2. In the case of a vertical ruled line, the position coordinate values mx1 and mx2 of the model ruled line of interest are set to kx1 and kx, respectively.
Store in 2.

【0241】f5:着目モデル罫線が、 1.垂直罫線の場合、着目モデル罫線の両端に接続する
水平モデル罫線をそれぞれ検出する。これらの水平モデ
ル罫線が、(a) 存在し、かつそれに対応付く入力罫線が
存在する場合には、その垂直入力罫線特徴の左上端と右
下端の位置座標のうちy座標値のみを、それぞれky1
とky2 に格納する。
F5: The target model ruled line is 1. In the case of vertical ruled lines, the horizontal model ruled lines connected to both ends of the model ruled line of interest are detected. If these horizontal model ruled lines (a) exist and the corresponding input ruled lines also exist, only the y coordinate value of the position coordinates of the upper left end and the lower right end of the vertical input ruled line feature is determined by ky1
And ky2.

【0242】(b) 存在しない場合、もしくは水平モデル
罫線が存在してもそれに対応付く入力罫線が存在しない
場合には、着目垂直モデル罫線の位置座標値であるmy
1 とmy2 をそれぞれky1 とky2 に格納する。
(B) If it does not exist, or if there is a horizontal model ruled line but no corresponding input ruled line, the position coordinate value my of the vertical model ruled line of interest is my.
Store 1 and my2 in ky1 and ky2, respectively.

【0243】2.水平罫線の場合、着目モデル罫線の位
置座標値であるmy1 とmy2 をそれぞれky1 とky
2 に格納する。
2. In the case of a horizontal ruled line, the position coordinate values my1 and my2 of the target model ruled line are set to ky1 and ky, respectively.
Store in 2.

【0244】f6:f2で検出モデル罫線特徴のimage
を調べる。image に−1がセットされている場合には、
図30のフローチャートでNOの方向に、−1以外の値
がセットされている場合にはYESの方向に処理を進め
る。
F6: An image of the feature of the detected model ruled line at f2
Find out. If image is set to -1,
If a value other than -1 is set in the direction of NO in the flowchart of FIG. 30, the process proceeds in the direction of YES.

【0245】f7:着目モデル罫線が水平罫線の場合、
着目モデル罫線の両端に接続する垂直モデル罫線をそれ
ぞれ検出する。これらの垂直モデル罫線が、 1.存在し、かつそれら対応付く入力罫線が存在する場
合には、その垂直入力罫線特徴の左上端と右下端の位置
座標のうちx座標値のみをそれぞれ着目水平入力罫線の
左上端と右下端のx座標値に格納する。
F7: When the target model ruled line is a horizontal ruled line,
The vertical model ruled lines connected to both ends of the model ruled line of interest are detected. These vertical model lines are: If they exist and there is an input ruled line corresponding to them, only the x-coordinate value of the position coordinates of the upper left corner and the lower right corner of the vertical input ruled line feature is respectively considered as the x at the upper left corner and the lower right corner of the horizontal input ruled line. Store in coordinate values.

【0246】2.存在しない場合、もしくは垂直モデル
罫線が存在してもそれに対応付く入力罫線が存在しない
場合には、着目水平モデル罫線の位置座標値であるmx
1とmx2 をそれぞれ着目水平入力罫線の左上端と右下
端のx座標値に格納する。
2. If it does not exist, or if there is a vertical model ruled line but no corresponding input ruled line, the position coordinate value mx of the horizontal model ruled line of interest.
1 and mx2 are stored in the x coordinate values of the upper left corner and the lower right corner of the horizontal input ruled line of interest, respectively.

【0247】f8:着目モデル罫線が垂直罫線の場合、
着目モデル罫線の両端に接続する水平モデル罫線をそれ
ぞれ検出する。これらの水平モデル罫線が、 1.存在し、かつそれに対応付く入力罫線が存在する場
合には、その水平入力罫線特徴の左上端と右下端の位置
座標のうちy座標値のみをそれぞれ着目水平入力罫線の
左上端と右下端のy座標値に格納する。
F8: When the target model ruled line is a vertical ruled line,
The horizontal model ruled lines connected to both ends of the target model ruled line are respectively detected. These horizontal model lines are: If it exists and there is an input ruled line corresponding to it, only the y coordinate value of the position coordinates of the upper left corner and the lower right corner of the horizontal input ruled line feature is only the y coordinates of the upper left corner and the lower right corner of the horizontal input ruled line of interest, respectively. Store in coordinate values.

【0248】2.存在しない場合、もしくは水平モデル
罫線が存在してもそれに対応付く入力罫線が存在しない
場合には、着目垂直モデル罫線の位置座標値であるmy
1とmy2 をそれぞれ着目垂直入力罫線の左上端と右下
端のy座標値に格納する。
2. If it does not exist, or if there is a horizontal model ruled line but no corresponding input ruled line, the position coordinate value my of the vertical model ruled line of interest is my.
1 and my2 are stored in the y coordinate values of the upper left corner and the lower right corner of the vertical input ruled line of interest, respectively.

【0249】図30に示すフローチャートの具体的な動
作を図9に示す入力構造化特徴と図14に示すモデル構
造化特徴を用いて説明する。当該モデル罫線特徴集合の
うちm1 vl4 のみ、対応付く入力罫線が存在しない。
従って、図30のフローチャートのステップf1でm1
vl4 が検出される。次いで、ステップf2において、
1 vl4 の探索範囲に含まれるivl4 を検出し、さ
らにステップf6でivl4 に対応付くモデル罫線とし
てm1 vl5 とm1 vl6 を検出する。このうち、m1
vl6 とm1 vl4 は共存できる(同時に存在できる)
が、m1 vl4とm1 vl5 の両立性は矛盾する。そこ
で、ステップf9でm1 vl4 とm1 vl5 のどちらが
当該入力罫線に近いかが判断され、その結果、m1 vl
4 の方が近いことが分かる。これによりステップf10
でivl4 とm1 vl5 の対応関係が無効とされ、ステ
ップf11,f12において、m1 vl4 とivl4
対応が新たに生成され、これにより生じる座標値の変更
がステップf7,f8で行なわれる。
The specific operation of the flow chart shown in FIG. 30 will be described with reference to the input structured feature shown in FIG. 9 and the model structured feature shown in FIG. Of the model ruled line feature set, only m 1 vl 4 has no associated input ruled line.
Thus, m 1 in step f1 of the flow chart of FIG. 30
vl 4 is detected. Then, in step f2,
ivl 4 included in the search range of m 1 vl 4 is detected, and m 1 vl 5 and m 1 vl 6 are detected as model ruled lines corresponding to ivl 4 in step f6. Of these, m 1
vl 6 and m 1 vl 4 can coexist (can exist at the same time)
However, the compatibility of m 1 vl 4 and m 1 vl 5 is contradictory. Therefore, in step f9, it is determined which of m 1 vl 4 and m 1 vl 5 is closer to the input ruled line, and as a result, m 1 vl 4 is determined.
You can see that 4 is closer. As a result, step f10
Then, the correspondence between ivl 4 and m 1 vl 5 is invalidated, a correspondence between m 1 vl 4 and ivl 4 is newly generated in steps f11 and f12, and the resulting change in the coordinate values is performed in steps f7 and f8. Done.

【0250】ステップf10で対応関係を無効とされた
ことにより、m1 vl5 に対応付く入力罫線が存在しな
くなった。これをステップf14で検知したあと、m1
vl5 に対応付く入力罫線の発見・設定処理が行なわれ
る。まず、ステップf2でm1 vl5 の探索範囲でiv
4 を発見し、ステップf6でivl4 に対応付くモデ
ル罫線としてm1 vl4 とm1 vl6 を検出する。この
うち、m1 vl6 とm1 vl5 は共存できる(同時に存
在できる)が、m1 vl4 とm1 vl5 の両立性は矛盾
することがわかっており、さらにm1 vl4 の方がm1
vl5 より近いことが分かっているので、m1 vl5
対応する入力罫線は当該入力罫線集合では見つからなか
ったとして、ステップf3で仮想入力罫線を生成させ、
その位置座標をステップf4とf5で設定し、ステップ
f13で当該罫線集合に加える。この結果、当該モデル
罫線集合に未対応モデル罫線がなくなり、未対応・矛盾
対応発見修正手段39における処理は終了となる。
Since the correspondence is invalidated in step f10, there is no input ruled line associated with m 1 vl 5 . After detecting this in step f14, m 1
The input ruled line corresponding to vl 5 is found and set. First, in step f2, iv is set in the search range of m 1 vl 5.
l 4 is found, and m 1 vl 4 and m 1 vl 6 are detected as model ruled lines corresponding to ivl 4 in step f6. Of these, m 1 vl 6 and m 1 vl 5 can coexist (can exist at the same time), but it is known that the compatibility of m 1 vl 4 and m 1 vl 5 is inconsistent, and m 1 vl 4 is more compatible. Is m 1
Since it is known that the input ruled line corresponding to m 1 vl 5 is not found in the input ruled line set since it is closer than vl 5 , a virtual input ruled line is generated in step f3,
The position coordinates are set in steps f4 and f5, and added to the ruled line set in step f13. As a result, there is no uncorresponding model ruled line in the model ruled line set, and the process in the uncorresponding / contradictory correspondence finding / correcting means 39 ends.

【0251】以上の処理結果により得られた罫線マッチ
ングに対して、以下の手順によって示されるマッチング
後処理を適用することによって、さらにマッチング結果
の精度を上げることができる。あるモデル罫線に対応付
くべき入力罫線の付近に当該モデル罫線との間の類似度
が高い線分(例えば取り消し線)が存在する場合、誤っ
てそれに対応づけてしまうことがある。以下の処理は、
このような誤りを解消するものである。
By applying the post-matching processing shown in the following procedure to the ruled line matching obtained by the above processing result, the accuracy of the matching result can be further improved. When there is a line segment (for example, a strike-through line) having a high degree of similarity with the model ruled line near the input ruled line that should be associated with a certain model ruled line, it may be erroneously associated with it. The following process
Such an error is eliminated.

【0252】Step1:モデル罫線(ml)を1つ抽
出する。
Step 1: One model ruled line (ml) is extracted.

【0253】Step2:その探索範囲(上述したar
eaml)内に存在する入力罫線(il)を抽出し、モデ
ルとの類似度(lsimml)を計算する。ここで、ml
h:mlの縦幅、mlw:mlの横幅、ilh:ilの
縦幅、ilw:ilの横幅とすると、mlが水平罫線の
場合には、 lsimml= 100− 200×|mlw−ilw|/(ml
w+ilw)とし、垂直罫線の場合には、 lsimml= 100− 200×|mlh−ilh|/(ml
h+ilh)とする。
Step 2: its search range (ar described above
The input ruled line (il) existing in (ea ml ) is extracted, and the similarity (lsim ml ) with the model is calculated. Where ml
If h: ml vertical width, mlw: ml horizontal width, ilh: il vertical width, and ilw: il horizontal width, then if ml is a horizontal ruled line, lsim ml = 100−200 × | mlw−ilw | / (Ml
w + ilw), and in the case of a vertical ruled line, lsim ml = 100−200 × | mlh−ilh | / (ml
h + ilh).

【0254】Step3:lsimml≧th10である入力
罫線(il′)をすべて抽出する。
Step 3: All input ruled lines (il ′) for which lsim ml ≧ th10 are extracted.

【0255】Step4:当該モデル罫線と対応づいて
いた入力罫線とil′の中で最も距離ddmlが近い罫線
を選び、あらためてそれを当該モデルに対応づける。こ
こで、mlの左上端と右下端の座標をそれぞれ(mlx
1 ,mly1 )、(mlx2,mly2 )、il′の左
上端と右下端をそれぞれ(il′x1 ,il′y1 )、
(il′x2 ,il′y2 )とすると、mlが水平罫線
の場合には、 ddml= min(mly1 ,il′y1 )− max(mly
2 ,il′y2 )+1 とし、垂直罫線の場合には、 ddml= min(mlx1 ,il′x1 )− max(mlx
2 ,il′x2 )+1 とする。
Step 4: Select the ruled line having the shortest distance dd ml among the input ruled lines that have been associated with the model ruled line and il ′, and associate it with the model again. Here, the coordinates of the upper left corner and the lower right corner of ml are (mlx
1, mly1), (mlx2, mly2), and the upper left and lower right ends of il 'are (il'x1, il'y1),
(Il'x2, il'y2), if ml is a horizontal ruled line, dd ml = min (mly1, il'y1) -max (mly
2, il'y2) +1, and in the case of a vertical ruled line, dd ml = min (mlx1, il'x1) -max (mlx
2, il'x2) +1.

【0256】以上の結果、入力構造化とモデル構造化特
徴間の対応付け処理は終了したことになり、入力文書の
すべての罫線特徴の座標系を元に戻すようにする。
As a result of the above, the association processing between the input structuring and the model structuring features is completed, and the coordinate systems of all ruled line features of the input document are restored.

【0257】未対応・矛盾対応発見修正手段39により
整合の得られた入力構造化特徴とモデル構造化特徴の対
応関係を用いて、入力文書の罫線特徴集合に対して、以
下に述べる罫線成形処理を施すことによって以後の処理
が安定に行なわれるようにしてもよい。
The ruled line forming process described below is performed on the ruled line feature set of the input document by using the correspondence relationship between the input structured feature and the model structured feature that are matched by the unsupported / contradictory correspondence finding / correcting means 39. The subsequent processing may be performed stably by applying the above.

【0258】例えば、図31に示すように、罫線特徴
(図中L1)の端点(図中E)がそれに直交する他の罫
線特徴(図中L2)に接していない場合には、L1の端
点の位置座標を変更して、L2に接するようにすること
で罫線特徴を成形する。この成形処理は、入力画像の水
平罫線集合と垂直罫線集合の両方に適用される。
For example, as shown in FIG. 31, when the end point (E in the figure) of the ruled line feature (L1 in the figure) is not in contact with another ruled line feature (L2 in the figure) orthogonal thereto, the end point of L1 The ruled line feature is formed by changing the position coordinates of the so as to be in contact with L2. This shaping process is applied to both the horizontal ruled line set and the vertical ruled line set of the input image.

【0259】水平罫線集合に対する罫線成形処理部の動
作は、例えば次のようになる。ここでL1の左上端の座
標値を(L1 x1 ,L1 y1 )、右下端の座標値を(L
1 x2 ,L1 y2 )、L2の左上端の座標値を(L2
1 ,L2 y1 )、右下端の座標値を(L2 x2 ,L2
2 )とする。
The operation of the ruled line forming processing section for a set of horizontal ruled lines is as follows, for example. Here, the coordinate value of the upper left corner of L1 is (L 1 x1, L 1 y1) and the coordinate value of the lower right corner is (L 1
1 x2, L 1 y2), the coordinate value of the upper left corner of L2 is (L 2 x
1, L 2 y 1) and the coordinate value of the lower right corner is (L 2 x 2, L 2 y
2)

【0260】Step1:入力画像に対応するモデル文
書の水平罫線特徴集合の任意の罫線特徴を選択する。
Step 1: Select an arbitrary ruled line feature of the horizontal ruled line feature set of the model document corresponding to the input image.

【0261】Step2:着目水平罫線の両端に接する
モデル垂直罫線を検出する。
Step 2: Detect model vertical ruled lines in contact with both ends of the target horizontal ruled line.

【0262】例えば、図31のL1の左端(点E)に接
するべき垂直罫線L2は、次のようにして検出される。
まず、探索領域を設定する。予め設定してあるしきい値
をth12とすると、探索領域は例えば、(L1 x1 −th1
2,(L1 y1 +L1 y2 )/2−th12)、(L1 x1
+th12,(L1 y1 +L1 y2 )/2+th12)で示され
る矩形(図31中の破線で示されている矩形)の内部と
する。
For example, the vertical ruled line L2 that should contact the left end (point E) of L1 in FIG. 31 is detected as follows.
First, the search area is set. Assuming that the threshold value set in advance is th12, the search area is, for example, (L 1 x1 −th1
2, (L 1 y1 + L 1 y2) / 2-th12), (L 1 x1
+ Th12, (L 1 y1 + L 1 y2) / 2 + th12) is the inside of the rectangle (the rectangle shown by the broken line in FIG. 31).

【0263】次に、探索領域に交差する垂直罫線のうち
以下に定義する距離:distが最小のものを抽出す
る。
Next, of the vertical ruled lines intersecting the search area, the one having the smallest distance: dist defined below is extracted.

【0264】 dist=|L1 x1 −(L2 x1 +L2 x2 )/2| Step3:着目モデル水平罫線に対応付いている入力
垂直罫線を抽出する。ここで、着目入力水平罫線の左上
端の位置座標値を(ix1 ,iy1 )、右下端の位置座
標値を(ix2 ,iy2 )とする。
Dist = | L 1 x1 − (L 2 x1 + L 2 x2) / 2 | Step 3: Extract the input vertical ruled line associated with the target model horizontal ruled line. Here, the position coordinate value of the upper left end of the focused input horizontal ruled line is (ix1, iy1), and the position coordinate value of the lower right end is (ix2, iy2).

【0265】Step4:着目モデル水平罫線の左端に
接するモデル垂直罫線に対応付いている入力垂直罫線を
抽出する。ここで、その左上端の位置座標値を(lx1
,ly1 )、右下端の位置座標値を(lx2 ,ly2
)とする。
Step 4: The input vertical ruled line corresponding to the model vertical ruled line in contact with the left end of the model horizontal ruled line of interest is extracted. Here, the position coordinate value of the upper left corner is (lx1
, Ly1), and the position coordinate value of the lower right corner is (lx2, ly2
).

【0266】Step5:着目モデル水平罫線の右端に
接するモデル垂直罫線に対応付いている入力垂直罫線を
抽出する。ここで、その左上端の位置座標値を(rx1
,ry1 )、右下端の位置座標値を(rx2 ,ry2
)とする。
Step 5: The input vertical ruled line associated with the model vertical ruled line in contact with the right end of the target model horizontal ruled line is extracted. Here, the position coordinate value of the upper left end is (rx1
, Ry1) and the position coordinate value of the lower right corner is (rx2, ry2
).

【0267】Step6:着目入力水平罫線の左上端の
位置座標を((lx1 +lx2 )/2,iy1 )に変更
する。
Step 6: The position coordinate of the upper left end of the input horizontal ruled line of interest is changed to ((lx1 + lx2) / 2, iy1).

【0268】Step7:着目入力水平罫線の右下端の
位置座標を((rx1 +rx2 )/2,iy2 )に変更
する。
Step 7: Change the position coordinates of the lower right corner of the input horizontal ruled line of interest to ((rx1 + rx2) / 2, iy2).

【0269】Step8:Step2からStep7ま
での処理を、すべてのモデル水平罫線特徴に対して行な
う。
Step 8: The processing from Step 2 to Step 7 is performed on all the model horizontal ruled line features.

【0270】文書構造獲得部41は、入力文書とモデル
文書との間で矛盾のない構造化特徴間対応関係が得られ
た場合には、以下に示す処理を行なうことにより入力文
書の構造を獲得する。すなわち、モデル登録部31で予
め登録されている当該モデル文書の知識を、構造化特徴
間対応関係に基づいて入力文書にコピーすることによ
り、入力文書の構造を獲得したものと見なす。
The document structure acquisition unit 41 acquires the structure of the input document by performing the following processing when a consistent structured feature correspondence relationship is obtained between the input document and the model document. To do. That is, it is considered that the structure of the input document is acquired by copying the knowledge of the model document registered in advance in the model registration unit 31 into the input document based on the correspondence between the structured features.

【0271】具体的に説明すると、まず、モデル文書の
各罫線特徴に付与されている識別番号(以後、idと呼
ぶ)を罫線対応関係に基づいて、それに対応付いている
入力文書の罫線特徴に付与する。
More specifically, first, the identification number (hereinafter referred to as id) given to each ruled line feature of the model document is determined based on the ruled line correspondence to the ruled line feature of the input document associated therewith. Give.

【0272】次いで、モデル文書に対して定義されてい
る種々の知識を入力文書に対して用意されている、知識
を格納するためのメモリ43bの所定の領域にコピーす
る。後段の文字列領域抽出部43、文字認識部45、文
字認識結果出力部47は、メモリ43bの所定の領域に
コピーされた知識に基づいて動作する。
Next, the various kinds of knowledge defined for the model document are copied to predetermined areas of the memory 43b for storing the knowledge prepared for the input document. The character string area extraction unit 43, the character recognition unit 45, and the character recognition result output unit 47 in the subsequent stage operate based on the knowledge copied to a predetermined area of the memory 43b.

【0273】文字列領域抽出部43は、文書構造獲得部
41で得られた当該文書に関する知識を用いて、認識対
象文字列領域として定義されている領域のみを入力画像
から切り出す。認識対象文字列領域は、例えば領域を囲
んでいる上下左右の罫線のそれぞれの識別番号で定義さ
れていてもよい。この場合、文字列領域抽出部43で
は、入力文書画像中に位置するそれらの罫線の内側の部
分を入力画像から切り出すことにより文字列領域を抽出
する。
The character string area extracting unit 43 cuts out only the area defined as the character string area to be recognized from the input image by using the knowledge about the document obtained by the document structure acquiring unit 41. The recognition target character string area may be defined by, for example, respective identification numbers of upper, lower, left, and right ruled lines surrounding the area. In this case, the character string area extracting unit 43 extracts the character string area by cutting out the portions inside the ruled lines located in the input document image from the input image.

【0274】文字認識部45は、文字列領域抽出部43
において抽出された文字列画像を、その文字列領域につ
いて定義されている知識を制約条件として用いて、例え
ば文献「信学技報、PRU93−47、1993」に記
載されている方式に基づいた処理により、文字切り出し
/認識処理を行ない、コードデータに変換する。
The character recognizing unit 45 has a character string area extracting unit 43.
Using the knowledge defined for the character string area as a constraint condition, the character string image extracted in 1) is processed based on the method described in, for example, the literature “Science Technical Report, PRU93-47, 1993”. By this, character cutting / recognition processing is performed and converted into code data.

【0275】このとき、各文字認識結果は類似度の降順
にソートされており、上位N位まで保持されているよう
にしてもよい。また、認識結果はオペレータとシステム
との対話的な修正作業により修正されるようになってい
てもよい。
At this time, the character recognition results are sorted in descending order of similarity, and the upper N ranks may be held. Further, the recognition result may be corrected by interactive correction work between the operator and the system.

【0276】文字認識結果出力部47は、文字認識部4
5による文字認識結果に対して、文字単位で修正が済ん
だ文字コードデータに応じて、入力文書に対応付いたモ
デルに関して予め指定されている出力形態に基づき、デ
ィスプレイあるいはファイルに出力する。
The character recognition result output unit 47 is the character recognition unit 4
The character recognition result of 5 is output to a display or a file based on an output form designated in advance for a model associated with an input document according to the character code data corrected in character units.

【0277】このようにして、本発明では、入力画像か
ら抽出した罫線特徴を、特徴構造化部29において構造
化して、さらに表特徴、接合部に関する特徴などを抽出
し、それらの関係を抽出・管理する。これらの情報を用
いて、モデル登録部31によって予め登録されているモ
デル文書のフォーマットに関する構造化特徴間で対応付
け処理を行なう。このとき、モデル照合部35によっ
て、入力文書とモデル文書の間で表特徴集合間の照合処
理を行ない、さらにその中に含まれる罫線特徴集合間で
照合処理を行なうことにより、以下のような効果が得ら
れる。
As described above, according to the present invention, the ruled line feature extracted from the input image is structured by the feature structuring unit 29, and the table feature and the feature relating to the joint are extracted, and the relation between them is extracted. to manage. Using these pieces of information, the associating process is performed between the structured features related to the format of the model document registered in advance by the model registration unit 31. At this time, the model matching unit 35 performs the matching process between the table feature sets between the input document and the model document, and further performs the matching process between the ruled line feature sets included therein, whereby the following effects are obtained. Is obtained.

【0278】1.階層的な照合処理を行なうので計算量
を少なくすることができる。
1. Since a hierarchical matching process is performed, the amount of calculation can be reduced.

【0279】2.表が複数混在している場合も取り扱う
ことができる。
2. It is possible to handle the case where multiple tables are mixed.

【0280】3.表単位の照合処理を行なうことにより
全体的な配置関係を考慮することができ、局所的に見て
同じ特徴量を有する場合でも対応付け誤りが生じない。
3. By performing the table-by-table matching process, the overall layout relationship can be taken into consideration, and even if the same feature amount is seen locally, a matching error does not occur.

【0281】4.表間対応ごとに大きさの倍率に関する
パラメータを求めることができ、モデル表に対応する入
力表の大きさに関するパラメータがそれぞれ独立した値
を持つような文書を取り扱うことができる。
4. It is possible to obtain a parameter related to the size magnification for each correspondence between tables, and it is possible to handle a document in which the parameters related to the size of the input table corresponding to the model table have independent values.

【0282】5.表が印刷品質の劣化などにより分裂し
ている場合も取り扱うことができる。
5. Even if the table is divided due to deterioration of print quality, it can be handled.

【0283】6.入力文書とモデル文書の間で罫線間の
対応関係を求めるので、罫線がかすれていたり、途切れ
ていたり、欠落している場合や余分な特徴抽出結果があ
る場合にも対応できる。
6. Since the correspondence between the ruled lines is obtained between the input document and the model document, it is possible to deal with the case where the ruled lines are faint, broken or missing, or when there is an extra feature extraction result.

【0284】7.罫線単位で対応付け処理を行なうとき
に、複数対複数の対応を許しているので、罫線分布が局
所的に変動している場合にも対応できる。
7. When the matching process is performed in ruled line units, plural-to-plural correspondence is permitted, so that it is possible to cope with a case where the ruled line distribution locally changes.

【0285】照合処理結果に対しては、照合結果判定部
37によって、照合度を用いてその妥当性を評価するこ
とにより、正しい対応付け結果のみを採用することがで
きる。
With respect to the collation processing result, the collation result determination section 37 evaluates the validity of the collation degree using the degree of collation, so that only the correct association result can be adopted.

【0286】さらに、照合処理結果に対して、未対応・
矛盾対応発見修正部39によって、不完全な対応結果を
発見し、修正するので以下のような効果が得られる。
Furthermore, the collation processing result is not supported.
Since the inconsistent correspondence finding / correcting unit 39 finds and corrects the incomplete correspondence result, the following effects can be obtained.

【0287】1.印刷の品質の悪い文書にも対応でき
る。
1. It can handle documents with poor print quality.

【0288】2.特徴抽出結果が不完全である場合にも
対応できる。
2. It is possible to deal with incomplete feature extraction results.

【0289】3.対応関係に基づいている後段の処理で
処理不能となることがない。
3. There is no case where processing cannot be performed in the subsequent processing based on the correspondence relationship.

【0290】4.未対応箇所に対して、特徴抽出時のパ
ラメータを調整して未検出な画像特徴の抽出が可能とな
る。
4. It is possible to extract undetected image features by adjusting the parameters at the time of feature extraction for uncorresponding parts.

【0291】また、本発明ではモデル照合処理の前に、
フォーマット種別同定部33によって、入力文書の書式
構造種別の同定処理を行なうことにより、照合処理で適
用すべきモデルの種類を絞りこむので、無駄な照合処理
を行なわないため、以下のような効果がある。
In the present invention, before the model matching process,
Since the format type identification unit 33 performs the identification process of the format structure type of the input document to narrow down the types of models to be applied in the collation process, wasteful collation process is not performed, and the following effects are obtained. is there.

【0292】1.計算量が少ない。1. The calculation amount is small.

【0293】2.構造のかけ離れたものにむりやり対応
付けることがないため高精度な処理結果が得られる。
2. Highly accurate processing results can be obtained because there is no need to unreasonably associate objects with dissimilar structures.

【0294】3.オペレータが対象文書ごとにモデルを
手動で与える必要がないので、システムの自動運転が可
能となる。
3. Since the operator does not have to manually give a model for each target document, the system can be automatically operated.

【0295】4.モデル登録時に正立したモデルフォー
マットから、左および右に90度回転させたもの、18
0度回転させたものの4種類を登録し、モデル照合時に
これらと対応付け処理を行なうことにより、文書の入力
方向を限定しなくてもよい。
4. From the model format that was upright when the model was registered, rotated 90 degrees to the left and right, 18
It is not necessary to limit the input direction of the document by registering the four types that have been rotated by 0 ° and performing the matching process with these at the time of model matching.

【0296】[0296]

【発明の効果】以上詳述したように本発明によれば、表
形式の帳票などの書式構造を正確に認識でき、効率の良
い文字列の領域の特定が可能となるものである。
As described in detail above, according to the present invention, the format structure of a tabular form or the like can be accurately recognized, and the area of a character string can be efficiently specified.

【図面の簡単な説明】[Brief description of drawings]

【図1】本発明の一実施例に係わる画像処理装置の概略
構成を示すブロック図。
FIG. 1 is a block diagram showing a schematic configuration of an image processing apparatus according to an embodiment of the present invention.

【図2】本実施例における処理対象文書の一例を示す
図。
FIG. 2 is a diagram showing an example of a document to be processed in this embodiment.

【図3】本発明の一実施例である文字認識装置と組み合
わせた文書画像処理システムの概略構成を示すブロック
図。
FIG. 3 is a block diagram showing a schematic configuration of a document image processing system combined with a character recognition device which is an embodiment of the present invention.

【図4】本実施例における特徴抽出部27の構成を示す
ブロック図。
FIG. 4 is a block diagram showing the configuration of a feature extraction unit 27 in this embodiment.

【図5】入力画像から抽出された線分素の例を示す図。FIG. 5 is a diagram showing an example of line segment elements extracted from an input image.

【図6】入力画像から抽出された文字候補矩形の例を示
す図。
FIG. 6 is a diagram showing an example of character candidate rectangles extracted from an input image.

【図7】本実施例における特徴抽出部27の他の構成を
示すブロック図。
FIG. 7 is a block diagram showing another configuration of a feature extraction unit 27 in this embodiment.

【図8】文字候補矩形に交差・内包する線分素の例を示
す図。
FIG. 8 is a diagram showing an example of line segment elements that intersect / include a character candidate rectangle.

【図9】入力画像から抽出された罫線特徴の例を示す
図。
FIG. 9 is a diagram showing an example of ruled line features extracted from an input image.

【図10】本実施例における特徴構造化部29の構成を
示すブロック図。
FIG. 10 is a block diagram showing the configuration of a characteristic structuring unit 29 in this embodiment.

【図11】入力画像から抽出された表特徴の例を示す
図。
FIG. 11 is a diagram showing an example of table features extracted from an input image.

【図12】入力画像から抽出された接合部特徴の例を示
す図。
FIG. 12 is a diagram showing an example of a joint feature extracted from an input image.

【図13】階層的に関連づけられて管理される特徴に関
する情報の一例を示す図。
FIG. 13 is a diagram showing an example of information about features that are hierarchically associated and managed.

【図14】モデル文書の一例を示す図。FIG. 14 is a diagram showing an example of a model document.

【図15】モデル文書の一例を示す図。FIG. 15 is a diagram showing an example of a model document.

【図16】本実施例におけるモデル照合部35の構成を
示すブロック図。
FIG. 16 is a block diagram showing the configuration of a model matching unit 35 in this embodiment.

【図17】本実施例における表照合部35bの構成を示
すブロック図。
FIG. 17 is a block diagram showing the configuration of a table matching unit 35b in this embodiment.

【図18】任意の矩形領域の周辺に関する領域を定義す
るための説明に用いる図。
FIG. 18 is a diagram used for description to define a region related to the periphery of an arbitrary rectangular region.

【図19】本実施例における最良マッチング抽出部35
b−3の構成を示すブロック図。
FIG. 19 is the best matching extraction unit 35 in this embodiment.
The block diagram which shows the structure of b-3.

【図20】連合グラフの一例を示す図。FIG. 20 is a diagram showing an example of a association graph.

【図21】表特徴の分裂および接触の例を示す図。FIG. 21 shows an example of splitting and contacting table features.

【図22】本実施例における罫線照合部35cの構成を
示すブロック図。
FIG. 22 is a block diagram showing the configuration of a ruled line matching unit 35c in this embodiment.

【図23】本実施例における垂直罫線照合部35c−2
および水平罫線照合部35c−3の構成を示すブロック
図。
FIG. 23 is a vertical ruled line matching unit 35c-2 according to the present embodiment.
3 is a block diagram showing the configuration of a horizontal ruled line matching unit 35c-3. FIG.

【図24】1本の罫線が分離している場合の例を示す
図。
FIG. 24 is a diagram showing an example in which one ruled line is separated.

【図25】分離している罫線を統合した例を示す図。FIG. 25 is a view showing an example in which separated ruled lines are integrated.

【図26】複数のモデル罫線と複数の入力罫線が対応付
く例を示す図。
FIG. 26 is a diagram showing an example in which a plurality of model ruled lines are associated with a plurality of input ruled lines.

【図27】任意の1本のモデル罫線特徴に対応付く可能
性のある入力罫線特徴を抽出するための探索範囲の例を
示す図。
FIG. 27 is a diagram showing an example of a search range for extracting an input ruled line feature that may be associated with any one model ruled line feature.

【図28】連合グラフの一例を示す図。FIG. 28 is a diagram showing an example of the association graph.

【図29】未対応・矛盾対応発見抽出処理により矛盾し
た対応が生じてしまう例を示す図。
FIG. 29 is a diagram showing an example in which inconsistent correspondence occurs due to an unsupported / contradictory correspondence discovery / extraction process.

【図30】未対応・矛盾対応発見抽出処理の流れ示すフ
ローチャートの例を表す図。
FIG. 30 is a diagram showing an example of a flowchart showing a flow of uncorrespondence / contradiction correspondence discovery / extraction processing.

【図31】罫線特徴の端点がそれに直交する他の罫線特
徴に接していない例を示す図。
FIG. 31 is a diagram showing an example in which an end point of a ruled line feature is not in contact with another ruled line feature orthogonal to it.

【符号の説明】[Explanation of symbols]

11,21…画像入力部、12…特徴抽出部、13…特
徴構造化部、14…書式構造情報登録部、15…書式構
造種別同定部、16…書式構造情報照合部、17…未対
応・矛盾対応発見修正部、18…照合結果判定部、19
…文書構造獲得部、23…2値化処理部、25…前処理
部、27…特徴抽出部、27a…線分抽出部、27b…
文字候補矩形抽出部、27c…罫線特徴抽出部、27d
…フィルタリング処理部、29…特徴構造化部、29a
…罫線グループ化処理部、29b…表特徴抽出部、29
c…罫線接合部検出部、29d…特徴間関係記述部、3
1…モデル登録部、33…フォント種別同定部、35…
モデル照合部、35a…選択部、35b…表照合部、3
5b−1…対応可能ペア検出部、35b−2…異種対応
可能ペア間両立関係判定部、35b−3…最良マッチン
グ抽出部、35b−3a…連合グラフ作成部,35b−
3b…最大クリーク抽出部、35c…罫線照合部、35
c−1…表対応選択部、35c−2…垂直罫線照合部、
35c−2a…対応可能罫線特徴ペア検出部、35c−
2b…対応可能罫線特徴ペア間両立性判定部、35c−
2c…最良マッチング抽出部、35c−3…水平罫線照
合部、35c−4…方向間整合獲得部、35d…照合度
計算部、35e…照合結果出力部、37…照合結果判定
部、39…未対応矛盾対応発見修正部、41…文書構造
獲得部、43…文字列領域抽出部、45…文字認識部、
47…文字認識結果出力部。
11, 21 ... Image input section, 12 ... Feature extraction section, 13 ... Feature structuring section, 14 ... Format structure information registration section, 15 ... Format structure type identifying section, 16 ... Format structure information collating section, 17 ... Not supported Conflict correspondence finding / correction unit, 18 ... Collation result determination unit, 19
... Document structure acquisition unit, 23 ... Binarization processing unit, 25 ... Pre-processing unit, 27 ... Feature extraction unit, 27a ... Line segment extraction unit, 27b ...
Character candidate rectangle extraction unit, 27c ... Ruled line feature extraction unit, 27d
... Filtering processing unit, 29 ... Feature structuring unit, 29a
... Ruled line grouping processing unit, 29b ... Table feature extraction unit, 29
c ... Ruled line joint detecting section, 29d ... Inter-feature relation describing section, 3
1 ... Model registration unit, 33 ... Font type identification unit, 35 ...
Model collating unit, 35a ... Selecting unit, 35b ... Table collating unit, 3
5b-1 ... Corresponding pair detection unit, 35b-2 ... Heterogeneous correspondence inter-pair compatibility relationship determination unit, 35b-3 ... Best matching extraction unit, 35b-3a ... Union graph creation unit, 35b-
3b ... Maximum clique extraction unit, 35c ... Ruled line collation unit, 35
c-1 ... Table correspondence selection unit, 35c-2 ... Vertical ruled line collation unit,
35c-2a ... Compatible ruled line feature pair detection unit, 35c-
2b ... Compatible ruled line feature pair compatibility determination unit, 35c-
2c ... best matching extraction unit, 35c-3 ... horizontal ruled line collation unit, 35c-4 ... direction matching acquisition unit, 35d ... collation degree calculation unit, 35e ... collation result output unit, 37 ... collation result determination unit, 39 ... not yet Correspondence contradiction correspondence finding / correction unit, 41 ... Document structure acquisition unit, 43 ... Character string region extraction unit, 45 ... Character recognition unit,
47 ... Character recognition result output unit.

Claims (10)

【特許請求の範囲】[Claims] 【請求項1】 文書より入力画像を生成する画像入力手
段と、 入力画像の書式構造を認識するために用いられる処理対
象文書の書式構造に関する情報(書式構造モデル)を予
め登録する書式構造情報登録手段と、 前記画像入力手段により生成された入力画像から幾何学
的な図形特徴量を抽出する特徴抽出手段と、 前記特徴抽出手段より抽出された図形特徴量をグループ
化して画像特徴を生成し、それぞれの画像特徴間の関係
を抽出・管理する特徴構造化手段と、 前記特徴構造化手段で得られた入力画像の画像特徴と、
前記書式構造情報登録手段によって予め登録されている
処理対象文書の書式構造に関する情報を用いて、入力文
書の書式構造の種別の候補を絞りこむ書式構造種別同定
手段と、 前記書式構造同定手段で候補となったすべての書式構造
モデルと前記特徴構造化手段で構造化された入力文書の
特徴との間で対応付けを行ない、最も良く対応づいた書
式構造モデルと入力文書の組を選択し、その対応関係を
獲得する書式構造情報照合手段と、 前記書式構造情報照合手段で選択された書式構造文書と
入力文書における構造化特徴間の対応付けにおいて、不
完全な対応付けおよび矛盾した対応付けを解消すること
により整合のとれた前記書式構造モデルと入力文書の構
造化された特徴間の対応関係を獲得する未対応・矛盾対
応発見修正手段と、 前記未対応・矛盾対応発見修正手段によって得られた前
記書式構造モデルと入力文書の構造化された特徴間の対
応関係に基づいて、予め登録されている当該書式構造モ
デルに関する情報を入力文書にコピーすることにより入
力文書の書式構造と関連情報を獲得する文書構造獲得手
段と、 を具備することを特徴とする文書画像処理装置。
1. An image input means for generating an input image from a document, and a format structure information registration for previously registering information (format structure model) on the format structure of a processing target document used for recognizing the format structure of the input image. Means, a feature extraction means for extracting a geometric figure feature quantity from the input image generated by the image input means, and a graphic feature quantity extracted by the feature extraction means are grouped to generate an image feature, Feature structuring means for extracting and managing the relationship between the respective image features, and image features of the input image obtained by the feature structuring means,
A format structure type identifying unit that narrows down candidates for the format structure type of the input document by using information about the format structure of the processing target document registered in advance by the format structure information registering unit, and a candidate by the format structure identifying unit. All the format structure models that have become and the features of the input document structured by the feature structuring means are associated with each other, and the set of the format structure model and the input document that best correspond to each other is selected. In the format structure information matching unit that obtains the correspondence relationship and in the correspondence between the format structure document selected by the format structure information matching unit and the structured feature in the input document, incomplete correspondence and inconsistent correspondence are eliminated. An uncorrespondence / contradiction correspondence finding / correcting means for acquiring the correspondence between the format structure model and the structured features of the input document which are matched by Copying, in the input document, information about the pre-registered format structure model based on the correspondence between the structure structure model and the structured features of the input document obtained by the response / contradiction correspondence finding / correcting means. A document image processing apparatus, comprising: a document structure acquisition means for acquiring the format structure of an input document and related information.
【請求項2】 文書より入力画像を生成する画像入力手
段と、 前記画像入力手段により生成された入力画像から線分と
文字成分に関する図形特徴を抽出し、さらに前記入力画
像における文字成分以外の領域から線分に関する特徴を
罫線を構成する図形特徴とみなして抽出する特徴抽出手
段と、 前記特徴抽出手段より抽出された罫線に関する図形特徴
をグループ化することにより表に関する特徴を抽出し、
各表に関する特徴において罫線が交差・接続する部分に
生じる接合部に関する情報を抽出し、それぞれの特徴間
の関係を抽出・管理する特徴構造化手段と、 を具備することを特徴とする文書画像処理装置。
2. An image input unit for generating an input image from a document, a line segment and a graphic feature relating to a character component are extracted from the input image generated by the image input unit, and the region other than the character component in the input image is further extracted. From the feature extraction means for extracting the features related to the line segment as the graphic features forming the ruled lines, and the feature related to the table by grouping the graphic features related to the ruled lines extracted by the feature extraction means,
Document image processing characterized by comprising: feature structuring means for extracting information about a joint portion generated at a portion where ruled lines intersect / connect in the feature relating to each table, and extracting / managing a relation between the features. apparatus.
【請求項3】 文書より入力画像を生成する画像入力手
段と、 前記画像入力手段により生成された入力画像から線分と
文字成分に関する図形特徴を抽出し、さらに前記入力画
像における文字成分以外の領域から線分に関する特徴を
罫線を構成する図形特徴とみなして抽出する罫線特徴抽
出手段と、 前記罫線特徴抽出手段より抽出された罫線に関する図形
特徴の集合に対して、交差・接続する罫線を同じグルー
プにまとめることにより表に関する特徴を抽出する表特
徴抽出手段と、 を具備することを特徴とする文書画像処理装置。
3. An image input unit for generating an input image from a document, a line segment and a graphic feature relating to a character component are extracted from the input image generated by the image input unit, and the region other than the character component in the input image is further extracted. The ruled line feature extracting means for extracting the feature relating to the line segment as a graphic feature forming the ruled line and the set of the graphic feature relating to the ruled line extracted by the ruled line feature extracting means are the same group of ruled lines intersecting / connecting A document image processing apparatus comprising: a table feature extracting unit that extracts a feature related to a table by combining the above.
【請求項4】 文書より入力画像を生成する画像入力手
段と、 入力画像の書式構造を認識するために用いられる処理対
象文書の書式構造に関する情報(書式構造モデル)を予
め登録する書式構造情報登録手段と、 前記画像入力手段によって生成された入力画像から線分
と文字成分に関する図形特徴を抽出し、さらに入力画像
における文字成分以外の領域から線分に関する特徴を罫
線に関する図形特徴とみなして抽出する特徴抽出手段
と、 前記特徴抽出手段より抽出された罫線に関する図形特徴
をグループ化することにより表に関する特徴を抽出し、
各表に関する特徴において罫線が交差・接続する部分に
生じる接合部に関する情報を抽出し、それぞれの特徴間
の関係を抽出・管理する特徴構造化手段と、 前記特徴構造化手段により得られた前記入力文書の表に
関する特徴と、予め前記書式構造情報登録手段により登
録されている書式構造モデルを構成する表に関する特徴
との間で照合処理を行い、表間対応関係を獲得する表照
合手段と、 前記表照合手段により得られた表の対応関係において入
力文書の表を構成する罫線と、同罫線に対応付く書式構
造モデルの表を構成する罫線との間の対応関係を獲得す
る罫線照合手段と、 前記照合処理結果に基づき特徴間の対応付きの程度を表
す照合度を計算し、正しい対応付けが行なわれているか
否かの判断を行なう照合結果判定手段と、 を具備することを特徴とする文書画像処理装置。
4. An image input means for generating an input image from a document, and format structure information registration for previously registering information (format structure model) relating to the format structure of a processing target document used for recognizing the format structure of the input image. Means and the graphic feature relating to the line segment and the character component from the input image generated by the image input means, and further extracting the feature relating to the line segment from the area other than the character component in the input image by regarding it as the graphic feature relating to the ruled line. A feature extraction unit and a feature related to a table are extracted by grouping graphic features related to ruled lines extracted by the feature extraction unit,
Feature structuring means for extracting information on a joint portion generated at a portion where ruled lines intersect / connect in the feature relating to each table, and extracting / managing a relation between the respective features, and the input obtained by the feature structuring means. Table collating means for performing collation processing between the characteristic relating to the table of the document and the characteristic relating to the table forming the format structure model registered in advance by the format structure information registering means, A ruled line collating unit that obtains a correspondence relationship between the ruled lines that form the table of the input document in the table correspondence obtained by the table matching unit and the ruled lines that form the table of the format structure model that corresponds to the ruled line, Collation result determining means for calculating the degree of collation indicating the degree of correspondence between the features based on the result of the collation processing, and determining whether or not the correct correspondence is performed. A document image processing device characterized by the above.
【請求項5】 文書より入力画像を生成する画像入力手
段と、 入力画像の書式構造を認識するために用いられる処理対
象文書の書式構造に関する情報(書式構造モデル)を予
め登録する書式構造情報登録手段と、 前記画像入力手段によって生成された入力画像から幾何
学的な図形特徴量を抽出する特徴抽出手段と、 前記特徴抽出手段より抽出された図形特徴量をグループ
化して画像特徴を生成し、それぞれの特徴間の関係を抽
出・管理する特徴構造化手段と、 前記特徴構造化手段で得られた入力画像の構造化された
画像特徴と、予め前記書式構造情報登録手段によって登
録されている処理対象文書の書式構造に関する情報を用
いて、類似度を計算し、最も類似度の高い書式構造モデ
ルあるいは類似度の高いものから順に複数個の書式構造
モデルあるいはある一定値以上の類似度を有する書式構
造モデルを選び、前記入力文書の書式構造の種別を一つ
あるいは複数個の候補に絞りこむ書式構造種別同定手段
と、 を具備することを特徴とする文書画像処理装置。
5. An image input means for generating an input image from a document, and format structure information registration for previously registering information (format structure model) on the format structure of a processing target document used for recognizing the format structure of the input image. Means, a feature extraction means for extracting a geometric figure feature amount from the input image generated by the image input means, and a group of graphic feature amounts extracted by the feature extraction means to generate image features, Feature structuring means for extracting and managing the relationship between the respective features, structured image features of the input image obtained by the feature structuring means, and processing registered in advance by the format structure information registering means The similarity is calculated using the information about the format structure of the target document, and the format structure model with the highest similarity or a plurality of format structure models in order from the highest similarity is calculated. Or a format structure model having a similarity of a certain value or more, and a format structure type identifying means for narrowing down the type of the format structure of the input document to one or a plurality of candidates. Document image processing device.
【請求項6】 文書より入力画像を生成する画像入力手
段と、 入力画像の書式構造を認識するために用いられる処理対
象文書の書式構造に関する情報(書式構造モデル)を予
め登録する書式構造情報登録手段と、 前記画像入力手段により得られた入力画像から線分と文
字成分に関する図形特徴を抽出し、さらに入力画像にお
ける文字成分以外の領域から線分に関する特徴を罫線に
関する図形特徴とみなして抽出する特徴抽出手段と、 前記特徴抽出手段より抽出された罫線に関する図形特徴
をグループ化することにより表に関する特徴を抽出し、
各表に関する特徴において罫線が交差・接続する部分に
生じる接合部に関する情報を抽出し、それぞれの特徴間
の関係を抽出・管理する特徴構造化手段と、 前記特徴構造化手段で得られた入力画像の構造化された
特徴と、予め前記書式構造情報登録手段によって登録さ
れている処理対象文書の書式構造に関する情報を用い
て、類似度を計算し、最も類似度の高い書式構造モデル
あるいは類似度の高いものから順に複数個の書式構造モ
デルあるいはある一定値以上の類似度を有する書式構造
モデルを選び、入力文書の書式構造の種別を一つあるい
は複数個の候補に絞りこむ書式構造種別同定手段と、 前記書式構造種別同定手段により選択されたそれぞれの
書式構造モデルに対して、 前記特徴構造化手段により得られた入力文書の表に関す
る特徴と、前記書式構造情報登録手段により登録されて
いる当該書式構造モデルを構成する表に関する特徴との
間い照合処理を行ない、表間対応関係を獲得する表照合
手段と、 前記表照合手段により得られた表の対応関係において入
力文書の表を構成する罫線と同罫線に対応付く書式構造
モデルの表を構成する罫線との間の対応関係を獲得する
罫線照合手段と、 前記罫線照合手段により得られた対応関係に対して、特
徴間の対応付きの程度を表す照合度を計算する照合度計
算手段と、 前記照合度計算手段で計算されたそれぞれの書式構造モ
デルの照合度の中から最大照合度を示す書式構造モデル
を抽出する照合結果出力手段と、 前記照合結果出力手段によって抽出された書式構造モデ
ルの最大照合度を用いて、入力文書と当該書式構造モデ
ルの構造化特徴間で正しい対応付けが行われているか否
かの判定を行なう照合結果判定手段と、 を具備することを特徴とする文書画像処理装置。
6. An image input means for generating an input image from a document, and format structure information registration for previously registering information (format structure model) relating to the format structure of a processing target document used for recognizing the format structure of the input image. Means and the graphic feature relating to the line segment and the character component from the input image obtained by the image input means, and further extracting the feature relating to the line segment from the region other than the character component in the input image as the graphic feature relating to the ruled line. A feature extraction unit and a feature related to a table are extracted by grouping graphic features related to ruled lines extracted by the feature extraction unit,
Feature structuring means for extracting information about a joint portion generated at a portion where ruled lines intersect / connect in the feature relating to each table, and extracting / managing a relation between the features, and an input image obtained by the feature structuring means. Of the structured feature of the document and the information about the format structure of the document to be processed registered in advance by the format structure information registration means, the similarity is calculated, and the format structure model or the similarity of the highest similarity is calculated. A format structure type identifying means for selecting a plurality of format structure models in order from the highest one or a format structure model having a similarity of a certain value or more and narrowing down the format structure type of the input document to one or more candidates. , For each of the format structure models selected by the format structure type identifying means, with respect to the table of the input document obtained by the feature structuring means. And a table collating unit that performs a collation process between the features related to the table that constitutes the format structure model registered by the format structure information registering unit and obtains an inter-table correspondence relationship; The ruled line collating means for acquiring the correspondence between the ruled lines forming the table of the input document and the ruled lines forming the table of the format structure model corresponding to the ruled lines in the correspondence relation of the created table, and the ruled line collating means. The matching degree calculation means for calculating the matching degree representing the degree of correspondence between the features with respect to the obtained correspondence relationship, and the maximum matching among the matching degrees of the respective format structure models calculated by the matching degree calculation means. Of the input document and the format structure model using the matching result output means for extracting the format structure model indicating the degree, and the maximum matching degree of the format structure model extracted by the matching result output means. Document image processing apparatus characterized by comprising a comparison result determining means for determining whether or not the correct correspondence between Zoka feature is being performed, the.
【請求項7】 前記書式構造情報登録手段は、 入力文書の書式構造を認識するために用いられる処理対
象文書の書式構造に関する情報を登録する際に、正立し
た処理対象文書の書式構造に関する情報を複数の所定角
度で回転させたものを発生させ、それぞれに正立したも
のから何度回転しているかに関する情報を付与し、それ
らすべてを処理対象文書の書式構造に関する情報として
登録することを特徴とする請求項1または請求項4また
は請求項5または請求項6記載の文書画像処理装置。
7. The format structure information registration means registers information about the format structure of an upright processing target document when registering information about the format structure of a processing target document used for recognizing the format structure of an input document. Characters that are generated by rotating at a plurality of predetermined angles, give information about how many times it is rotated from the upright one, and register all of them as information about the format structure of the processing target document The document image processing apparatus according to claim 1, claim 4, claim 5, or claim 6.
【請求項8】 文書より入力画像を生成する画像入力手
段と、 入力文書の書式構造を認識するために用いられる処理対
象文書の書式構造に関する情報を登録する際に、正立し
た処理対象文書の書式構造に関する情報を複数の所定角
度で回転させたものを発生させ、それぞれに正立したも
のから何度回転しているかに関する情報を付与し、それ
らすべてを処理対象文書の書式構造に関する情報として
登録する書式構造情報登録手段と、 前記画像入力手段により生成された入力画像から幾何学
的な図形特徴量を抽出する特徴抽出手段と、 前記特徴抽出手段より抽出された図形特徴量をグループ
化することで画像特徴を生成し、それぞれの特徴間の関
係を抽出・管理する特徴構造化手段と、 前記特徴構造化手段で得られた入力画像の構造化された
画像特徴と、前記書式構造情報登録手段によって予め登
録されている処理対象文書の書式構造に関する情報を用
いて、入力文書の書式構造の種別を一つあるいは複数個
の候補に絞りこむ書式構造種別同定手段と、 前記書式構造種別同定手段で候補となったすべての書式
構造モデルと入力文書の前記特徴構造化手段で構造化さ
れた特徴との間で対応付けを行ない、最も良く対応づい
た書式構造モデルと入力文書の組を選択し、その対応関
係を獲得するモデル照合手段と、 前記モデル照合手段で選択された書式構造文書と入力文
書における構造化特徴間の対応付けにおいて、不完全な
対応付けおよび矛盾した対応付けがなされているか否か
を発見し、それらを解消することにより整合のとれた前
記書式構造モデルと入力文書の構造化された特徴間の対
応関係を獲得する未対応、矛盾対応発見・修正手段と、 前記モデル照合手段で入力画像に対応付いた書式構造モ
デルが所定角度で回転させたものである場合には、その
回転角度を正立する方向に入力画像を回転し、正立した
当該書式モデルと対応付ける画像回転手段と、 前記書式構造モデルと入力文書の構造化された特徴間の
対応関係に基づいて、予め登録されている当該書式構造
モデルに関する情報を入力文書にコピーすることにより
入力文書の書式構造と関連情報を獲得する文書構造獲得
手段と、 を具備することを特徴とする文書画像処理装置。
8. An image input means for generating an input image from a document and an upright processing target document when registering information on the format structure of the processing target document used for recognizing the format structure of the input document. Generates information about the format structure rotated at multiple predetermined angles, gives information about how many times it has rotated from the upright one, and registers all of them as information about the format structure of the processing target document. Format structure information registering means, feature extracting means for extracting geometrical graphic feature quantities from the input image generated by the image input means, and grouping graphic feature quantities extracted by the feature extracting means. The feature structuring means for generating image features by using the feature structuring means for extracting and managing the relationship between the features, and the structuring of the input image obtained by the feature structuring means. Format structure type identification for narrowing down the type structure of the input document to one or a plurality of candidates using the image feature and the information on the format structure of the processing target document registered in advance by the format structure information registration means. Means, and all the format structure models that are candidates in the format structure type identifying means and the features structured by the feature structuring means of the input document are associated with each other, and the format structure with the best correspondence is obtained. Model matching means for selecting a pair of a model and an input document and acquiring the corresponding relationship, and incomplete matching in the correspondence between the structured structure document and the structured feature in the input document selected by the model matching means. Between the structured structure model of the input document and the structured features of the input document, which are matched by discovering whether or not there is an inconsistent correspondence and eliminating them. When the unstructured and inconsistent correspondence finding / correcting means for acquiring the correspondence and the format structure model associated with the input image by the model matching means are rotated by a predetermined angle, the rotation angle is set upright. The image rotation means for rotating the input image in the direction to correspond to the erect format model, and the format registered in advance based on the correspondence between the format structure model and the structured features of the input document. A document image processing apparatus, comprising: a document structure acquisition unit that acquires the format structure of an input document and related information by copying information about a structure model into the input document.
【請求項9】 文書より入力画像を生成する画像入力手
段と、 入力画像の書式構造を認識するために用いられる処理対
象文書の書式構造に関する情報(書式構造モデル)を予
め登録する書式構造情報登録手段と、 前記画像入力手段によって生成された入力画像から線分
と文字成分に関する図形特徴を抽出し、さらに入力画像
における文字成分以外の領域から線分に関する特徴を罫
線に関する図形特徴(罫線特徴)とみなして抽出する特
徴抽出手段と、 前記特徴抽出手段より抽出された罫線特徴をグループ化
することにより表に関する特徴(表特徴)を抽出し、各
表特徴において罫線が交差・接続する部分に生じる接合
部に関する情報を抽出し、それぞれの特徴間の関係を抽
出・管理する特徴構造化手段と、 前記特徴構造化手段により得られた入力文書の表特徴
と、予め前記書式構造情報登録手段により登録されてい
る書式構造モデルを構成する表特徴との間で照合処理を
行い、表間対応関係を獲得する表照合手段と、 前記表照合手段により得られた表の対応関係において入
力文書の表を構成する罫線特徴とそれに対応付く書式構
造モデルの表を構成する罫線との間の対応関係を獲得す
る罫線照合手段と、 前記罫線照合手段により獲得された対応関係に対し、特
徴間の対応付きの程度を表す照合度を計算し、正しい対
応付けが行なわれているか否かの判定を行なう照合結果
判定手段と、 前記照合結果判定手段によって正して対応付けが行われ
ていると判定された入力文書と書式構造モデルの罫線特
徴間の対応関係において、入力文書の罫線特徴(入力罫
線特徴)に対応付いていない書式構造モデルの罫線特徴
(未対応モデル罫線特徴)を抽出する手段と、 前記未対応モデル罫線特徴に対応付くべき入力罫線特徴
が他のモデル罫線特徴に対応付いている場合には、その
対応関係を解消し、未対応モデル罫線特徴とその入力罫
線特徴を対応付ける手段と、 前記未対応モデル罫線特徴に対応付くべき欠損した未対
応の入力罫線特徴がある場合には、未対応モデル罫線特
徴と当該入力罫線特徴を対応付ける手段と、 前記未対応モデル罫線特徴に対応付くべき入力罫線特徴
が見つからない場合には、対応付くべき入力罫線特徴を
新たに発生させ、未対応モデル罫線特徴と新たに発生さ
せた入力罫線特徴を対応付ける手段によって未対応およ
び矛盾対応を修正する手段と、 を具備することを特徴とする文書画像処理装置。
9. An image input means for generating an input image from a document, and format structure information registration for previously registering information (format structure model) on the format structure of a processing target document used for recognizing the format structure of the input image. Means for extracting graphic features relating to line segments and character components from the input image generated by the image input means, and determining features relating to line segments from regions other than character components in the input image as graphic features relating to ruled lines (ruled line features). A feature extraction unit that considers and extracts a feature (table feature) related to a table by grouping the ruled line features extracted by the feature extraction unit, and joins that occur in the portions where the ruled lines intersect / connect in each table feature. Feature structuring means for extracting information about parts and extracting / managing relations between the respective features; and Table collating means for collating processing between the table features of the input document and table features forming the format structure model registered in advance by the format structure information registering means, and acquiring table correspondence relation; A ruled line collating unit that obtains a correspondence between the ruled line features that form the table of the input document and the corresponding ruled lines that form the table of the format structure model corresponding to the table correspondence obtained by the matching unit; Collation result judging means for calculating a collation degree indicating a degree of correspondence between the features with respect to the correspondence relation acquired by the means, and judging whether or not correct correspondence is made; In the correspondence relationship between the input document and the ruled line feature of the format structure model, which is determined to be correct by the above, the ruled line feature of the input document (input ruled line feature) is not associated. A means for extracting ruled line features (unsupported model ruled line features) of the format structure model, and a correspondence relationship when an input ruled line feature to be associated with the unsupported model ruled line feature is associated with another model ruled line feature Means for associating an unsupported model ruled line feature with its input ruled line feature, and if there is a missing unsupported input ruled line feature to be associated with the unsupported model ruled line feature, A means for associating input ruled line features, and when an input ruled line feature to be associated with the unsupported model ruled line feature is not found, a new input ruled line feature to be associated is newly generated and an unsupported model ruled line feature is newly generated. A document image processing apparatus, comprising: means for correcting non-correspondence and inconsistency correspondence by means for associating the input ruled line features.
【請求項10】 文書より入力画像を生成する画像入力
手段と、 入力画像の書式構造を認識するために用いられる処理対
象文書の書式構造に関する情報(書式構造モデル)を予
め登録する書式構造情報登録手段と、 前記画像入力手段により生成された入力画像から線分と
文字成分に関する図形特徴を抽出し、さらに入力画像に
おける文字成分以外の領域から線分に関する特徴を罫線
に関する図形特徴(罫線特徴)とみなして抽出する特徴
抽出手段と、 前記特徴抽出手段より抽出された罫線特徴をグループ化
することにより表に関する特徴(表特徴)を抽出し、各
表特徴において罫線が交差・接続する部分に生じる接合
部に関する情報を抽出し、それぞれの特徴間の関係を抽
出・管理する特徴構造化手段と、 前記特徴構造化手段により得られた入力文書の表特徴
と、予め書式構造情報登録手段により登録されている書
式構造モデルを構成する表特徴との間で照合処理を行
い、表間対応関係を獲得する表照合手段と、 前記表照合手段により得られた表の対応関係において入
力文書の表を構成する罫線特徴とそれに対応付く書式構
造モデルの表を構成する罫線特徴との間の対応関係を獲
得する罫線照合手段と、 前記罫線照合手段で獲得された罫線特徴間の対応関係に
おいて、当該書式構造モデルの罫線特徴集合における罫
線間の接続関係に基づいて、対応する入力文書の罫線特
徴集合における罫線間の接続関係を修正する罫線照合後
処理手段と、 を具備することを特徴とする文書画像処理装置。
10. An image input means for generating an input image from a document, and format structure information registration for previously registering information (format structure model) on the format structure of a processing target document used for recognizing the format structure of the input image. Means for extracting graphic features relating to line segments and character components from the input image generated by the image inputting means, and determining features relating to line segments from regions other than character components in the input image as graphic features relating to ruled lines (ruled line features). A feature extraction unit that considers and extracts a feature (table feature) related to a table by grouping the ruled line features extracted by the feature extraction unit, and joins that occur in the portions where the ruled lines intersect / connect in each table feature. Feature structuring means for extracting information about parts and extracting / managing relations between the respective features; and Table collating means for performing collation processing between the table features of the input document and the table features constituting the format structure model registered in advance by the format structure information registering means, and table collating means for obtaining the correspondence relation between tables; Ruled line matching means for acquiring a correspondence relationship between the ruled line feature forming the table of the input document and the ruled line feature forming the table of the format structure model corresponding thereto in the correspondence relationship of the table obtained by the means; In the correspondence relationship between the ruled line features acquired by the means, the ruled line matching that corrects the connection relationship between the ruled lines in the ruled line feature set of the corresponding input document based on the connection relationship between the ruled line features in the ruled line feature set of the format structure model. A document image processing apparatus comprising: a post-processing unit.
JP6212951A 1994-09-06 1994-09-06 Image processor for document Pending JPH0877294A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP6212951A JPH0877294A (en) 1994-09-06 1994-09-06 Image processor for document

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP6212951A JPH0877294A (en) 1994-09-06 1994-09-06 Image processor for document

Publications (1)

Publication Number Publication Date
JPH0877294A true JPH0877294A (en) 1996-03-22

Family

ID=16631002

Family Applications (1)

Application Number Title Priority Date Filing Date
JP6212951A Pending JPH0877294A (en) 1994-09-06 1994-09-06 Image processor for document

Country Status (1)

Country Link
JP (1) JPH0877294A (en)

Cited By (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US6111984A (en) * 1997-06-10 2000-08-29 Fujitsu Limited Method for matching input image with reference image, apparatus for the same, and storage medium storing program for implementing the method
JP2001325563A (en) * 2000-03-10 2001-11-22 Fujitsu Ltd Device and method for image collation and image collation program
JP2003030583A (en) * 2001-07-11 2003-01-31 Oki Electric Ind Co Ltd Method and device for identifying chart classification, and method and device for identifying format classification
US6917706B2 (en) 1996-12-20 2005-07-12 Fujitsu Limited Ruled line extracting apparatus for extracting ruled line from normal document image and method thereof
JP2008083846A (en) * 2006-09-26 2008-04-10 Oki Electric Ind Co Ltd Target area determination method and device
KR20150017755A (en) * 2012-07-24 2015-02-17 알리바바 그룹 홀딩 리미티드 Form recognition method and device
JP2021005234A (en) * 2019-06-26 2021-01-14 日立オムロンターミナルソリューションズ株式会社 Form recognition device, form recognition method, and form recognition system
JP2023502584A (en) * 2019-10-29 2023-01-25 ウーリー ラブス インコーポレイテッド ディービーエー ヴァウチト System and method for authentication of documents

Cited By (13)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US7039235B1 (en) 1996-12-20 2006-05-02 Fujitsu Limited Ruled line extracting apparatus for extracting ruled line from normal document image and method thereof
US6917706B2 (en) 1996-12-20 2005-07-12 Fujitsu Limited Ruled line extracting apparatus for extracting ruled line from normal document image and method thereof
US6928188B2 (en) 1996-12-20 2005-08-09 Fujitsu Limited Ruled line extracting apparatus for extracting ruled line from normal document image and method thereof
US6975762B2 (en) 1996-12-20 2005-12-13 Fujitsu Limited Ruled line extracting apparatus for extracting ruled line from normal document image and method thereof
US6111984A (en) * 1997-06-10 2000-08-29 Fujitsu Limited Method for matching input image with reference image, apparatus for the same, and storage medium storing program for implementing the method
JP2001325563A (en) * 2000-03-10 2001-11-22 Fujitsu Ltd Device and method for image collation and image collation program
JP4592984B2 (en) * 2000-03-10 2010-12-08 富士通株式会社 Image collation device, image collation method, and image collation program
JP2003030583A (en) * 2001-07-11 2003-01-31 Oki Electric Ind Co Ltd Method and device for identifying chart classification, and method and device for identifying format classification
JP2008083846A (en) * 2006-09-26 2008-04-10 Oki Electric Ind Co Ltd Target area determination method and device
KR20150017755A (en) * 2012-07-24 2015-02-17 알리바바 그룹 홀딩 리미티드 Form recognition method and device
JP2015528960A (en) * 2012-07-24 2015-10-01 アリババ・グループ・ホールディング・リミテッドAlibaba Group Holding Limited Form recognition method and form recognition apparatus
JP2021005234A (en) * 2019-06-26 2021-01-14 日立オムロンターミナルソリューションズ株式会社 Form recognition device, form recognition method, and form recognition system
JP2023502584A (en) * 2019-10-29 2023-01-25 ウーリー ラブス インコーポレイテッド ディービーエー ヴァウチト System and method for authentication of documents

Similar Documents

Publication Publication Date Title
US8792715B2 (en) System and method for forms classification by line-art alignment
KR0147318B1 (en) Picture extracting system
US6408105B1 (en) Method for detecting slope of image data utilizing hough-transform
CN101567051B (en) Image matching method based on characteristic points
US8781229B2 (en) System and method for localizing data fields on structured and semi-structured forms
Chiang et al. A general approach for extracting road vector data from raster maps
JP2018067120A (en) Fingerprint processing apparatus, fingerprint processing method, program and fingerprint processing circuit
CN113343740B (en) Table detection method, device, equipment and storage medium
Kushnir et al. Epipolar geometry estimation for urban scenes with repetitive structures
JP6187323B2 (en) Image processing apparatus and image processing program
Seo et al. Junction-based table detection in camera-captured document images
CN113158895A (en) Bill identification method and device, electronic equipment and storage medium
JPH0877294A (en) Image processor for document
JPH11232306A (en) Method and system for document check
Guo et al. Exploring GIS knowledge to improve building extraction and change detection from VHR imagery in urban areas
JPH10301948A (en) Method for retrieving image and video
KR101849933B1 (en) Apparatus of Covariance-matching-based Model for musical-symbol recognition
US20030210818A1 (en) Knowledge-based hierarchical method for detecting regions of interest
CN112287763A (en) Image processing method, apparatus, device and medium
JP4957924B2 (en) Document image feature value generation apparatus, document image feature value generation method, and document image feature value generation program
Heitzler et al. A modular process to improve the georeferencing of the Siegfried map
JPH1021412A (en) Edge detection method of parts picture, and parts form recognition device
JPH09167233A (en) Image processing method and device therefor
JP6171786B2 (en) Image processing apparatus, image processing method, and image processing program
JP7207862B2 (en) Object recognition device and method