Nothing Special   »   [go: up one dir, main page]

JP2001282785A - Device and method for processing document image and computer-readable recording medium with document image processing program recorded thereon - Google Patents

Device and method for processing document image and computer-readable recording medium with document image processing program recorded thereon

Info

Publication number
JP2001282785A
JP2001282785A JP2000093307A JP2000093307A JP2001282785A JP 2001282785 A JP2001282785 A JP 2001282785A JP 2000093307 A JP2000093307 A JP 2000093307A JP 2000093307 A JP2000093307 A JP 2000093307A JP 2001282785 A JP2001282785 A JP 2001282785A
Authority
JP
Japan
Prior art keywords
line
unit
document image
processing
line segment
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2000093307A
Other languages
Japanese (ja)
Inventor
Yuko Kanemoto
優子 金本
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Sharp Corp
Original Assignee
Sharp Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Sharp Corp filed Critical Sharp Corp
Priority to JP2000093307A priority Critical patent/JP2001282785A/en
Publication of JP2001282785A publication Critical patent/JP2001282785A/en
Pending legal-status Critical Current

Links

Landscapes

  • Document Processing Apparatus (AREA)
  • User Interface Of Digital Computer (AREA)

Abstract

PROBLEM TO BE SOLVED: To decorate the image of an arbitrary character string in a document image by drawing a handwriting line segment corresponding to this arbitrary character string to make the appearance better. SOLUTION: Only by drawing the handwriting line segment through a line input part 3 corresponding to the image of the arbitrary character string desired to draw a line in the document image displayed on a display part 2, the line segment is drawn as a straight line by a curve correcting part 5 and a transmission processing part 71 while being overlapped on the image of this arbitrary character string so that this arbitrary character string image can be displayed transmissibly through the straight line. Thus, only by drawing the line segment by handwriting corresponding to the desired arbitrary character string, a user can beautifully draw the handwriting line segment as a straight line without damaging visibility of the arbitrary character string. Therefore, an effect similar to the case of overwriting the straight line on the arbitrary character string with a fluorescent pen while using a ruler can be easily provided.

Description

【発明の詳細な説明】DETAILED DESCRIPTION OF THE INVENTION

【0001】[0001]

【発明の属する技術分野】この発明は文字を含む文書の
画像に対して手書きで入力された線分を表示する文書画
像処理装置および文書画像処理方法、ならびに文書画像
処理プログラムを記録したコンピュータで読取可能な記
録媒体に関し、特に、所望される文字列に対応して手書
き入力された線分を処理して表示する文書画像処理装置
および文書画像処理方法、ならびに文書画像処理プログ
ラムを記録したコンピュータで読取可能な記録媒体に関
する。
BACKGROUND OF THE INVENTION 1. Field of the Invention The present invention relates to a document image processing apparatus and a document image processing method for displaying a line segment input by hand with respect to an image of a document including characters, and a computer which stores a document image processing program. Possible recording medium, in particular, a document image processing apparatus and a document image processing method for processing and displaying a line segment input by handwriting corresponding to a desired character string, and a computer reading a document image processing program It relates to a possible recording medium.

【0002】[0002]

【従来の技術および発明が解決しようとする課題】読込
まれた文書画像の所望部分にアンダーラインを付加する
ような編集機能を有した装置として特開昭61−273
070号公報記載の画像処理装置がある。この画像処理
装置は、表示部を有して、読込まれた文書の画像は表示
部に表示される。ユーザは表示される文書画像中の所望
される文字列に沿ってアンダーラインを引くときは、ま
ず、この所望文字列をマウスなどで指定し、次に「アン
ダーラインを引く」という予め準備された編集コマンド
を入力する。その結果、所望文字列に対してアンダーラ
インが引かれる。
2. Description of the Related Art An apparatus having an editing function of adding an underline to a desired portion of a read document image is disclosed in Japanese Patent Application Laid-Open No. 61-273.
There is an image processing device described in Japanese Patent Application Laid-Open No. 070/070. This image processing apparatus has a display unit, and the image of the read document is displayed on the display unit. When the user draws an underline along a desired character string in a displayed document image, the user first designates this desired character string with a mouse or the like, and then prepares in advance "draw underline". Enter an edit command. As a result, the desired character string is underlined.

【0003】また、ドットイメージに展開された文字列
の画像にアンダーラインを付加する装置として特開平8
−30250号公報記載の文書処理装置がある。この文
書処理装置では、文字の大きさや種類がばらばらの1行
分の文字列全体に沿ってアンダーラインを引くときに
は、該文字列の各文字を囲む矩形領域と該文字列全体を
囲む矩形領域とに関する情報が用いられて、この文字列
全体を囲む矩形領域から任意の距離だけ離れた所望の位
置にアンダーラインが引かれる。
A device for adding an underline to an image of a character string developed into a dot image is disclosed in
There is a document processing device described in -30250. In this document processing apparatus, when an underline is drawn along the entire character string of one line in which the size and type of characters are different, a rectangular area surrounding each character of the character string and a rectangular area surrounding the entire character string Is used to underline the desired position at an arbitrary distance from the rectangular area surrounding the entire character string.

【0004】従来は、紙に印刷された文章において、ユ
ーザが文章中の所望文字列に対して、特別に注意を払う
ために、透過性の水性の蛍光顔料をインクに用いたペン
(以下、蛍光ペンと呼ぶ)を用いて、該所望文字列を塗
りつぶす場合がある。このようにして、インクで塗りつ
ぶされた所望文字列であっても、塗布されたインクを透
過して確認することができる。
Conventionally, in a text printed on paper, a pen using a transparent water-based fluorescent pigment for ink (hereinafter, referred to as a pen) in order to allow a user to pay special attention to a desired character string in the text. The desired character string may be painted out using a highlighter pen. In this way, even a desired character string painted with ink can be confirmed by penetrating the applied ink.

【0005】しかし、従来は、せいぜい、読込まれた文
書画像において所望文字列画像について注目のために修
飾する方法としては、上述のようにアンダーラインを付
すものにとどまっており、例えば、上述の蛍光ペンを用
いて塗りつぶしたのと同様の効果を奏するなど多様な体
裁で、所望文字列に対して手書き線分で注目のための修
飾をするような装置は提案されていなかった。
However, conventionally, at most, as a method of modifying a desired character string image in a read document image for attention, an underlining method as described above is used. There has not been proposed any device that modifies a desired character string for attention with a handwritten line segment in various forms such as having the same effect as painting with a pen.

【0006】それゆえに、この発明の目的は、文書画像
中の任意文字列に対応して、手書き線分を引くことで体
裁良くして該任意文字列の画像を修飾できる文書画像処
理装置および方法、ならびに文書画像処理プログラムを
記録したコンピュータで読取可能な記録媒体を提供する
ことである。
SUMMARY OF THE INVENTION Therefore, an object of the present invention is to provide a document image processing apparatus and method capable of modifying the image of an arbitrary character string by drawing handwritten lines corresponding to the arbitrary character string in the document image and improving the appearance. And a computer-readable recording medium on which a document image processing program is recorded.

【0007】[0007]

【課題を解決するための手段】上述の目的を達成するた
めにこの発明のある局面に従えば、文書画像処理装置は
次のように構成される。つまり文書画像処理装置は、文
書の画像を表示する表示部と、前記表示部に表示された
文書画像における任意の文字列の画像に対応するように
手書きされた線分を入力する線分入力部と、前記線分入
力部により入力された手書き線分を処理する処理部とを
備え、前記処理部は、前記手書き線分の方向を判別する
方向判別手段と、前記方向判別手段により判別された方
向と前記文書画像における1つ以上の文字画像とに基づ
いて、前記文書画像の領域において、前記任意文字列の
画像を含む行の領域を抽出する行抽出手段と、前記手書
き線分を、前記行抽出手段で抽出された前記行の領域に
重ねて引かれる直線に修正する線分修正手段と、前記線
分修正手段による修正により得られた前記直線が重ねて
引かれる前記任意の文字列の画像を、該直線を透過して
前記表示部に表示されるように処理する透過手段とを有
する。
According to an aspect of the present invention, there is provided a document image processing apparatus configured as follows. That is, the document image processing apparatus includes a display unit that displays a document image, and a line segment input unit that inputs a line segment that is handwritten to correspond to an image of an arbitrary character string in the document image displayed on the display unit. And a processing unit that processes a handwritten line segment input by the line segment input unit, wherein the processing unit is determined by a direction determining unit that determines a direction of the handwritten line segment, and is determined by the direction determining unit. A line extracting unit that extracts a line region including the image of the arbitrary character string in the region of the document image based on the direction and one or more character images in the document image; A line segment correcting unit that corrects a line that is drawn by being superimposed on the area of the line extracted by the line extracting unit; and an arbitrary character string that is drawn by superposing the straight line obtained by the correction by the line segment correcting unit. The image Transmitting to a and a transmission means for processing to be displayed on the display unit.

【0008】したがって、文書画像中の線を引きたい任
意の文字列の画像に対応して、線入力手段を介して手書
きで線分を引くだけで、線分修正手段および透過手段に
より、該任意文字列の画像に重ねて、かつ該任意文字列
画像が該直線を透過して表示されるようにして直線とし
て引かれる。このように、ユーザは、所望する任意文字
列に対応して手書きで線分を引くだけで、該任意文字列
の視認性を損なわず、該手書き線分を体裁よく直線とし
て引くことができる。それゆえに、該任意文字列に蛍光
ペンで定規を用いて直線を上書きしたのと同様の効果を
簡単に得ることが出来る。
[0008] Therefore, by simply drawing a line segment by hand through the line input means corresponding to an image of an arbitrary character string to be drawn in the document image, the line segment correcting means and the transmissive means allow the line segment to be drawn. The arbitrary character string image is drawn as a straight line so as to be superimposed on the image of the character string and to be displayed through the straight line. In this way, the user can draw the handwritten line segment as a straight line without compromising the visibility of the arbitrary character string only by handwriting the line segment corresponding to the desired arbitrary character string. Therefore, the same effect as when a straight line is overwritten on the arbitrary character string using a ruler with a highlighter can be easily obtained.

【0009】上述した文書画像処理装置において、処理
部は、手書き線分を、行抽出手段で抽出された行の領域
における任意文字列の画像を囲む矩形の直線に修正し
て、表示部に表示する矩形修正手段をさらに有してもよ
い。
In the above-described document image processing apparatus, the processing section corrects the handwritten line segment into a rectangular straight line surrounding an image of an arbitrary character string in the area of the line extracted by the line extracting means and displays it on the display section. May be further provided.

【0010】したがって、文書画像中の矩形で囲みたい
任意の文字列の画像に対応して、線入力手段を介して手
書きで線分を引くだけで、矩形修正手段により、該任意
文字列の画像を囲むようにして直線の矩形に修正されて
表示される。このように、ユーザは、所望する任意文字
列に対応して手書きで線分を引くだけで、該任意文字列
の視認性を損なわず、該手書き線分を該任意文字列を囲
む直線として引くことができる。
Accordingly, by simply drawing a line segment by hand through the line input means corresponding to an image of an arbitrary character string that the user wants to enclose in a rectangle in the document image, the image of the arbitrary character string can be obtained by the rectangle correcting means. Is modified to a straight rectangle so that it is displayed. In this manner, the user draws the handwritten line segment as a straight line surrounding the arbitrary character string only by handwriting a line segment corresponding to a desired arbitrary character string without impairing the visibility of the arbitrary character string. be able to.

【0011】上述の文書画像処理装置では、前述の直線
は、任意に設定された一定線幅を有している。したがっ
て、手書き入力した線分は、その線幅を指定して直線に
修正できるから、任意文字列の画像に対して、所望する
線幅で重ねて直線を引いたり、所望する線幅の矩形にて
囲んだりすることが出来て、所望する体裁で任意文字列
の画像を修飾できる。
In the above-described document image processing apparatus, the above-mentioned straight line has an arbitrarily set constant line width. Therefore, a line segment input by handwriting can be corrected to a straight line by designating its line width, so that an image of an arbitrary character string can be overlapped with a desired line width to draw a straight line, or a rectangle having a desired line width can be formed. The image of an arbitrary character string can be modified in a desired appearance.

【0012】上述の文書画像処理装置では、前述の直線
が有する一定線幅は、行の領域における任意文字列の画
像の大きさに応じて設定されるようにしてもよい。した
がって、手書き入力した線分は、任意文字列の画像に応
じた線幅を有した直線に修正できるから、任意文字列の
画像に対して、該任意文字列画像の大きさに応じた線幅
で重ねて直線を引いたり、該任意文字列画像の大きさに
応じた線幅の矩形にて囲んだりすることが出来て、視認
性が損なわれることなく、かつ体裁良くして任意文字列
の画像を修飾できる。
In the above-described document image processing apparatus, the constant line width of the straight line may be set according to the size of an image of an arbitrary character string in the line area. Therefore, the line segment input by handwriting can be corrected to a straight line having a line width corresponding to the image of the arbitrary character string. Can be overlapped to draw a straight line, or surrounded by a rectangle having a line width corresponding to the size of the arbitrary character string image, without impairing visibility, and improving the appearance of the arbitrary character string. Images can be modified.

【0013】この発明の他の局面に係る文書画像処理装
置は、次のように構成される。文書の画像を表示する表
示手段と、表示手段に表示された文書画像における任意
の文字列の画像を囲むように手書きされた線分を入力す
る線分入力手段と、線分入力手段により入力された手書
き線分を処理する処理手段とを備える。そして、処理手
段は、手書き線分の方向を判別する方向判別手段と、方
向判別手段により判別された方向と文書画像における1
つ以上の文字画像とに基づいて、文書画像の領域におい
て、任意文字列の画像を含む行の領域を抽出する行抽出
手段と、手書き線分を、行抽出手段で抽出された行の領
域の任意文字列の画像を囲む直線に修正して、表示部に
表示する線分修正表示手段とを有する。
A document image processing apparatus according to another aspect of the present invention is configured as follows. Display means for displaying an image of a document, line input means for inputting a line handwritten so as to surround an image of an arbitrary character string in the document image displayed on the display means, and input by the line input means Processing means for processing the handwritten line segment. The processing means includes: a direction discriminating means for discriminating a direction of the handwritten line segment;
A line extracting means for extracting a line area including an image of an arbitrary character string in a document image area based on one or more character images, and a handwritten line segment; A line segment correction display unit that corrects the image into a straight line surrounding the image of the arbitrary character string and displays the straight line on the display unit.

【0014】したがって、文書画像中の矩形で囲みたい
任意の文字列の画像に対応して、線入力手段を介して手
書きで線分を引くだけで、矩形修正手段により、該任意
文字列の画像を囲むようにして直線の矩形に修正されて
表示される。このように、ユーザは、所望する任意文字
列に対応して手書きで線分を引くだけで、該任意文字列
の視認性を損なわず、該手書き線分を該任意文字列を囲
む直線として引くことができる。
Therefore, by simply drawing a line segment by hand through the line input means corresponding to an image of an arbitrary character string that the user wants to enclose in a rectangle in the document image, the image of the arbitrary character string is drawn by the rectangle correcting means. Is modified to a straight rectangle so that it is displayed. In this manner, the user draws the handwritten line segment as a straight line surrounding the arbitrary character string only by handwriting a line segment corresponding to a desired arbitrary character string without impairing the visibility of the arbitrary character string. be able to.

【0015】上述した文書画像処理装置において処理手
段は、文書画像の領域において手書き線分を処理するた
めの処理領域を指定する処理領域指定手段をさらに有し
てもよい。
In the above-described document image processing apparatus, the processing means may further include a processing area designating means for designating a processing area for processing a handwritten line segment in the area of the document image.

【0016】したがって、処理領域指定手段が備えられ
るから、文書画像に対して、予め処理領域を指定するな
どのユーザ側の操作は不要となり、操作性は向上する。
また、文書画像の全領域が処理対象とされるのでなく
て、指定された処理領域のみが処理の対象とされるか
ら、処理手段においては処理が正確、かつ高速に実行さ
れる。
Therefore, since the processing area designating means is provided, the user does not need to perform an operation on the document image such as designating the processing area in advance, and the operability is improved.
Further, since not all areas of the document image are to be processed, but only specified processing areas are to be processed, the processing means can execute the processing accurately and at high speed.

【0017】上述の画像処理装置の行抽出手段は、候補
領域抽出手段と行領域判別手段とを有して構成されても
よい。候補領域抽出手段では、方向判別手段により判別
された方向と、文書画像の領域における1つ以上の文字
の画像の領域とに基づいて、行の領域の候補となる1つ
以上の候補領域が抽出される。行領域判別手段では、抽
出された1つ以上の候補領域において、任意文字列を含
む行の領域が判別される。
The line extracting means of the above-described image processing apparatus may include a candidate area extracting means and a line area determining means. In the candidate area extracting means, one or more candidate areas which are candidates for a line area are extracted based on the direction determined by the direction determining means and one or more character image areas in the document image area. Is done. The line area determining means determines a line area including an arbitrary character string in the extracted one or more candidate areas.

【0018】したがって、候補領域抽出部により領域が
複数個、抽出されたとしても、行領域判別部により、複
数の候補領域中のいずれの領域に対して、手書き線分が
引かれたかが判別される。したがって、手書き線分を引
いた任意文字列を含む行の領域を指定するようなユーザ
の操作は不要となり、操作性は向上する。
Therefore, even if a plurality of regions are extracted by the candidate region extracting unit, the line region determining unit determines which of the plurality of candidate regions a handwritten line segment has been drawn. . Therefore, it is not necessary for the user to perform an operation of designating a line area including an arbitrary character string with a handwritten line segment, thereby improving operability.

【0019】上述の文書画像処理装置の線分修正手段
は、調整手段を有する。この調整手段は、行抽出手段に
より抽出された行の領域における1つ以上文字の領域に
基づいて、規定の線分の長さが最適となるよう調整す
る。
The line segment correcting means of the above-mentioned document image processing apparatus has an adjusting means. The adjusting means adjusts the length of the specified line segment to be optimal based on one or more character areas in the line area extracted by the line extracting means.

【0020】したがって、抽出された行の領域における
1つ以上の文字領域を利用して、すなわち任意文字列の
領域のに従って、直線の長さは最適となるように調整さ
れて、より見栄えのよい文書画像が得られる。
Therefore, utilizing one or more character regions in the region of the extracted line, that is, according to the region of the arbitrary character string, the length of the straight line is adjusted so as to be optimal, and the appearance is improved. A document image is obtained.

【0021】上述の文書画像処理装置における線分修正
手段は、行抽出手段により抽出された行の領域につい
て、既に1つ以上の直線が引かれている場合には、直線
位置修正部が適用される。直線位置修正部では、手書き
線分に対する直線は、対応する行の領域において既に引
かれた1つ以上の直線と連続して引かれるように、その
位置が修正されるようにしてもよい。
In the above-described document image processing apparatus, the line segment correcting means applies a straight line position correcting unit when one or more straight lines have already been drawn in the line area extracted by the line extracting means. You. In the straight line position correcting unit, the position of the straight line corresponding to the handwritten line segment may be corrected such that the straight line is drawn continuously with one or more straight lines already drawn in the area of the corresponding line.

【0022】したがって、任意文字列が含まれる同一の
行領域において、直線が既に引かれている場合には、新
たに入力された手書き線分による直線は、既に引かれた
直線と連なるように修正されて表示されるから、より見
栄えのよい文書画像が得られる。
Therefore, if a straight line has already been drawn in the same line area containing an arbitrary character string, the straight line formed by the newly input handwritten line segment is corrected so as to be continuous with the already drawn straight line. Since the document image is displayed after being displayed, a more attractive document image can be obtained.

【0023】上述の文書画像処理装置において、線分修
正手段は、行抽出手段により抽出された行の領域につい
て、1つ以上の手書き線分が入力された場合には、手書
き線分位置修正手段が適用される。手書き線分位置修正
手段は、1つ以上の手書き線分のそれぞれに対応の直線
を、位置調整して、連続した1つの直線に修正する。
In the above-described document image processing apparatus, the line segment correcting means may include, when one or more handwritten line segments are input in the line area extracted by the line extracting means, the handwritten line segment position correcting means. Is applied. The handwritten line segment position correcting means adjusts the position of a straight line corresponding to each of one or more handwritten line segments to correct the straight line into one continuous straight line.

【0024】したがって、同一の行領域に、複数の手書
き線分が入力された場合に、これら手書き線分に対応の
複数の直線は、1本に連なる直線に修正されて表示され
るので、より見栄えのよい文書画像が得られる。
Therefore, when a plurality of handwritten line segments are input in the same line area, the plurality of straight lines corresponding to these handwritten line segments are corrected and displayed as one continuous straight line. A good-looking document image is obtained.

【0025】上述の文書画像処理装置において、線分修
正手段は、行抽出手段により抽出された行の領域がルビ
の行に対応するものであることを識別するルビ行識別手
段を有する。そして、ルビ行識別手段により行の領域が
ルビの行に対応するものであると識別されたときは、手
書き線分をルビの行に沿って引かれる直線に修正する。
In the above-mentioned document image processing apparatus, the line segment correcting means has a ruby line identifying means for identifying that the area of the line extracted by the line extracting means corresponds to a ruby line. When the ruby line identification unit identifies that the line region corresponds to the ruby line, the handwritten line segment is corrected to a straight line drawn along the ruby line.

【0026】したがって、任意の文字列がルビの行に対
応するものであっても、適正に直線を引くことができ、
見栄えのよい文書画像が得られる。
Therefore, even if an arbitrary character string corresponds to a ruby line, it is possible to draw a straight line properly,
A good-looking document image is obtained.

【0027】この発明のさらなる他の局面に従えば、文
書画像処理方法は、文書画像を表示する表示ステップ
と、表示された文書画像における任意の文字列の画像に
対応して、手書きされた線分を入力する線分入力ステッ
プと、入力された手書き線分を処理する処理ステップと
を備えて構成される。処理ステップは、手書き線分の方
向を判別する方向判別ステップと、判別された方向と、
文書画像における1つ以上の文字の画像とに基づいて、
文書画像の領域において、任意文字列を含む行の領域を
抽出する行抽出ステップと、手書き線分を、抽出された
行の領域に重ねて引かれる直線に修正する線分修正ステ
ップと、線分修正ステップによる修正により得られた直
線が重ねて引かれる任意の文字列の画像を、該直線を透
過して表示されるように処理する透過ステップとを有す
る。
According to still another aspect of the present invention, a document image processing method includes a display step of displaying a document image, and a handwritten line corresponding to an image of an arbitrary character string in the displayed document image. And a processing step of processing the input handwritten line segment. The processing step includes: a direction determining step of determining a direction of the handwritten line segment; a determined direction;
Based on one or more character images in the document image,
A line extracting step of extracting a line region including an arbitrary character string in a region of the document image; a line segment correcting step of correcting a handwritten line segment into a straight line drawn so as to overlap with the extracted line region; And a transmission step of processing an image of an arbitrary character string on which a straight line obtained by the correction in the correction step is drawn so as to be displayed through the straight line.

【0028】この発明のさらなる他の局面によれば、文
書画像処理方法は、文書の画像を表示する表示ステップ
と、表示ステップにより表示された文書画像における任
意の文字列の画像を囲むように手書きされた線分を入力
する線分入力ステップと、線分入力ステップにより入力
された手書き線分を処理する処理ステップとを備える。
そして、処理ステップは、手書き線分の方向を判別する
方向判別ステップと、方向判別ステップにより判別され
た方向と文書画像における1つ以上の文字画像とに基づ
いて、文書画像の領域において、任意文字列の画像を含
む行の領域を抽出する行抽出ステップと、手書き線分
を、行抽出手段で抽出された行の領域の任意文字列の画
像を囲む直線に修正して、表示部に表示する線分修正表
示ステップとを有するこの発明のさらなる他の局面に従
えば、上述の文書画像処理方法のそれぞれをコンピュー
タに実行させるための文書画像プログラムを記録したコ
ンピュータで読取可能な記録媒体がそれぞれ提供され
る。
According to still another aspect of the present invention, a document image processing method includes a display step of displaying a document image, and a handwriting method surrounding an image of an arbitrary character string in the document image displayed by the display step. And a processing step of processing a handwritten line segment input in the line segment input step.
The processing step includes: a direction determining step of determining a direction of the handwritten line segment; and an arbitrary character in an area of the document image based on the direction determined by the direction determining step and one or more character images in the document image. A line extracting step of extracting a line region including a column image, and correcting the handwritten line segment into a straight line surrounding an image of an arbitrary character string in the line region extracted by the line extracting means, and displaying the straight line on the display unit According to still another aspect of the present invention having a line segment correction display step, a computer-readable recording medium storing a document image program for causing a computer to execute each of the above-described document image processing methods is provided. Is done.

【0029】[0029]

【発明の実施の形態】以下、この発明の各実施の形態に
ついて図面を参照して詳細に説明する。
Embodiments of the present invention will be described below in detail with reference to the drawings.

【0030】(第1実施の形態)図1(A)と(B)に
は、この発明の各実施の形態による文書画像処理装置の
機能構成とハードウェア構成とがそれぞれ示される。図
1(A)において文書画像処理装置は、文字を含む文書
の画像データを入力するための画像入力部1、表示部
2、線入力部3、行抽出部4、幅設定部61を有したお
よび曲線修正部5および透過処理部71を含む。行抽出
部4および曲線修正部5は、後述する各実施の形態で
は、行抽出部4Aおよび曲線修正部5Aとして参照され
る。また、曲線修正部5は第1実施の形態で説明される
調整部53、後述する第2実施の形態で説明されるルビ
行認識部50、修正データ有無判定部54および位置修
正部55、ならびに後述する第3実施の形態で示される
複数自由曲線有無判定部56および複数線位置修正部5
7をさらに含む。
(First Embodiment) FIGS. 1A and 1B show a functional configuration and a hardware configuration of a document image processing apparatus according to each embodiment of the present invention, respectively. 1A, the document image processing apparatus has an image input unit 1, a display unit 2, a line input unit 3, a line extraction unit 4, and a width setting unit 61 for inputting image data of a document including characters. And a curve correction unit 5 and a transmission processing unit 71. The row extracting unit 4 and the curve correcting unit 5 are referred to as a row extracting unit 4A and a curve correcting unit 5A in each embodiment described later. The curve correction unit 5 includes an adjustment unit 53 described in the first embodiment, a ruby line recognition unit 50 described below in a second embodiment, a correction data presence / absence determination unit 54 and a position correction unit 55, and Multiple free curve presence / absence determination unit 56 and multiple line position correction unit 5 shown in a third embodiment to be described later.
7 is further included.

【0031】図1(B)において文書画像処理装置は該
装置自体を集中的に監視および制御するためのCPU
(中央処理装置の略)30を含み、CPU30には画像
入力部1の一例であるスキャナ1A、表示部2、線入力
部3の一例であるタブレット3A、各種プログラムを記
憶するためのプログラム記憶部31Pおよび各種データ
を記憶するためのデータ記憶部31Dを含む記憶部3
1、通信ネットワーク33を接続するための通信I/F
(インタフェースの略)32、ならびに各種プログラム
および各種データが格納される外部記憶媒体35がセッ
トされて、これをアクセスするための外部記憶媒体ドラ
イバ34が接続される。通信ネットワーク33は、例え
ばインターネットのようなあらゆる通信ネットワークを
適用できる。
In FIG. 1B, a document image processing apparatus has a CPU for centrally monitoring and controlling the apparatus itself.
The CPU 30 includes a scanner 1A as an example of the image input unit 1, a display unit 2, a tablet 3A as an example of the line input unit 3, and a program storage unit for storing various programs. Storage unit 3 including 31P and data storage unit 31D for storing various data
1. Communication I / F for connecting the communication network 33
An interface storage 32 and an external storage medium 35 storing various programs and various data are set, and an external storage medium driver 34 for accessing the external storage medium 35 is connected. As the communication network 33, for example, any communication network such as the Internet can be applied.

【0032】図1(B)には、第1実施の形態によるデ
ータ記憶部31Dの記憶内容例が示される。その詳細は
後述する。
FIG. 1B shows an example of the storage contents of the data storage section 31D according to the first embodiment. The details will be described later.

【0033】図1(A)の文書画像処理装置の動作にお
いて、画像入力部1により入力された文書の画像データ
は表示部2においてビットマップフォントに展開されて
表示されるとともに、データ記憶部31Dにおいて画像
データ36Dとして格納される。ユーザは、表示された
文書画像を見ながら、線入力部3を操作してフリーハン
ドの手書きによる線分(以下、自由曲線という)を文書
画像の所望位置の文字列に重ねて入力する。自由曲線に
は、傾いていない直線や傾いた直線、折れ線なども含ま
れる。入力された自由曲線のデータは入力データ36A
として逐次、データ記憶部31Dに格納される。次に、
行抽出部4により、画像データ36Dと入力データ36
Aとを利用して判別行領域データ36Bが抽出されて、
曲線修正部5に与えられる。判別行領域データ36B
は、画像データ36Dで示される文書において自由曲線
が引かれた行の領域を示す情報である。曲線修正部5で
は、与えられた判別行領域データ36Bと入力データ3
6Aとを利用して、入力データ36Aを後述するように
修正して、修正データ36Cとしてデータ記憶部31D
に格納する。
In the operation of the document image processing apparatus shown in FIG. 1A, the image data of the document input by the image input unit 1 is developed and displayed in a bitmap font on the display unit 2, and the data storage unit 31D Is stored as image data 36D. While viewing the displayed document image, the user operates the line input unit 3 to input a freehand handwritten line segment (hereinafter, referred to as a free curve) in a manner superimposed on a character string at a desired position in the document image. The free curve includes a straight line that is not inclined, a straight line that is inclined, a polygonal line, and the like. The input free curve data is input data 36A.
Are sequentially stored in the data storage unit 31D. next,
The image data 36D and the input data 36
A, the discrimination line area data 36B is extracted using
It is provided to the curve correction unit 5. Discrimination line area data 36B
Is information indicating an area of a line where a free curve is drawn in the document indicated by the image data 36D. In the curve correcting unit 5, the given discrimination line area data 36B and the input data 3
6A, the input data 36A is corrected as described later, and the corrected data 36C is used as the corrected data 36C.
To be stored.

【0034】透過処理部71は、画像入力部1によって
入力された画像データ36Dと曲線修正部5により得ら
れた修正データ36Cから、修正データ36Cによる線
分が重ねて引かれる画像を、該線分から透過して表示さ
れるように処理(以下、透過処理という)を行ない、処
理後の画像データを表示部2に渡して、表示部2により
表示させる。なお、入力データ36Aおよび修正データ
36Cは、以降の各実施の形態では入力データ36AA
および修正データ36CCとして参照される。
From the image data 36D input by the image input unit 1 and the correction data 36C obtained by the curve correction unit 5, the transmission processing unit 71 converts an image in which a line segment based on the correction data 36C is drawn in an overlapping manner. A process (hereinafter, referred to as a transmission process) is performed so that the image data is displayed in a transparent manner, and the processed image data is passed to the display unit 2 and displayed on the display unit 2. The input data 36A and the correction data 36C are input data 36AA in the following embodiments.
And correction data 36CC.

【0035】画像入力部1としては、ここではOCR
(光学的文字読取装置)、複写機、電子カメラなどの画
像読取装置であるスキャナ1Aが示されるが、これに限
定されない。つまり、予め原稿を読取って得られた画像
が格納されたCD−ROM,ハードディスク、フレキシ
ブルディスク、光磁気ディスクなどの記録媒体読取装置
や、半導体メモリであってもよい。また、文書画像デー
タの入力は、画像入力部1に代替して、通信ネットワー
ク33を介して受信する方式であってもよい。
As the image input unit 1, here, the OCR
(Optical character reading device), a scanner 1A which is an image reading device such as a copying machine or an electronic camera is shown, but is not limited thereto. That is, a recording medium reading device such as a CD-ROM, a hard disk, a flexible disk, a magneto-optical disk, or a semiconductor memory in which an image obtained by reading a document in advance is stored may be used. The input of the document image data may be replaced with the image input unit 1 and may be a method of receiving the document image data via the communication network 33.

【0036】表示部2は、図示されない表示制御部と出
力部とを備える。出力部は、たとえばCRT(陰極線
管)やLCD(液晶ディスプレイ)などの画像表示装置
でよい。動作において、表示部2は、まず画像入力部1
から送られてきた画像データ36Dよる文書画像を表示
し、次に線入力部3から与えられる入力データ36Aに
よる自由曲線を文書画像に重ねて表示する。そして、自
由曲線修正処理の後、入力データ36Aによる自由曲線
の表示を消去し、曲線修正部5から与えられる修正後の
入力データ36Aに従う、すなわち修正データ36Cに
従う線分が表示部2の文書画像に重ねて表示される。
The display unit 2 includes a display control unit and an output unit (not shown). The output unit may be an image display device such as a CRT (cathode ray tube) or an LCD (liquid crystal display). In operation, the display unit 2 first displays the image input unit 1
Is displayed, and then a free curve based on the input data 36A provided from the line input unit 3 is displayed over the document image. Then, after the free curve correction processing, the display of the free curve by the input data 36A is deleted, and the line segment according to the corrected input data 36A given from the curve correction unit 5, ie, the line segment according to the correction data 36C is displayed on the display unit 2. Will be displayed on top.

【0037】ここで、線入力部3はタブレット3Aに限
定されない。たとえば、マウス、カーソルおよびジョイ
スティックなどのポインティングデバイスであってもよ
い。線入力部3により入力された自由曲線の入力データ
36Aは表示部2、行抽出部4および曲線修正部5にそ
れぞれ与えられる。
Here, the line input unit 3 is not limited to the tablet 3A. For example, a pointing device such as a mouse, a cursor, and a joystick may be used. The input data 36A of the free curve input by the line input unit 3 is given to the display unit 2, the row extraction unit 4, and the curve correction unit 5, respectively.

【0038】行抽出部4と曲線修正部5は、CPU30
と記憶部31とを含んで構成される。
The line extracting unit 4 and the curve correcting unit 5
And a storage unit 31.

【0039】次に図2を参照してこの発明に係る文書画
像処理装置の全体の処理の流れを説明する。ステップS
1(図2中では、S1と略される)では、画像入力部1
から画像データ36Dを入力する。以下の説明ではビッ
トマップに展開された画像データ36Dの領域の水平方
向をX方向、垂直方向をY方向、左上端を原点とする。
ステップS2では、ユーザは表示部2により表示された
画像データ36Dを見ながら、線入力部3から手書きに
より自由曲線を所望文字列に重ねて入力する。自由曲線
の入力データ36Aは、たとえばタブレット3の主面上
の(x(i),y(i))(i=1〜n)のように、時
系列のn個の座標値の集合で規定される。ここでは、自
由曲線の入力成分が小さい順に入力データ36Aに設定
される。ステップS3では、画像データ36Dの領域に
対して、後述する各種の処理が実行されるべき処理領域
が指定されて、以降の処理は、この処理領域内で行なわ
れる。画像データ36Dの全領域を処理の対象とするよ
りも、このように部分的な領域を指定して、この部分領
域に対してのみ処理をする方が処理速度が向上するので
望ましい。
Next, the overall processing flow of the document image processing apparatus according to the present invention will be described with reference to FIG. Step S
1 (abbreviated as S1 in FIG. 2), the image input unit 1
Input image data 36D. In the following description, the horizontal direction of the area of the image data 36D expanded into the bitmap is the X direction, the vertical direction is the Y direction, and the upper left end is the origin.
In step S <b> 2, the user inputs a free curve over the desired character string by handwriting from the line input unit 3 while viewing the image data 36 </ b> D displayed on the display unit 2. The input data 36A of the free curve is defined by a set of n time-series coordinate values such as (x (i), y (i)) (i = 1 to n) on the main surface of the tablet 3. Is done. Here, the input components of the free curve are set in the input data 36A in ascending order. In step S3, a processing area in which various processing to be described later is to be executed is specified for the area of the image data 36D, and the subsequent processing is performed in this processing area. It is more desirable to designate a partial area in this way and to process only this partial area, rather than to target the entire area of the image data 36D, because the processing speed is improved.

【0040】次にステップS4では、以降の処理を、画
像データ36Dの文書が縦書きである場合の行(X方
向)、横書きである場合の列(Y方向)のどちらに対し
て実行するかを決定するために、自由曲線が水平方向
(行方向、X方向)に対して入力されたか判別される。
ステップS5では、自由曲線が水平方向に入力されたと
判断されると、ステップS6以降の処理が実行される
が、水平方向に入力されたのではないと判断されると、
ステップS5の処理が実行されて、ステップS6以降の
処理において行と列が入換えられる。
Next, in step S4, the following processing is performed on either the row (X direction) when the document of the image data 36D is written vertically or the column (Y direction) when the document is written horizontally. It is determined whether a free curve has been input in the horizontal direction (row direction, X direction) in order to determine.
In step S5, when it is determined that the free curve has been input in the horizontal direction, the processing after step S6 is executed, but when it is determined that the free curve has not been input in the horizontal direction,
The processing of step S5 is executed, and the rows and columns are exchanged in the processing after step S6.

【0041】ステップS6では、処理領域において、後
述するようにして文字の領域情報が検出される。ステッ
プS7では、検出された文字の領域情報と入力データ3
6Aで示される自由曲線の方向とにより、対応する行の
領域情報が抽出される。ステップS8では、抽出された
行の領域情報により、入力データ36Aの自由曲線は、
いずれの行に対して引かれたかが判別される。ステップ
S9では、判別された行に重ねて自由曲線が引かれるよ
うに、後述するようにして入力データ36Aが修正さ
れ、修正データ36Cが得られる。ステップS10で
は、画像データ36Dの文書中の所望文字列が表示部2
にて、修正により得られた修正データ36Cに基づく線
分を透過して表示されるように透過処理が行なわれる。
S11では、透過処理後のデータと画像データ36Dが
表示部2に表示される。ここでは、図1Aの画像入力部
1がステップS1、表示部2がステップS10、線入力
部3がステップS2、行抽出部4がステップS3〜S
8、曲線修正部5がステップ9、透過処理部71がステ
ップS10の処理機能をそれぞれ有する。
In step S6, character area information is detected in the processing area as described later. In step S7, the area information of the detected character and the input data 3
The area information of the corresponding row is extracted based on the direction of the free curve indicated by 6A. In step S8, the free curve of the input data 36A is calculated based on the region information of the extracted row.
It is determined which line has been drawn. In step S9, the input data 36A is corrected as described later so that a free curve is drawn over the determined row, and corrected data 36C is obtained. In step S10, the desired character string in the document of the image data 36D is displayed on the display unit 2.
The transparent processing is performed such that the line segment based on the correction data 36C obtained by the correction is displayed transparently.
In S11, the data after the transmission processing and the image data 36D are displayed on the display unit 2. Here, the image input unit 1 of FIG. 1A is step S1, the display unit 2 is step S10, the line input unit 3 is step S2, and the line extraction unit 4 is steps S3 to S
8, the curve correction unit 5 has the processing function of step 9, and the transmission processing unit 71 has the processing function of step S10.

【0042】次に図1Aの行抽出部4について説明す
る。図3には行抽出部4の構成が示される。図3におい
て行抽出部4は処理領域指定部6、方向判別部7、文字
領域検出部8、行領域抽出部9および行判別部10を含
む。処理領域指定部6、方向判別部7および行判別部1
0は、後述する実施の形態では、処理領域指定部6A、
方向判別部7Aおよび行判別部10Aとして参照され
る。
Next, the row extracting section 4 shown in FIG. 1A will be described. FIG. 3 shows the configuration of the row extracting unit 4. 3, the line extracting unit 4 includes a processing area specifying unit 6, a direction determining unit 7, a character region detecting unit 8, a line region extracting unit 9, and a line determining unit 10. Processing region designating unit 6, direction determining unit 7, and line determining unit 1
0 is a processing area designation unit 6A in an embodiment described later,
It is referred to as the direction determination unit 7A and the row determination unit 10A.

【0043】処理領域指定部6は、画像データ36Dの
領域において、入力データ36Aで示される自由曲線か
ら離れた領域が、後述する文字領域検出や行抽出の処理
に影響されないようにする。つまり、文字領域検出や行
領域抽出の処理が施される処理領域は、自由曲線の入力
データ36Aで示される位置から一定範囲に指定され
る。図4(A)を参照して、以下に具体的に説明する。
The processing area designating section 6 prevents the area of the image data 36D that is apart from the free curve indicated by the input data 36A from being affected by the later-described character area detection and line extraction processing. In other words, the processing area where the processing of character area detection and line area extraction is performed is specified within a certain range from the position indicated by the free curve input data 36A. This will be specifically described below with reference to FIG.

【0044】図4(A)には、画像入力部1から取得し
た画像データ36Dに対応の文書が表示部2に表示され
ている様子が示される。図4(A)ではX方向の画像デ
ータ36Dの幅WDとY方向の画像データ36Dの高さ
HTがそれぞれ示される。図4(B)には、表示された
画像データ36Dに対して自由曲線のデータ(入力デー
タ36A)が入力されて、処理領域PE(図の点線で囲
まれた部分)が指定されている様子が示される。自由曲
線の入力データ36A(x(i),y(i))(i=1
〜n)の始点の座標データ(x(1),y(1))と終
点の座標データ(x(n),y(n))とにより、処理
領域PEは矩形領域のデータ(x(1)−W,y(1)
−H),(x(n)+W1,y(n)+H1)で指定さ
れる。ただし(x(1)−W,y(1)−H)は矩形領
域の左上端の座標値を示し(x(n)+W1,y(n)
+H1)は矩形領域の右下端の座標値を示す。また、こ
こで変数W,H,W1およびH1はそれぞれ任意の定数
であり文書の画像データ36Dにおける行間隔や文字間
隔の定数倍の値を持つように設定されると、入力した画
像データ36Dに応じた処理領域PEを指定することが
できる。なお、本実施の形態では処理領域PEを自由曲
線の入力データ36Aで示される位置情報に基づいて自
動設定されるが、これに限定されない。つまり、必要に
応じてタブレット3などで処理領域PEを指定するよう
にしてもよい。
FIG. 4A shows a state in which a document corresponding to the image data 36D obtained from the image input unit 1 is displayed on the display unit 2. FIG. 4A shows the width WD of the image data 36D in the X direction and the height HT of the image data 36D in the Y direction. In FIG. 4B, the free curve data (input data 36A) is input to the displayed image data 36D, and the processing area PE (the portion surrounded by the dotted line in the figure) is specified. Is shown. Free curve input data 36A (x (i), y (i)) (i = 1
To n), the processing area PE is defined by rectangular area data (x (1) based on the coordinate data (x (1), y (1)) of the start point and the coordinate data (x (n), y (n)) of the end point. ) -W, y (1)
−H), (x (n) + W1, y (n) + H1). Here, (x (1) -W, y (1) -H) indicates the coordinate value of the upper left corner of the rectangular area (x (n) + W1, y (n)
+ H1) indicates the coordinate value of the lower right corner of the rectangular area. Here, the variables W, H, W1, and H1 are arbitrary constants, and if they are set to have a constant multiple of the line spacing or character spacing in the image data 36D of the document, the input image data 36D A corresponding processing area PE can be designated. In the present embodiment, the processing area PE is automatically set based on the position information indicated by the input data 36A of the free curve, but is not limited to this. That is, the processing area PE may be specified by the tablet 3 or the like as necessary.

【0045】方向判別部7により、自由曲線がX方向お
よびY方向のいずれに入力されたかが判別される。この
方向判別処理について図5のフローチャートを参照し説
明する。まず、ステップS21では、自由曲線の入力デ
ータ36A(x(i),y(i))(i=1〜n)の始
点座標(x(1),y(1))と終点の座標(x
(n),y(n))との、X方向の差の絶対値|x
(1)−x(n)|とY方向の差の絶対値|y(1)−
y(n)|とが比較されて、前者が大きい場合にはステ
ップS22において、X方向に自由曲線が引かれたと判
別される。逆に後者が大きい場合には、ステップS23
において、自由曲線はY方向に引かれたと判別される。
The direction determining unit 7 determines whether the free curve is input in the X direction or the Y direction. This direction determination processing will be described with reference to the flowchart in FIG. First, in step S21, the start point coordinates (x (1), y (1)) and the end point coordinates (x (x)) of the free curve input data 36A (x (i), y (i)) (i = 1 to n).
(N), y (n)) and the absolute value | x of the difference in the X direction
(1) −x (n) | and the absolute value of the difference in the Y direction | y (1) −
y (n) |, and if the former is larger, it is determined in step S22 that a free curve has been drawn in the X direction. Conversely, if the latter is large, step S23
In, it is determined that the free curve is drawn in the Y direction.

【0046】図6に、図5の処理の具体例が示される。
自由曲線Lの一方の端点の座標(23,34)と他方端
点の座標(31,35)のX方向の差の絶対値は8(=
|23−31|)、Y方向の差の絶対値は1(=|34
−35|)であり、前者の値が大きい。よって、文書の
画像データ36Dに対して手書きによる自由曲線Lの入
力データ36AはX方向に引かれたと判定される。
FIG. 6 shows a specific example of the processing of FIG.
The absolute value of the difference in the X direction between the coordinates (23, 34) of one end point of the free curve L and the coordinates (31, 35) of the other end point is 8 (=
| 23−31 |), the absolute value of the difference in the Y direction is 1 (= | 34)
−35 |), and the former value is large. Accordingly, it is determined that the input data 36A of the free curve L drawn by hand with respect to the image data 36D of the document is drawn in the X direction.

【0047】文字領域検出部8は、処理領域PE内の画
像データ36Dについて、自由曲線の入力データ36A
の方向に基づき文字領域を検出する。文字領域の検出方
法の一例として、XおよびYの各方向のそれぞれへの投
影法が採用される。この投影法とは、画像データ36D
は文字部分と空白部分との濃淡レベルのデータを有して
いて、この濃淡レベルデータを指定された方向に投影す
るものである。つまり、画像データ36DのY方向(あ
るいはX方向)への投影図がとられて、処理領域PEは
候補とされる1つ以上の行領域(あるいは候補とされる
1つ以上の列領域)と、そうでない領域とに分けられ
る。そして、候補とされる1つ以上の行領域(あるいは
列領域)について、同様にしてX方向(あるいはY方
向)への投影図がとられることにより、処理領域PEは
文字の候補とされる1つ以上の領域とそうでない領域と
に分けられる。さらに、文字の候補領域のそれぞれにつ
いて、同様にしてY方向(あるいはX方向)への投影図
がとられて、1つ以上の文字領域が検出される。これ
を、図7(A)〜(F)を参照して説明する。
The character area detecting section 8 calculates the free curve input data 36A for the image data 36D in the processing area PE.
Character area is detected based on the direction of. As an example of a method for detecting a character area, a projection method in each of the X and Y directions is adopted. This projection method refers to image data 36D
Has gray level data of a character portion and a blank portion, and projects the gray level data in a designated direction. That is, a projection of the image data 36D in the Y direction (or the X direction) is taken, and the processing area PE includes one or more candidate row areas (or one or more candidate column areas). , And areas that are not. Then, a projection in the X direction (or Y direction) is similarly made for one or more row regions (or column regions) as candidates, so that the processing region PE becomes a character candidate. It is divided into one or more areas and the other area. Further, a projection in the Y direction (or the X direction) is similarly taken for each of the character candidate regions, and one or more character regions are detected. This will be described with reference to FIGS.

【0048】たとえば自由曲線LがX方向に入力された
場合に(図7(A)参照)、自由曲線Lが入力される前
の画像データ36Dについて、まず処理領域PEのY方
向(図中、点線矢印方向)への投影図YSDがとられる
(図7(B)参照)。そして、処理領域PEは複数の候
補となる行領域LEとそうでない領域(図中、斜線部)
とに分けられる(図7(C)参照)。次に、候補となる
行領域LEのそれぞれに対してX方向(図中、点線矢印
方向)の投影図XSDがとられると(図7(D)参
照)、処理領域PEは1つ以上の候補となる文字領域C
Eとそうでない領域とに分けられる。図7(D)におい
て、文字「川」や文字「い」は1つの文字であるのに、
これらの文字領域は、複数の候補となる文字領域CEに
分けられている。したがって、このような文字に対して
も正しく文字領域CEの検出ができるようにするために
は、それぞれの文字領域CEのX方向の距離が、あるし
きい値V以下であれば、それら文字領域CEを1つの文
字領域CEに統合するという方法が採用される(図7
(E)参照)。ただし、しきい値Vは任意の定数であ
り、画像データ36Dの文書における文字間隔の定数倍
の値に設定されると、画像データ36Dに応じた処理を
行なうこともできる。さらに、それぞれの文字領域CE
に対してY方向への投影図YSDが採られると、各文字
についての文字領域CE1が最終的に検出される(図7
(F)参照)。
For example, when the free curve L is input in the X direction (see FIG. 7A), first, for the image data 36D before the free curve L is input, first, the Y direction of the processing area PE (in the figure, A projection YSD (in the direction of the dotted arrow) is taken (see FIG. 7B). The processing area PE is a plurality of candidate row areas LE and non-row areas LE (shaded portions in the figure).
(See FIG. 7C). Next, when a projection XSD in the X direction (the direction of the dotted arrow in the figure) is taken for each of the candidate row areas LE (see FIG. 7D), the processing area PE includes one or more candidate rows. Character area C
It is divided into E and non-E. In FIG. 7 (D), although the characters “kawa” and “i” are one character,
These character areas are divided into a plurality of candidate character areas CE. Therefore, in order to correctly detect the character area CE even for such characters, if the distance in the X direction of each character area CE is equal to or less than a certain threshold V, the character area CE A method of integrating CE into one character area CE is employed (FIG. 7).
(E)). However, the threshold value V is an arbitrary constant. If the threshold value V is set to a value that is a constant multiple of the character spacing in the document of the image data 36D, processing according to the image data 36D can be performed. Furthermore, each character area CE
When a projection YSD in the Y direction is taken, a character area CE1 for each character is finally detected (FIG. 7).
(F)).

【0049】行領域抽出部9は、処理領域PEにおける
画像データ36Dに対する自由曲線Lの入力データ36
Aの方向に基づき、行領域の抽出を行なう。行領域抽出
方法の一例として、各文字領域CE1のXおよびY方向
への投影図XSDおよびYSDを用いる方法がある。こ
の方法は、各文字領域CE1の情報について入力データ
36Aの方向と直交する方向に投影図をとることによ
り、行領域(あるいは列領域)を抽出するものである。
具体的には、たとえば、図8(A)のように予め複数の
文字領域CE1の情報が検出されているとする。自由曲
線LはX方向に引かれていることが判別されているの
で、Y方向への投影図YSDが採られると(図8(B)
参照)、行領域LE1を抽出することができる(図8
(C)参照)。また複数の文字領域CE1の情報を用い
ずに、行領域LE1を抽出する方法がある。たとえば、
図7(D)でX方向への投影図XSDにおいて、その両
端部分の情報を切取れば、1つ以上の行領域LE1が抽
出される。
The row area extraction unit 9 inputs the free curve L input data 36 to the image data 36D in the processing area PE.
A row region is extracted based on the direction of A. As an example of the line area extraction method, there is a method using projections XSD and YSD of the respective character areas CE1 in the X and Y directions. In this method, a row area (or a column area) is extracted by taking a projection of information on each character area CE1 in a direction orthogonal to the direction of the input data 36A.
Specifically, for example, it is assumed that information on a plurality of character areas CE1 has been detected in advance as shown in FIG. Since it is determined that the free curve L is drawn in the X direction, a projection YSD in the Y direction is taken (FIG. 8B).
8), and the line area LE1 can be extracted (FIG. 8).
(C)). In addition, there is a method of extracting the line area LE1 without using information on the plurality of character areas CE1. For example,
In the projection XSD in the X direction in FIG. 7D, if information at both ends is cut off, one or more row regions LE1 are extracted.

【0050】抽出された行領域LE1のそれぞれは、矩
形領域のデータ((s(j),t(j)),(u
(j),v(j)))(j=1〜m)で規定されるとす
る。ただし、変数mは抽出された行領域LE1の総個数
を示し、変数(s(j)、t(j))は矩形領域の左上
端の座標値を示し、変数(u(j),v(j))は矩形
領域の右下端の座標値を示す。このようにして抽出され
た1つ以上の行領域LE1の情報は、CPU30の図示
されない内部メモリに一時格納される。
Each of the extracted row areas LE1 has rectangular area data ((s (j), t (j)), (u
(J), v (j))) (j = 1 to m). Here, the variable m indicates the total number of the extracted row areas LE1, the variables (s (j), t (j)) indicate the coordinate values of the upper left corner of the rectangular area, and the variables (u (j), v ( j)) indicates the coordinate value of the lower right corner of the rectangular area. The information of one or more row areas LE1 extracted in this way is temporarily stored in an internal memory (not shown) of the CPU 30.

【0051】行判別部10は、自由曲線Lが画像データ
36Dの文書中のいずれの行に対して引かれたかを判別
する。この行を判別するために、1つ以上の行領域LE
1のデータ((S(j),t(j)),(u(j),v
(j)))(j=1〜m)と自由曲線Lの入力データ3
6A(x(i),y(i))(i=1〜n)とが用いら
れる。具体的には、自由曲線LがX方向に入力された場
合には、自由曲線Lの入力データ36Aのy座標の平均
値MY(=(y(1)+y(2)+…+y(n))/
n)と行領域LE1の情報におけるY方向の平均値MY
(j)(=(t(j)+v(j))/2)(j=1〜
m)とが比較されて、自由曲線Lが引かれた行が決定さ
れる。
The line determining unit 10 determines which line in the document of the image data 36D the free curve L has been drawn. To determine this row, one or more row areas LE
1 ((S (j), t (j)), (u (j), v
(J))) (j = 1 to m) and input data 3 of the free curve L
6A (x (i), y (i)) (i = 1 to n). Specifically, when the free curve L is input in the X direction, the average value MY (= (y (1) + y (2) +... + Y (n)) of the y coordinate of the input data 36A of the free curve L ) /
n) and the average value MY in the Y direction in the information of the row area LE1
(J) (= (t (j) + v (j)) / 2) (j = 1 to
m) to determine the line on which the free curve L is drawn.

【0052】図9のフローチャートを用いて、行判別部
10による処理を、自由曲線LがX方向に入力された場
合について説明する。ステップS31では、行領域LE
1のデータ((s(j),t(j)),(u(j)、v
(j)))(j=1〜m)と自由曲線Lの入力データ3
6A(x(i),y(i))(i=1〜n)とがCPU
30の図示されない内部メモリおよびデータ記憶部31
Dから読出される。ステップS32では、1つ以上の行
領域LE1が行領域抽出部9によって抽出されているか
どうかが判定される。行領域LE1が抽出されていない
場合には、自由曲線Lの付近に文字が存在しないという
ことが想定されるため、すべての処理は終了し、自由曲
線Lの入力データ36Aについての曲線修正部5による
修正は行なわれない。
With reference to the flowchart of FIG. 9, the processing by the line discriminating unit 10 will be described for the case where the free curve L is input in the X direction. In step S31, the row area LE
1 ((s (j), t (j)), (u (j), v
(J))) (j = 1 to m) and input data 3 of the free curve L
6A (x (i), y (i)) (i = 1 to n) is the CPU
30 not shown internal memory and data storage unit 31
Read from D. In step S32, it is determined whether one or more line regions LE1 have been extracted by the line region extraction unit 9. If the line area LE1 has not been extracted, it is assumed that no character exists near the free curve L. Therefore, all the processing ends, and the curve correction unit 5 for the input data 36A of the free curve L is completed. No corrections are made.

【0053】一方、行領域抽出部9により予め行領域L
E1が抽出されていれば、ステップS33では、自由曲
線Lの入力データ36Aのy座標値の平均値MYが求め
られる。ステップS34では、変数jに1が設定され
て、1つ目の行領域LE1のデータが指定される。ステ
ップS35で、平均値MYが行領域のY方向の最小値t
(j)と最大値v(j)の間に含まれるか否かを判定す
るために、v(j)>MY>t(j)が成立するか否か
を判定して、成立するならステップS38に進み、成立
しないならステップS39に進む。
On the other hand, the row area extracting unit 9 previously determines the row area L
If E1 has been extracted, in step S33, the average value MY of the y coordinate values of the input data 36A of the free curve L is obtained. In step S34, 1 is set to the variable j, and the data of the first row area LE1 is specified. In step S35, the average value MY is the minimum value t in the Y direction of the row area.
(J) and whether or not v (j)>MY> t (j) is satisfied, in order to determine whether or not v (j) is included, and if so, step The process proceeds to S38, and if not satisfied, proceeds to step S39.

【0054】ステップS38では、変数LNEに“j”
が設定されて、ステップS39では、次の行領域LE1
のデータが指定されて、その後、ステップS40に進
む。なお、変数LNEは自由曲線Lが引かれた行領域L
E1を特定するための値が設定される変数である。
In step S38, the variable LNE is set to "j".
Is set, and in a step S39, the next line area LE1 is set.
After that, the process proceeds to step S40. Note that the variable LNE is a line area L on which the free curve L is drawn.
This is a variable in which a value for specifying E1 is set.

【0055】ステップS40では、ステップS31で読
出されたすべての行領域LE1のデータに対して処理が
なされたか判定される。処理がなされていなければ、ス
テップS35に戻るが、処理がなされたと判定されれ
ば、一連の処理は終了して、変数LNEの値で示される
行領域LE1は、自由曲線Lが引かれた行として判定さ
れる。以下、これを、判別行という。
In step S40, it is determined whether or not the processing has been performed on the data of all the row areas LE1 read in step S31. If the processing has not been performed, the process returns to step S35, but if it is determined that the processing has been performed, a series of processing ends, and the line area LE1 indicated by the value of the variable LNE becomes the line area LE on which the free curve L is drawn. Is determined. Hereinafter, this is referred to as a determination line.

【0056】判別行は、矩形の領域データ((s,
t),(u,v))として規定される判別行領域データ
36Bとして、データ記憶部31Dにストアされる。た
だし、変数(s,t)は矩形領域の左上端の座標値、変
数(u,v)は矩形領域の右下端の座標値をそれぞれ示
す。自由曲線LがY方向に入力された場合には図9の処
理において、ステップS33とS35でMYをMXに、
tをsに、vをuにそれぞれ置換えればよい。
The discrimination line is a rectangular area data ((s,
t), (u, v)) are stored in the data storage unit 31D as discrimination row area data 36B. Here, the variable (s, t) indicates the coordinate value of the upper left corner of the rectangular area, and the variable (u, v) indicates the coordinate value of the lower right corner of the rectangular area. When the free curve L is input in the Y direction, MY is set to MX in steps S33 and S35 in the processing of FIG.
What is necessary is just to replace t with s and v with u.

【0057】ここで自由曲線LがX方向に入力された場
合の具体的な処理を、図10(A)〜(D)を参照し説
明する。図10(A)では、表示部2において文書の画
像に対して自由曲線Lが手書き入力された様子が示され
る。図10(B)では、処理領域指定部6により指定さ
れた処理領域PE内で文字領域検出部8により、文字領
域の検出が行なわれた結果が示される。図10(C)で
は、検出された各文字領域に関する情報と方向判別部7
により判別された自由曲線Lの入力データ36Aで示さ
れる方向とから、行領域抽出部9により1つ以上の行領
域LE1の抽出が行なわれた結果が示される。図10
(D)では、行判別部10により、自由曲線Lが、検出
された1つ以上の行領域LE1のうちのいずれの領域の
行に対して引かれたものかが判別された結果が示され
る。これらの処理の結果は、画面上に逐次表示されなく
てもよいが、処理が適切に実行されていることをユーザ
が容易に判別できるようにするために、ここでは表示さ
れるものとする。
Here, a specific process when the free curve L is input in the X direction will be described with reference to FIGS. 10 (A) to 10 (D). FIG. 10A shows a state where the free curve L is input by handwriting to the image of the document on the display unit 2. FIG. 10B shows the result of the detection of a character area by the character area detection section 8 in the processing area PE specified by the processing area specification section 6. In FIG. 10C, information about each detected character area and the direction discriminating unit 7 are shown.
The result obtained by extracting one or more row areas LE1 by the row area extraction unit 9 from the direction indicated by the input data 36A of the free curve L determined by the above is shown. FIG.
(D) shows the result of the line discriminating unit 10 discriminating which of the one or more detected line regions LE1 has been drawn to the line of the one or more detected line regions LE1. . The results of these processes need not be displayed sequentially on the screen, but are displayed here so that the user can easily determine that the processes are being executed appropriately.

【0058】次に、図1の曲線修正部5について説明す
る。曲線修正部5は、行抽出部4で得られた判別行に対
して自由曲線Lをどのように修正して、どの位置に引く
かを決定する。自由曲線Lの修正処理には、判別行の領
域データ((s,t),(u,v))と自由曲線Lの入
力データ36A(x(i)、y(i))(i=1〜n)
との位置に関する情報が用いられる。通常は、自由曲線
Lは所定の線幅を有した直線に修正される。ここでは、
自由曲線LがX方向に入力された場合、判別行領域デー
タ36Bの判別行領域に重ねて、自由曲線Lによる直線
が引かれるように、入力データ36Aが修正される場合
について説明する。
Next, the curve correcting section 5 of FIG. 1 will be described. The curve correction unit 5 determines how to correct the free curve L with respect to the discrimination row obtained by the row extraction unit 4 and to which position to draw. In the correction processing of the free curve L, the area data ((s, t), (u, v)) of the discrimination row and the input data 36A of the free curve L (x (i), y (i)) (i = 1 ~ N)
The information about the position of is used. Usually, the free curve L is corrected to a straight line having a predetermined line width. here,
The case where the input data 36A is corrected so that when the free curve L is input in the X direction and a straight line based on the free curve L is drawn over the discrimination row area of the discrimination row area data 36B.

【0059】図11を参照して、自由曲線LがX方向に
入力された場合の曲線修正処理について説明する。ステ
ップS41ではデータ記憶部31Dから判別行領域デー
タ36B((s,t),(u,v))と自由曲線Lの入
力データ36A(x(i),y(i))(i=1〜n)
とが読出される。ステップS42では、変数iに1が設
定されて、入力データ36Aにおける1つ目の座標のデ
ータが指定される。ステップS43では、入力データ3
6Aのx座標のデータはそのままにして、かつy座標の
データは、判別行領域のY方向の中間位置((t+v)
/2)の値とされる。結果として、入力データ36Aは
修正データ36C(xc(i)、yc(i))に変換さ
れる。ステップS44では、入力データ36Aの次の座
標のデータが指定される。ステップS45では、入力デ
ータ36Aのすべての座標のデータに対して処理がなさ
れたか判定される。なされていなければ、ステップS4
3に戻るが、なされていれば、ステップS46で、幅設
定部71から幅データthを得る。その後、曲線修正の
処理は終了し、修正データ36C(xc(i)、yc
(i))(i=1〜n)と幅データthが得られてデー
タ記憶部31Dに格納される。
Referring to FIG. 11, a description will be given of a curve correction process when a free curve L is input in the X direction. In step S41, the discrimination row area data 36B ((s, t), (u, v)) and the input data 36A of the free curve L (x (i), y (i)) (i = 1 to n)
Are read. In step S42, 1 is set to the variable i, and the data of the first coordinate in the input data 36A is designated. In the step S43, the input data 3
The data of the x coordinate of 6A is left as it is, and the data of the y coordinate is the intermediate position ((t + v)
/ 2). As a result, the input data 36A is converted into correction data 36C (xc (i), yc (i)). In step S44, data of the coordinates following the input data 36A is specified. In step S45, it is determined whether the processing has been performed on the data of all the coordinates of the input data 36A. If not, step S4
Returning to step 3, if it has been performed, the width data th is obtained from the width setting unit 71 in step S46. After that, the curve correction processing ends, and the correction data 36C (xc (i), yc
(I)) (i = 1 to n) and the width data th are obtained and stored in the data storage unit 31D.

【0060】なお、修正データ36Cは座標(xc
(1),yc(1))と座標(xc(n)、yc
(n))とを結ぶ幅データthの幅を有した直線として
規定されてもよい。左上の座標を(x(1)、t)、右
下の座標を(x(n)、v)とするような矩形領域とし
ても良い。上述した自由曲線LがX方向に入力された場
合の具体的な修正処理の様子が後述の図13(A)と
(B)で示される。
The correction data 36C has the coordinates (xc
(1), yc (1)) and coordinates (xc (n), yc
(N)) may be defined as a straight line having the width of the width data th. The rectangular area may be such that the upper left coordinate is (x (1), t) and the lower right coordinate is (x (n), v). FIGS. 13 (A) and 13 (B) show the specific correction processing when the above-mentioned free curve L is input in the X direction.

【0061】ここで、自由曲線の入力データがX方向に
入力された場合の曲線修正処理に含まれる幅設定処理に
ついて、図12のフローチャートを用いて説明する。
Here, the width setting processing included in the curve correction processing when the input data of the free curve is input in the X direction will be described with reference to the flowchart of FIG.

【0062】ステップS51で、判別行領域データ36
Bの情報((s、t)、(u、v))を読出す。ステッ
プS52で、ユーザにより線幅が指定されているか否か
判別し、指定されている場合には、ステップS53で、
ユーザにより指定された線幅の値を幅データthに設定
する。ユーザが線幅を指定していない場合には、ステッ
プS54で判別行領域のY方向の幅(v−t)+1を幅
データthとして、判別行の文字列のY方向の大きさに
応じた幅の線を、該文字列に重ねて引くことができる。
幅設定処理を終えると、前述の曲線修正処理に幅データ
thを与える。
In step S51, the discrimination line area data 36
Read the information of B ((s, t), (u, v)). In step S52, it is determined whether or not the line width is specified by the user. If the line width is specified, in step S53,
The value of the line width specified by the user is set in the width data th. If the user has not specified the line width, the width (v−t) +1 of the discrimination line area in the Y direction is set as the width data th in step S54, and the width of the discrimination line area is determined in accordance with the Y direction size. A width line can be drawn over the string.
When the width setting processing is completed, the width data th is given to the above-described curve correction processing.

【0063】なお自由曲線LがY方向に手書き入力され
た場合には、図11のフローチャートのステップS43
で示される式を、xc(i)=(s+u)/2,yc
(i)=y(i)と変更し、図12のフローチャートで
ステップS54のYをXに、tをsに、vをuに変更す
ればよい。これにより判別行領域の中間位置において幅
データthの幅を有する直線が引かれるように、自由曲
線Lの入力データ36Aが修正されて、修正データ36
Cが得られる。
When the free curve L is input by handwriting in the Y direction, step S43 in the flowchart of FIG.
Xc (i) = (s + u) / 2, yc
(I) = y (i), and in step S54 in the flowchart of FIG. 12, Y may be changed to X, t may be changed to s, and v may be changed to u. As a result, the input data 36A of the free curve L is corrected so that a straight line having the width of the width data th is drawn at the middle position of the discrimination line area, and the correction data 36
C is obtained.

【0064】また、修正データ36Cで示される線分の
端点の座標値については、各文字領域CE1の情報を利
用して、修正データ36Cで示される線分を見やすくす
るため、調整部53により修正データ36Cで示される
線分の長さが修正されてもよい。たとえば、図14
(A)で示されるように文字「木」、文字「川」のそれ
ぞれの文字領域CE1では、該文字領域CE1の途中か
ら自由曲線Lが引かれている。このような場合には、調
整部53により自由曲線Lが判別行の各文字領域CE1
に対して自由曲線Lの方向において所定しきい値T以上
の長さで引かれているかどうかが判断されて、修正デー
タ36Cが修正される。ただし、しきい値Tは任意の定
数であり、画像データ36Dの文章の文字間隔の定数倍
の値が設定されると、画像データ36Dに応じた修正デ
ータ36Cの修正処理を行なうことができる。各文字領
域CE1に対して、自由曲線Lの方向において、自由曲
線Lがしきい値T以上の長さで引かれている場合には、
該文字領域CE1の文字に対して自由曲線が引かれたと
判断されて、その文字領域CE1のX方向のすべての範
囲について直線が引かれるように修正データ36Cが修
正される(図14(B)参照)。また、ある文字領域C
E1とこれに隣接する文字領域CE1との間に直線の端
点が位置するように、修正データ36Cが修正される
(図14(C)参照)。このように、自由曲線Lに対応
の判別行の文字領域CE1の情報を利用して、自由曲線
Lの修正データ36Cで示される直線の長さを修正でき
る。
The coordinate value of the end point of the line segment indicated by the correction data 36C is corrected by the adjusting unit 53 by using the information of each character area CE1 so that the line segment indicated by the correction data 36C can be easily viewed. The length of the line segment indicated by the data 36C may be modified. For example, FIG.
As shown in (A), in each of the character areas CE1 of the characters "tree" and "kawa", a free curve L is drawn from the middle of the character area CE1. In such a case, the free curve L is adjusted by the adjustment unit 53 to each of the character areas CE1 of the discrimination line.
Is determined in the direction of the free curve L to be longer than the predetermined threshold value T, and the correction data 36C is corrected. However, the threshold value T is an arbitrary constant, and when a value that is a constant multiple of the character spacing of the text of the image data 36D is set, the correction processing of the correction data 36C according to the image data 36D can be performed. When the free curve L is drawn with a length equal to or longer than the threshold value T in the direction of the free curve L for each character area CE1,
It is determined that a free curve has been drawn for the character in the character area CE1, and the correction data 36C is corrected so that a straight line is drawn for the entire range of the character area CE1 in the X direction (FIG. 14B). reference). Also, a certain character area C
The correction data 36C is corrected so that the end point of the straight line is located between E1 and the character area CE1 adjacent to E1 (see FIG. 14C). As described above, the length of the straight line indicated by the correction data 36C of the free curve L can be corrected using the information of the character area CE1 of the discrimination line corresponding to the free curve L.

【0065】曲線修正部5は、ルビ行認識部50を有す
る。ルビ行認識部50は、行判別部4により判別された
行領域LE1(あるいは列領域)が、そのY方向(ある
いはX方向)の幅が他の行領域LE1(あるいは列領
域)の幅と比べて、所定しきい値U以下である場合に
は、漢字などにふられたルビの行であると認識する。た
だし、しきい値Uは、任意定数であり、画像データ36
Dの文書における文字間隔や行間隔の定数倍の値が設定
されることにより、画像データ36Dに応じたルビ行認
識の処理を行なうことができる。
The curve correcting section 5 has a ruby line recognizing section 50. The ruby row recognition section 50 compares the width of the row area LE1 (or column area) determined by the row determination section 4 in the Y direction (or X direction) with the width of another row area LE1 (or column area). If the value is equal to or less than the predetermined threshold value U, it is recognized that the line is a line of ruby touched by kanji or the like. However, the threshold value U is an arbitrary constant, and the image data 36
By setting a value that is a constant multiple of the character spacing or the line spacing in the document D, it is possible to perform ruby line recognition processing according to the image data 36D.

【0066】図15には、ルビ付文字が含まれる文字列
に対して、ルビ行に線分が引かれた場合の、曲線修正の
処理が示される。ここでは、次の(1)〜(3)に示さ
れるような処理のいずれかが選択されて、自由曲線Lが
修正される。
FIG. 15 shows a curve correction process when a line segment is drawn in a ruby line for a character string including a character with ruby. Here, one of the following processes (1) to (3) is selected, and the free curve L is corrected.

【0067】(1) ルビの行を含んだ線幅にて線を引
く処理(図15の矢印(1)参照)。
(1) A process of drawing a line with a line width including a line of ruby (see arrow (1) in FIG. 15).

【0068】(2) ルビの行を無視して、再度、行判
別処理を行なって、新たな判別行を決定し、決定された
判別行に基づいて線を引く処理(図15の矢印(2)参
照)。詳述すると、このように新たに決定された判別行
は、ルビがふられている文字のみからなる行となる。そ
して新たな判別行について線幅を有した線分が引かれ
る。
(2) The line of ruby is ignored, the line determination process is performed again, a new determination line is determined, and a line is drawn based on the determined determination line (arrow (2) in FIG. 15). )reference). More specifically, the newly determined discrimination line is a line consisting of only characters with ruby. Then, a line segment having a line width is drawn for a new determination line.

【0069】(3) 上述の(2)の処理と同様に、再
度、行判別処理が行なわれて、新たな判別行が決定され
て、決定された判別行に基づいて所定の幅を有した線を
引く処理(図15の矢印(3)参照)。詳述すると、新
たに決定された判別行において、ルビのある文字に対し
てはルビの行と新たな判別行とを含んだ線幅にて線を引
き、ルビのない文字に対しては新たな判別行のみを含ん
だ線幅を有して線を引く。
(3) In the same manner as the above-mentioned process (2), the line discrimination process is performed again, a new discrimination line is determined, and a predetermined width is determined based on the determined discrimination line. Processing for drawing a line (see arrow (3) in FIG. 15). Specifically, in the newly determined discrimination line, a line is drawn with a line width including the ruby line and the new discrimination line for a character with ruby, and a new line is drawn for a character without ruby. Draw a line having a line width that includes only the appropriate determination line.

【0070】次に、透過処理部71について説明する。
図16は、図1の透過処理部71の処理フローチャート
である。透過処理部71は、修正データ36Cおよび幅
データthに従う線分が引かれる位置に対応の画像デー
タを該線分から透過して表示されるように透過処理を行
なう。この透過処理には、画像入力部1で取得した画像
データ36D(Ix(w)(j),Iy(h)(j))
(w=1〜WD,h=1〜HT,j=1〜p)と修正デ
ータ36C(xc(i),yc(i))(i=1〜
n)、自由曲線データの色データc(j)(j=1〜
p)、透過率αが用いられる。ただし、pは画像データ
36Dを構成するプレーン数であり、モノクロ画像のと
きは1、カラー画像のときは3であることが多い。ま
た、通常は、c(j)とαはユーザから予め指定され
る。c(j)は、2値画像の場合は0≦c(j)≦1、
グレー画像またはカラー画像の場合は0≦c(j)≦2
55の整数であることが多く、αは0≦α≦1の任意の
定数であり、1に近づくほど修正データ36Cによる線
分の表示が薄く画像データ36Dによる画像が該線分を
介して透過するように表示される。また、0に近づくほ
ど修正データ36Cによる線分の表示が濃く、画像デー
タ36Dによる画像が該線分を介して透過しにくくなる
ように表示されるとする。
Next, the transmission processing section 71 will be described.
FIG. 16 is a processing flowchart of the transmission processing unit 71 of FIG. The transmission processing unit 71 performs transmission processing so that image data corresponding to a position where a line segment according to the correction data 36C and the width data th is drawn is transmitted from the line segment and displayed. In this transmission processing, the image data 36D (Ix (w) (j), Iy (h) (j)) acquired by the image input unit 1
(W = 1 to WD, h = 1 to HT, j = 1 to p) and the correction data 36C (xc (i), yc (i)) (i = 1 to
n), color data c (j) of free curve data (j = 1 to
p), transmittance α. Here, p is the number of planes constituting the image data 36D, and is often 1 for a monochrome image and 3 for a color image. Usually, c (j) and α are specified in advance by the user. c (j) is 0 ≦ c (j) ≦ 1 for a binary image,
0 ≦ c (j) ≦ 2 for gray or color images
Is often an integer of 55, α is an arbitrary constant of 0 ≦ α ≦ 1, and the closer to 1, the thinner the display of the line segment by the correction data 36C, the more the image of the image data 36D is transmitted through the line segment. Will be displayed. Further, it is assumed that the display of the line segment by the correction data 36C is darker as the value approaches 0, and the image by the image data 36D is displayed so as to be harder to transmit through the line segment.

【0071】次に、透過処理について、図16のフロー
チャートを参照し説明する。ステップS61で、画像デ
ータ36D(Ix(w)(j),Iy(h)(j))
(w=1〜WD、h=1〜HT、j=1〜p)、修正デ
ータ36C(xc(i)、yc(i))(i=1〜
n)、自由曲線データの色データc(j)(j=1〜
p)、透過率αをデータ記憶部31Dから読出す。
Next, the transmission processing will be described with reference to the flowchart of FIG. In step S61, the image data 36D (Ix (w) (j), Iy (h) (j))
(W = 1 to WD, h = 1 to HT, j = 1 to p), correction data 36C (xc (i), yc (i)) (i = 1 to
n), color data c (j) of free curve data (j = 1 to
p), the transmittance α is read from the data storage unit 31D.

【0072】次のステップS62で、修正データ36C
の1つ目の座標データ(i=1)が指定される。ステッ
プS63では、画像データ36Dが修正データ36Cに
よる線分を透過して表示されるように画像データ36D
が処理される。具体的には、画像データ36Dの各値を
画像データ36Dの各値に透過率αを掛けたものと、自
由曲線データの色データc(j)に1−透過率αを掛け
たものとを、足したものとして処理する。
In the next step S62, the correction data 36C
Is designated as the first coordinate data (i = 1). In step S63, the image data 36D is displayed such that the image data 36D is displayed through the line segment of the correction data 36C.
Is processed. Specifically, a value obtained by multiplying each value of the image data 36D by the transmittance α and a value obtained by multiplying the color data c (j) of the free curve data by 1−transmittance α are used. , And treats them as added.

【0073】次のステップS64で、修正データ36C
の次の座標データが指定される。ステップS65で、自
由曲線データのすべての座標データに対して処理がなさ
れたか判定される。なされていなければ、ステップS6
3に戻るが処理がなされていれば、一連の透過処理は終
了する。
In the next step S64, the correction data 36C
Next coordinate data is specified. In step S65, it is determined whether or not processing has been performed on all coordinate data of the free curve data. If not, step S6
Returning to step 3, if the processing has been performed, a series of transmission processing ends.

【0074】なお、ここでは、元の画像データ36Dに
対して、透過処理後の画像データ36Dを書き加えてい
るが、元の画像データ36Dがコピーされた別の領域を
データ記憶部31Dに準備し、そこに対して透過処理後
の画像データ36Dを書き加えるように処理してもよ
い。
Here, the image data 36D after the transmission processing is added to the original image data 36D, but another area where the original image data 36D is copied is prepared in the data storage unit 31D. Alternatively, processing may be performed so that the image data 36D after the transmission processing is added thereto.

【0075】(第2実施の形態)次に、第2実施の形態
について説明する。上述した第1実施の形態では、自由
曲線Lが1つ手書き入力完了すると、直ちに図2のステ
ップS3以降の処理が行なわれるという逐次処理が採用
されている。なお、自由曲線Lの入力完了は、周知の技
術で検知される。つまり、図示されないタイマを用い
て、自由曲線L入力後、所定時間経過が計測されて、所
定時間経過後も、次の自由曲線Lのデータが得られなか
ったことに応じて、自由曲線Lの入力完了が検出され
る。
(Second Embodiment) Next, a second embodiment will be described. In the above-described first embodiment, a sequential process is adopted in which the process after step S3 in FIG. 2 is performed as soon as one free curve L is completely handwritten. The completion of the input of the free curve L is detected by a known technique. In other words, after the free curve L is input, the elapse of a predetermined time is measured using a timer (not shown). After the elapse of the predetermined time, the data of the next free curve L is not obtained. Input completion is detected.

【0076】第2実施の形態では、第1実施の形態で示
される方法により得られた修正データ36Cと、画像デ
ータ36Dとがデータ記憶部31Dに既に格納されて表
示部2に表示されている状態において、さらに同一の画
像データ36Dについて新たな自由曲線Lが入力された
場合の処理が示される。
In the second embodiment, the correction data 36C and the image data 36D obtained by the method shown in the first embodiment are already stored in the data storage section 31D and displayed on the display section 2. In this state, a process when a new free curve L is input for the same image data 36D is shown.

【0077】本実施の形態の装置構成は、第1実施の形
態のそれと同様であるが、機能構成においては次のよう
に相違する。つまり、図1(A)に示されるように曲線
修正部5は、第2実施の形態に関して修正データ有無判
定部54および位置修正部55を含む。
The device configuration of this embodiment is the same as that of the first embodiment, but differs in the functional configuration as follows. That is, as shown in FIG. 1A, the curve correction unit 5 includes the correction data presence / absence determination unit 54 and the position correction unit 55 according to the second embodiment.

【0078】修正データ有無判定部54は、判別行領域
データ36B((s,t),(u,v))で示される判
別行について自由曲線Lが入力された場合に、該判別行
に対して既に修正された自由曲線が引かれているか否か
を判断する。修正データ有無判定部54により、該判別
行に対して既に修正された自由曲線が引かれていると判
断された場合には、位置修正部55により、現在入力さ
れた自由曲線Lは、該判別行に既に引かれた修正後の自
由曲線と連続するように位置修正される。
When the free curve L is input for the discrimination row indicated by the discrimination row area data 36B ((s, t), (u, v)), the correction data presence / absence determination section 54 It is determined whether or not the corrected free curve has already been drawn. If the corrected data presence / absence determination unit 54 determines that the corrected free curve has already been drawn for the discrimination line, the position correction unit 55 determines that the currently input free curve L is The position is adjusted to be continuous with the modified free curve already drawn on the line.

【0079】現在、自由曲線Lが入力された判別行に対
応した1つ以上の修正データ36Cが、データ記憶部3
1Dに既に登録されているか否かを判断する修正データ
有無判定部54による処理を、該判別行について自由曲
線LがX方向に入力された場合について、図17のフロ
ーチャートを参照して説明する。なお、ここではデータ
記憶部31D中に、既に1つ以上の修正データ36Cが
登録されているものと想定する。
At least one correction data 36C corresponding to the discrimination row into which the free curve L has been input is stored in the data storage unit 3.
The processing by the correction data presence / absence determining unit 54 for determining whether or not the correction data has already been registered in 1D will be described with reference to the flowchart of FIG. 17 in the case where the free curve L is input in the X direction for the determination line. Here, it is assumed that one or more correction data 36C has already been registered in the data storage unit 31D.

【0080】図17のステップS71では、今回、手書
き入力された自由曲線Lの入力データ36A(x
(i),y(i))(i=1〜n)と、1つ以上の修正
データ36C(x(i)(j),y(k)(j))(k
=1〜r)(j=1〜n(k))(ただし、変数n
(k)は、修正データ36Cを構成する座標データの総
個数)とがデータ記憶部31Dから読出される。
In step S71 of FIG. 17, the input data 36A (x
(I), y (i)) (i = 1 to n) and one or more correction data 36C (x (i) (j), y (k) (j)) (k
= 1 to r) (j = 1 to n (k)) (where the variable n
(K) is the total number of coordinate data constituting the correction data 36C) is read from the data storage unit 31D.

【0081】ステップS72では、変数kに1が設定さ
れて、読出された1つ以上の修正データ36Cのうち、
1つ目の修正データ36Cが指定される。ステップS7
3で入力データのy座標の平均値MYを求める。ステッ
プS74では、|MY―y(k)(1)|が、あるしき
い値Rより小さければ、ステップS77に進み、自由曲
線Lは指定された修正データ36Cで示される線分と同
一行に引かれていると判断されて、処理は終了する。そ
うでなければ、ステップS75において変数kが1イン
クリメントされて、次の修正データ36Cが指定され
る。
In step S72, 1 is set to a variable k, and one or more of the read out correction data 36C is set.
The first correction data 36C is designated. Step S7
In step 3, the average value MY of the y coordinate of the input data is obtained. In step S74, if | MY-y (k) (1) | is smaller than a certain threshold value R, the process proceeds to step S77, where the free curve L is placed on the same line as the line segment indicated by the specified correction data 36C. It is determined that it has been pulled, and the process ends. Otherwise, in step S75, the variable k is incremented by one, and the next correction data 36C is designated.

【0082】ただし、しきい値Rは任意定数であり、画
像データ36Dで示される文書における文字間隔や行間
隔の定数倍の値が設定されると、画像データ36Dに応
じた処理を行なうことができる。
However, the threshold value R is an arbitrary constant, and if a value that is a constant multiple of the character spacing or the line spacing in the document indicated by the image data 36D is set, processing according to the image data 36D can be performed. it can.

【0083】ステップS76では、ステップS74の条
件を満たすような修正データ36Cを検出するために、
ステップS71で読出されたすべての修正データ36C
について処理が行なわれたか否か、すなわちk>rが成
立するか否かが判定される。ステップS74の条件を満
たすような修正データ36Cが検出されない場合には、
ステップS78において、自由曲線Lと同一行に対して
既に引かれた線分は存在しないと判断されて、処理は終
了する。
In step S76, in order to detect the correction data 36C that satisfies the condition of step S74,
All correction data 36C read in step S71
Is determined, that is, whether k> r is satisfied. If the correction data 36C satisfying the condition of step S74 is not detected,
In step S78, it is determined that there is no line segment already drawn on the same line as the free curve L, and the process ends.

【0084】なお、自由曲線LがY方向に入力された場
合には、図17のステップS73とS74において、変
数yを変数xに、変数Yを変数Xにそれぞれ置換えて、
同様に処理すればよい。
When the free curve L is input in the Y direction, the variable y is replaced with the variable x and the variable Y is replaced with the variable X in steps S73 and S74 in FIG.
What is necessary is just to process similarly.

【0085】次に、データ記憶部31D中の修正データ
36Cに基づいて既に線分が引かれた行と同一の行に対
して、自由曲線Lが引かれた場合の表示処理を、図18
(A)〜(E)を用いて説明する。
Next, a display process in the case where a free curve L is drawn on the same line as a line on which a line segment has already been drawn based on the correction data 36C in the data storage unit 31D will be described with reference to FIG.
This will be described with reference to (A) to (E).

【0086】表示部2に予め表示された画像データ36
Dの文書に対して、線入力部3からユーザによる自由曲
線Lが手書き入力されると(図18(A)参照)、処理
領域PEが指定されて、1つ以上の文字領域CE1が検
出されて(図18(B)参照)、行領域LE1が抽出さ
れる(図18(C)参照)。抽出された行領域LE1で
示される判別行に重ねて幅th1の直線を引くように、
自由曲線Lについて曲線修正処理が行なわれる(図18
(D)参照)。このとき、修正データ有無判定部54に
より、該判別行に修正データ36Cによる線分L2が既
に引かれていると判断されるため、線分L1とL2とが
連続した1つの線分L3となるように、自由曲線Lの修
正データ36Cが位置修正部55により修正される(図
18(E))。ここで、線分L1とL2は、幅データt
h0とth1をそれぞれ有すると想定する。具体的に
は、文字列に重ねて引かれるようにするために、それぞ
れの修正データ36Cのy座標Y0とY1および幅デー
タth0とth1から、Y方向の最小値Y0−th0/
2とY1−th1/2および最大値Y0+th0/2と
Y1+th1/2を求めて、これらの最大値と最小値と
を用いて、線分L1とL2は(最大値+最小値)/2を
中心として、最大値−最小値+1を線幅とする線分L3
を示す修正データ36Cに修正される。その結果、該判
別行に対して重ねて引かれた異なる線分L1とL2が位
置修正されて、線分L3が引かれることになる(図18
(E)参照)。
The image data 36 previously displayed on the display unit 2
When the user inputs a free curve L by hand from the line input unit 3 to the document D (see FIG. 18A), the processing area PE is designated, and one or more character areas CE1 are detected. (See FIG. 18B), the row area LE1 is extracted (see FIG. 18C). A straight line having a width th1 is drawn so as to overlap the discrimination row indicated by the extracted row area LE1,
A curve correction process is performed on the free curve L (FIG. 18).
(D)). At this time, since the correction data presence / absence determination unit 54 determines that the line segment L2 based on the correction data 36C has already been drawn on the discrimination line, the line segments L1 and L2 become one continuous line segment L3. As described above, the correction data 36C of the free curve L is corrected by the position correction unit 55 (FIG. 18E). Here, the line segments L1 and L2 correspond to the width data t.
Assume that each has h0 and th1. Specifically, in order to be drawn over the character string, the minimum value Y0-th0 / in the Y direction is obtained from the y-coordinates Y0 and Y1 and the width data th0 and th1 of each correction data 36C.
2 and Y1-th1 / 2 and the maximum values Y0 + th0 / 2 and Y1 + th1 / 2, and using these maximum and minimum values, the line segments L1 and L2 are centered at (maximum value + minimum value) / 2. A line segment L3 having a maximum value−minimum value + 1 as a line width.
Is corrected to correction data 36C indicating As a result, the position of the different line segments L1 and L2 drawn on the discrimination line is corrected, and the line segment L3 is drawn (FIG. 18).
(E)).

【0087】(第3実施の形態)上述の第1実施の形態
と第2実施の形態では、自由曲線Lが逐次手書き入力さ
れて処理される場合について説明したが、第3実施の形
態では、複数の自由曲線Lが入力されると、これらを一
括して処理する手順が説明される。第3実施の形態で
は、自由曲線Lの入力モードとして、ユーザにより一括
処理が選択される場合には、任意に複数の自由曲線Lが
手書き入力されると、線入力部3の図示されない一括処
理ボタンなどが操作されて、以下の処理が行なわれる。
(Third Embodiment) In the first and second embodiments described above, the case where the free curve L is sequentially handwritten and processed is described. However, in the third embodiment, When a plurality of free curves L are input, a procedure for processing these at once will be described. In the third embodiment, when the user selects collective processing as the input mode of the free curve L, if a plurality of free curves L are input by hand, the collective processing (not shown) of the line input unit 3 is performed. The following processing is performed by operating buttons and the like.

【0088】第3実施の形態による文書画像処理装置の
構成は、第1実施の形態のそれと同様であるが、機能構
成において以下の機能を新たに有する。つまり、線入力
部3からq本の自由曲線Lが入力されると、各自由曲線
Lについての入力データ36Aは、(x(k)(i),
y(k)(i))(k=1〜q)(i=1〜n(k))
(ただし、変数n(k)はk番目の自由曲線Lを構成す
る座標の総個数)のように規定される。そして、入力デ
ータ36Aには、対応する自由曲線Lの入力方向の成分
が小さい順に設定されているとする。
The configuration of the document image processing apparatus according to the third embodiment is the same as that of the first embodiment, but has the following new functions in the functional configuration. That is, when q free curves L are input from the line input unit 3, the input data 36A for each free curve L is (x (k) (i),
y (k) (i)) (k = 1 to q) (i = 1 to n (k))
(However, the variable n (k) is defined as the total number of coordinates constituting the k-th free curve L). Then, it is assumed that the components of the corresponding free curve L in the input direction are set in ascending order in the input data 36A.

【0089】行抽出部4では、q本の自由曲線Lのそれ
ぞれについて処理が行なわれるので、それぞれの自由曲
線Lについての判別行領域データ36B((s(k),
t(k)),(u(k),v(k)))(k=1〜q)
が得られて、データ記憶部31Dに格納される。このよ
うなデータ記憶部31Dの内容例が図21に示される。
ただし、変数(s(k),t(k))は対応する判別行
領域(矩形領域)の左上端の座標値を、変数(u
(k),v(k))は対応する判別行領域(矩形領域)
の右下端の座標値を示す。行判別部10において得られ
た判別行のそれぞれに対応の判別行領域データ36Bに
ついては、図21に示されるようにデータ記憶部31D
において該データを一意に特定するラベル値L(k)=
k(k=1〜q)が割当てられる。
Since the row extracting unit 4 performs processing on each of the q free curves L, the discrimination row area data 36B ((s (k),
t (k)), (u (k), v (k))) (k = 1 to q)
Are obtained and stored in the data storage unit 31D. FIG. 21 shows an example of the contents of such a data storage unit 31D.
However, the variables (s (k), t (k)) represent the coordinate value of the upper left corner of the corresponding discrimination line area (rectangular area) by the variable (u
(K), v (k)) are the corresponding discrimination row areas (rectangular areas)
Indicates the coordinate value of the lower right corner of. As to the discrimination row area data 36B corresponding to each of the discrimination rows obtained in the row discrimination section 10, as shown in FIG.
In the label value L (k) =
k (k = 1 to q) is assigned.

【0090】曲線修正部5は、第3実施の形態に関し
て、複数自由曲線有無判定部56および複数線位置修正
部57を有する。複数自由曲線有無判定部56は、同一
の判別行、すなわち同一の判別行領域データ36B
((s(k)、t(k)),(u(k),v(k)))
(k=1〜q)に対して複数の自由曲線Lが引かれてい
るかどうかを判断する。複数線位置修正部57は、複数
自由曲線有無判定部56により、同一判別行に複数の自
由曲線Lが引かれていると判断された場合に、同一判別
行に対して引かれている複数の自由曲線Lに対応の複数
の修正データ36Cを、連続性を有するように修正す
る。
The curve correcting section 5 includes a plural free curve presence / absence determining section 56 and a plural line position correcting section 57 in the third embodiment. The plurality of free curve presence / absence determination units 56 determine the same discrimination row, that is, the same discrimination row area data 36B.
((S (k), t (k)), (u (k), v (k)))
It is determined whether a plurality of free curves L are drawn for (k = 1 to q). When the plurality of free curve presence / absence determining units 56 determines that the plurality of free curves L are drawn on the same determination line, the plurality of line position correction units 57 determines the plurality of free lines L drawn on the same determination line. The plurality of correction data 36C corresponding to the free curve L are corrected so as to have continuity.

【0091】ここで、複数自由曲線有無判定部56につ
いて、複数の自由曲線LがX方向に手書き入力された場
合について、図19のフローチャートを用いて説明す
る。
Here, the case where the plurality of free curves L are input by handwriting in the X direction will be described with reference to the flowchart of FIG.

【0092】まず、ステップS81では、複数の自由曲
線Lについての複数の入力データ36A(x(k)
(i),y(k)(i))およびラベル値L(k)(k
=1〜q)(i=1〜n(k))が、データ記憶部31
Dから読出される。ステップS82では、変数kに1が
設定されて、読出された複数の入力データ36Aのう
ち、1つ目の入力データ36Aが指定される。次のステ
ップS83では、変数jにk+1が設定されて、次の入
力データ36Aが指定される。ステップS84では、k
番目の入力データ36Aのy座標値の平均値Y(k)
(=(y(k)(1)+y(k)(2)+…+y(k)
(n(k))/n(k))と、j番目の入力データ36
Aのy座標値の平均値Y(j)(=(y(j)(1)+
y(j)(2)+…+y(j)(n(j))/n
(j))とが求められる。
First, in step S81, a plurality of input data 36A (x (k)
(I), y (k) (i)) and label value L (k) (k
= 1 to q) (i = 1 to n (k)) are stored in the data storage unit 31.
Read from D. In step S82, 1 is set to the variable k, and the first input data 36A of the plurality of read input data 36A is designated. In the next step S83, k + 1 is set to the variable j, and the next input data 36A is specified. In step S84, k
Average value Y (k) of y coordinate values of the second input data 36A
(= (Y (k) (1) + y (k) (2) +... + Y (k)
(N (k)) / n (k)) and j-th input data 36
Average value y (j) of y coordinate values of A (= (y (j) (1) +
y (j) (2) + ... + y (j) (n (j)) / n
(J)).

【0093】ステップS85では、|Y(k)−Y
(j)|の値が、所定しきい値Rより小さいと判定され
れば、ステップS86でラベル値L(k)とラベル値L
(j)とが比較されて、その比較結果に基づいて、ステ
ップS87およびS88のそれぞれにおいて、大きい方
のラベル値は小さい方のラベル値に変更されるよう処理
される。
In step S85, | Y (k) -Y
If it is determined that the value of (j) | is smaller than the predetermined threshold value R, in step S86, the label value L (k) and the label value L
Is compared with (j), and based on the comparison result, in each of steps S87 and S88, processing is performed so that the larger label value is changed to the smaller label value.

【0094】ただし、しきい値Rは任意定数であり、画
像データ36Dの文書における文字間隔や行間隔の定数
倍の値が設定されるようにすれば、画像データ36Dに
応じた処理を行なうことができる。
However, the threshold value R is an arbitrary constant, and if a value that is a constant multiple of the character spacing or line spacing in the document of the image data 36D is set, processing corresponding to the image data 36D is performed. Can be.

【0095】ステップS89では、変数jは1インクリ
メントされて、次の入力データ36Aが指定される。ス
テップS90では、j>qが成立するか判定されて、成
立するまでステップS84〜ステップS89の処理が繰
返される。一方、成立すればステップS91で、変数k
が1インクリメントされて、次の入力データ36Aが指
定される。そして、ステップS92にてk>qと判定さ
れるまで、ステップS83〜S91の処理が繰返され
る。
In step S89, the variable j is incremented by one, and the next input data 36A is designated. In step S90, it is determined whether j> q is satisfied, and the processing in steps S84 to S89 is repeated until j> q is satisfied. On the other hand, if it is established, in step S91, the variable k
Is incremented by one, and the next input data 36A is designated. Then, the processing of steps S83 to S91 is repeated until it is determined that k> q in step S92.

【0096】このようにしてq本の自由曲線Lについて
のすべての組合せに対して処理がなされると、同一判別
行に対応の全ての自由曲線Lのそれぞれについての判別
行領域データ36Bは、同じラベル値L(k)を有する
ことになる。
When the processing is performed on all the combinations of the q free curves L in this manner, the discrimination row area data 36B for all the free curves L corresponding to the same discrimination row have the same value. It will have a label value L (k).

【0097】なお、自由曲線LがY方向に入力された場
合には、図19のS84およびS85の変数yを変数x
に、変数Yを変数Xにそれぞれ置換えて、同様に処理す
ればよい。
When the free curve L is input in the Y direction, the variable y in S84 and S85 in FIG.
Then, the variable Y may be replaced with the variable X, and the same processing may be performed.

【0098】以上の処理結果、図21のデータ記憶部3
1Dにおいて、同じラベル値L(k)を有する複数の判
別行領域データ36Bが登録されている場合には、つま
り、同一判別行に複数の自由曲線Lが引かれたと判断さ
れた場合には、図20(A)〜(E)で示されるよう
に、複数線位置修正部57により、複数の自由曲線Lの
修正データ36Cが修正されて、次のように表示され
る。
As a result of the above processing, the data storage unit 3 shown in FIG.
In 1D, when a plurality of discrimination row area data 36B having the same label value L (k) is registered, that is, when it is determined that a plurality of free curves L are drawn on the same discrimination row, As shown in FIGS. 20A to 20E, the correction data 36C of the plurality of free curves L is corrected by the multiple line position correction unit 57, and displayed as follows.

【0099】つまり、線入力部3から2本の自由曲線L
(1)とL(2)とが手書き入力されると(図20
(A)参照)、処理領域PE(1)とPE(2)が指定
されて、各処理領域について1つ以上の文字領域CE1
の検出が行なわれて(図20(B)参照)、その結果、
行領域LE1(1)とLE1(2)とが判別行として抽
出される(図20(C)参照)。
That is, two free curves L from the line input unit 3
When (1) and L (2) are input by handwriting (FIG. 20)
(A)), processing areas PE (1) and PE (2) are designated, and one or more character areas CE1 are provided for each processing area.
Is detected (see FIG. 20B), and as a result,
The row areas LE1 (1) and LE1 (2) are extracted as discrimination rows (see FIG. 20C).

【0100】そして、曲線修正部5により、各判別行に
重ねて、幅データth0とth1の線幅を有する直線L
1とL2とが引かれるように、自由曲線L(1)とL
(2)の修正データ36Cについて修正する処理が行な
われる(図20(D)参照)。このとき、複数自由曲線
有無判別部56により同一の判別行について自由曲線L
(1)とL(2)とが引かれていると判断されるので、
複数線位置修正部57により、これら2つの自由曲線が
連続性を持つように、対応する2つの修正データ36C
が修正される。
Then, the straight line L having the line widths of the width data th0 and th1 is superimposed on each discrimination line by the curve correcting unit 5.
Free curves L (1) and L (1) are drawn so that 1 and L2 are drawn.
The process of correcting the correction data 36C of (2) is performed (see FIG. 20D). At this time, the free curve L for the same discrimination line by the plural
Since it is determined that (1) and L (2) have been subtracted,
The corresponding two correction data 36C are set by the multiple line position correction unit 57 so that these two free curves have continuity.
Is corrected.

【0101】つまり、所望文字列に重ねて線分が引かれ
るようにするために、それぞれの修正データ36Cのy
座標Y0とY1および幅データth0とth1から、Y
方向の最小値Y0−th0/2とY1−th1/2およ
び最大値Y0+th0/2とY1+th1/2を求め
て、これらの最大値と最小値を用いて、(最大値+最小
値)/2を中心として、最大値−最小値+1を線幅とす
る直線を示すような修正データ36Cに修正される(図
20(E)参照)。
That is, in order to draw a line segment on the desired character string, y
From coordinates Y0 and Y1 and width data th0 and th1, Y
The minimum values Y0-th0 / 2 and Y1-th1 / 2 and the maximum values Y0 + th0 / 2 and Y1 + th1 / 2 in the direction are obtained, and (maximum value + minimum value) / 2 is calculated using the maximum value and the minimum value. The center is corrected to correction data 36C indicating a straight line having a line width of maximum value−minimum value + 1 (see FIG. 20E).

【0102】なお、上述した各実施の形態においては、
表示部2に表示された文書に手書き入力された線分によ
るデータは、データ記憶部31Dに示されるように、画
像データ36Dに対応した別のデータとして保存され
る。
In each of the above embodiments,
The data based on the line segment input by hand on the document displayed on the display unit 2 is stored as another data corresponding to the image data 36D as shown in the data storage unit 31D.

【0103】(第4実施の形態)上述した各実施の形態
では、手書きの線分を判別行に重ねた直線に修正する場
合について説明したが、本実施の形態のように、文字列
の周囲を囲む線分に修正するようにしてもよい。本実施
の形態では、文章画像の文字列の周囲に沿って囲むよう
に入力された手書きの線分は、文字列の周囲を囲む直線
からなる矩形に修正される。
(Fourth Embodiment) In each of the embodiments described above, a case has been described in which a handwritten line segment is corrected to a straight line superimposed on a discrimination line. May be corrected to a line segment surrounding. In the present embodiment, a handwritten line segment input so as to surround the character string of the sentence image is corrected to a rectangle formed by a straight line surrounding the character string.

【0104】本実施の形態の装置構成と、図1のそれと
比較し異なる点は、図1の行抽出部4および曲線修正部
5に代替して、行抽出部4Aおよび曲線修正部5Aが設
けられた点にある。その他の各部は、図1のそれと同様
であり、説明は省略する。行抽出部4Aと図3の行抽出
部4とを比較し異なる点は、図3の処理領域指定部6、
方向判別部7および行判別部10が、処理領域指定部6
A、方向判別部7Aおよび行判別部10Aのそれぞれで
代替された点にある。行抽出部4Aの他の各部は、図3
のそれと同様であり説明は省略する。
The difference between the apparatus configuration of the present embodiment and that of FIG. 1 is that a row extracting section 4A and a curve correcting section 5A are provided instead of the row extracting section 4 and the curve correcting section 5 in FIG. It is in the point given. Other components are the same as those in FIG. 1 and the description is omitted. The difference between the row extracting unit 4A and the row extracting unit 4 in FIG. 3 is that the processing area specifying unit 6 in FIG.
The direction determining unit 7 and the row determining unit 10
A, in that it is replaced by each of the direction determination unit 7A and the row determination unit 10A. The other parts of the row extracting unit 4A are shown in FIG.
Therefore, the description is omitted.

【0105】まず、処理領域指定部6Aについて説明す
る。図22(A)と(B)は、第4実施の形態による処
理領域指定部6Aの処理手順を説明する図である。処理
領域指定部6Aは、画像データ36Dの領域において、
入力データ36AAで示される自由曲線から離れた領域
が、後述する文字領域検出や行抽出の処理に影響されな
いようにする。つまり、文字領域検出や行領域抽出の処
理が施される処理領域は、自由曲線の入力データ36A
Aで示される位置から一定範囲に指定される。図22
(A)と(B)を参照して、以下に具体的に説明する。
First, the processing area designating section 6A will be described. FIGS. 22A and 22B are diagrams illustrating a processing procedure of the processing area specifying unit 6A according to the fourth embodiment. The processing area designating unit 6A determines that the area of the image data 36D
An area away from the free curve indicated by the input data 36AA is not affected by character area detection and line extraction processing described later. That is, the processing area where the processing of character area detection and line area extraction is performed is the free curve input data 36A.
It is designated within a certain range from the position indicated by A. FIG.
A specific description will be given below with reference to (A) and (B).

【0106】図22(A)には、画像入力部1から取得
した画像データ36Dに対応の文章が表示部2に表示さ
れている様子が示される。図22(A)ではX方向の画
像データ36Dの幅WDとY方向の画像データ36Dの
高さHTがそれぞれ示される。図22(B)には、表示
された画像データ36Dに対して自由曲線LLのデータ
(入力データ36AA)が入力されて、処理領域PE
(図の点線で囲まれた部分)が指定されている様子が示
される。自由曲線LLの入力データ36A(x(i),
y(i))(i=1〜n)がX方向の最小座標データm
in(x(i))と最大座標データmax(x(i))
ならびにY方向の最小座標データmin(y(i))と
最大座標データmax(y(i))とにより、処理領域
PEは矩形領域のデータ(min(x(i))−W,m
in(y(i))−H),(max(x(i))+W
1,max(y(i))+H1)で指定される。ただし
(min(x(i))−W,min(y(i))−H)
は矩形領域の左上端の座標値を示し、(max(x
(i))+W1,max(y(i))+H1)は矩形領
域の右下端の座標値を示す。
FIG. 22A shows a state in which a text corresponding to the image data 36 D obtained from the image input unit 1 is displayed on the display unit 2. FIG. 22A shows the width WD of the image data 36D in the X direction and the height HT of the image data 36D in the Y direction. In FIG. 22 (B), data of the free curve LL (input data 36AA) is input to the displayed image data 36D, and the processing area PE
(Portion surrounded by a dotted line in the figure) is shown. Input data 36A of the free curve LL (x (i),
y (i)) (i = 1 to n) is the minimum coordinate data m in the X direction
in (x (i)) and maximum coordinate data max (x (i))
In addition, the processing area PE is defined as rectangular area data (min (x (i))-W, m) based on the minimum coordinate data min (y (i)) and the maximum coordinate data max (y (i)) in the Y direction.
in (y (i))-H), (max (x (i)) + W
1, max (y (i)) + H1). Where (min (x (i))-W, min (y (i))-H)
Indicates the coordinate value of the upper left corner of the rectangular area, and (max (x
(I)) + W1, max (y (i)) + H1) indicates the coordinate value of the lower right corner of the rectangular area.

【0107】また、ここで変数W,H,W1およびH1
はそれぞれ任意の定数であり、文章の画像データ36D
における行間隔,文字間隔の定数倍の値を持つように設
定されると、入力した画像データ36Dに応じた処理領
域PEを指定することができる。なお、本実施の形態で
は処理領域PEを自由曲線の入力データ36AAで示さ
れる位置情報に基づいて自動設定されるが、これに限定
されない。つまり、必要に応じてタブレット3などで処
理領域PEを指定するようにしてもよい。
Here, variables W, H, W1 and H1
Is an arbitrary constant, and the image data 36D
Is set to have a value that is a constant multiple of the line spacing and character spacing in, the processing area PE corresponding to the input image data 36D can be designated. In the present embodiment, the processing area PE is automatically set based on the position information indicated by the input data 36AA of the free curve, but is not limited to this. That is, the processing area PE may be specified by the tablet 3 or the like as necessary.

【0108】次に、方向判別部7Aについて説明する。
方向判別部7Aは文字列の周囲に沿って囲むように手書
き入力された自由曲線がX方向かY方向のいずれに入力
されたかを判別する。この判別処理について図23のフ
ローチャートを参照し説明する。
Next, the direction determining unit 7A will be described.
The direction determining unit 7A determines whether the free curve input by handwriting is input in the X direction or the Y direction so as to surround the character string along the periphery. This determination processing will be described with reference to the flowchart in FIG.

【0109】まず、ステップS101では、自由曲線の
入力データ36AAについて、X方向の最大値と最小値
の差の絶対値|max(x(i))−min(x
(i))|とY方向の最大値と最小値の差の絶対値|m
ax(y(i))−min(y)(i))|とが比較さ
れて、前者が大きい場合にはステップS102におい
て、X方向に自由曲線LLが引かれたと判別される。逆
に後者が大きい場合には、ステップS103において自
由曲線LLがY方向に引かれたと判別される。
First, in step S101, the absolute value | max (x (i))-min (x) of the difference between the maximum value and the minimum value in the X direction for the input data 36AA of the free curve.
(I)) The absolute value of the difference between | and the maximum value and the minimum value in the Y direction | m
ax (y (i))-min (y) (i)) |, and if the former is larger, it is determined in step S102 that the free curve LL has been drawn in the X direction. Conversely, if the latter is large, it is determined in step S103 that the free curve LL has been drawn in the Y direction.

【0110】図24に、図23の処理の具体例が示され
る。自由曲線LLがX方向の最小および最大座標値は2
1および51、Y方向の最小および最大座標値は23お
よび43である場合、X方向の差の絶対値は30(=|
51−21|)、Y方向の差の絶対値は20(=|43
−23|)であり、前者の値が大きい。よって、文章の
画像データ36Dに対して手書きによる自由曲線LLの
入力データ36AAはX方向に引かれたと判定される。
FIG. 24 shows a specific example of the processing of FIG. The minimum and maximum coordinate values of the free curve LL in the X direction are 2
1 and 51, the minimum and maximum coordinate values in the Y direction are 23 and 43, and the absolute value of the difference in the X direction is 30 (= |
51-21 |), the absolute value of the difference in the Y direction is 20 (= | 43)
−23 |), and the former value is large. Therefore, it is determined that the input data 36AA of the free curve LL drawn by hand with respect to the text image data 36D is drawn in the X direction.

【0111】次に、行判別部10Aについて説明する。
図25は、第4実施の形態による行判別部10Aの処理
フローチャートである。行判別部10Aは、自由曲線L
Lが画像データ36Dの文書中のいずれの行に対して引
かれたかを判別する。この行を判別するために、1つ以
上の行領域LE1のデータ((s(j),t(j)),
(u(j),v(j))(j=1〜m)と自由曲線LL
の入力データ36AA(x(i),y(i))(i=1
〜n)とが用いられる。具体的には自由曲線LLが入力
された場合には、自由曲線LLの入力データ36AAが
y座標の最小値min(y(i))と最大値max(y
(i))との間に、行領域LE1のY方向の最小値t
(j)と最大値v(j)がともに収まるかを比較判定し
て自由曲線LLが引かれた行が決定される。
Next, the row discriminating section 10A will be described.
FIG. 25 is a processing flowchart of the row determining unit 10A according to the fourth embodiment. The line discriminating unit 10A calculates the free curve L
It is determined to which line in the document of the image data 36D L has been drawn. In order to determine this row, the data ((s (j), t (j)) of one or more row areas LE1,
(U (j), v (j)) (j = 1 to m) and free curve LL
Input data 36AA (x (i), y (i)) (i = 1
To n) are used. Specifically, when the free curve LL is input, the input data 36AA of the free curve LL is the minimum value min (y (i)) and the maximum value max (y) of the y coordinate.
(I)), the minimum value t in the Y direction of the row area LE1
A comparison is made to determine whether both (j) and the maximum value v (j) fall within each other, and the row on which the free curve LL is drawn is determined.

【0112】図25のフローチャートを用いて、行判別
部10Aによる処理を、自由曲線LLがx方向に入力さ
れた場合について説明する。ステップS111では、行
領域LE1のデータ((s(j),t(j)),(u
(j),v(j)))(j=1〜m)、自由曲線LLの
入力データ36AA(x(i),y(i))(i=1〜
n)とがCPU30の図示されない内部メモリおよびデ
ータ記憶部31Dから読出される。ステップS112で
は、1つ以上の行領域LE1が行領域抽出部9によって
抽出されているかどうかが判定される。行領域LE1が
抽出されていない場合には自由曲線LLの付近に文字は
存在しないということが想定されるため、すべての処理
を終了し、自由曲線LLの入力データ36AAについて
の曲線修正部5Aによる処理は行なわれない。
Referring to the flowchart of FIG. 25, the processing performed by the row determining unit 10A will be described for the case where the free curve LL is input in the x direction. In step S111, the data ((s (j), t (j)), (u
(J), v (j))) (j = 1 to m), input data 36AA of free curve LL (x (i), y (i)) (i = 1 to
n) are read from the internal memory (not shown) of the CPU 30 and the data storage unit 31D. In step S112, it is determined whether one or more row regions LE1 have been extracted by the row region extraction unit 9. If the line area LE1 has not been extracted, it is assumed that no character exists near the free curve LL. Therefore, all the processing ends, and the curve correction unit 5A for the input data 36AA of the free curve LL ends. No processing is performed.

【0113】一方、行領域抽出部9により予め行領域L
E1が抽出されていれば、ステップS113では、自由
曲線LLの入力データ36AAについてy座標値の最小
値min(y(i))と最大値(max(y(i))と
が求められる。ステップS114では、変数jに1が設
定されて、1つめの行領域LE1のデータが指定され
る。
On the other hand, the row area extracting unit 9 determines in advance the row area L
If E1 has been extracted, in step S113, the minimum value min (y (i)) and the maximum value (max (y (i))) of the y coordinate value of the input data 36AA of the free curve LL are obtained. In S114, 1 is set to the variable j, and the data of the first row area LE1 is specified.

【0114】ステップS115では、対象の行領域LE
1の最小値t(j)が、自由曲線LLの入力データ36
AAの最小値と最大値の間に存在するかを判定するため
にmax(y(i))>t(j)>min(y(i))
が判定され、成立すればステップS116に進み、成立
しなければステップS118に進んで、次の行領域LE
1が指定される。
In step S115, the target row area LE
1 is the input data 36 of the free curve LL.
Max (y (i))> t (j)> min (y (i)) to determine whether it is between the minimum value and the maximum value of AA
Is determined, the process proceeds to step S116 if the condition is satisfied, and to step S118 if the condition is not satisfied, the process proceeds to the next line area LE.
1 is specified.

【0115】ステップS116では、ステップS115
の条件を満たす行領域LE1のうち対象の行領域LE1
の最大値v(j)が、自由曲線LLの入力データ36A
Aの最小値と最大値の間に存在するかどうかを判定する
ためにmax(y(i))>v(j)>min(y
(i))が成立するか否か判定し、成立するならばステ
ップS117に進み、成立しなければステップS118
に進む。
In step S116, step S115
Of the target row area LE1 among the row areas LE1 satisfying the condition
Is the maximum value v (j) of the input data 36A of the free curve LL.
Max (y (i))> v (j)> min (y to determine if A is between the minimum and maximum values
It is determined whether or not (i)) is established. If it is established, the process proceeds to step S117. If not, step S118 is performed.
Proceed to.

【0116】ステップS117では、変数LNEに
“j”が設定され、ステップS118では、次の行領域
LE1のデータが指定される。その後、ステップS11
9に進む。なお、変数LNEは自由曲線LLが引かれた
行領域LE1を特定するための値が設定される変数であ
る。
In step S117, "j" is set in the variable LNE, and in step S118, data of the next row area LE1 is specified. Then, step S11
Go to 9. The variable LNE is a variable in which a value for specifying the line area LE1 on which the free curve LL is drawn is set.

【0117】ステップS119では、ステップS111
で読出されたすべての行領域LE1のデータに対して処
理がなされたか判定される。処理がなされていなけれ
ば、ステップS115に戻るが、処理がなされたと判定
されれば、一連の処理は終了して、変数LNEの値で示
される行領域LE1は、自由曲線LLが引かれた行とし
て判定される。以下、これを判別行という。
In step S119, step S111
It is determined whether or not the processing has been performed on the data of all the row areas LE1 read in. If the process has not been performed, the process returns to step S115. However, if it is determined that the process has been performed, a series of processes ends, and the line area LE1 indicated by the value of the variable LNE becomes a line region in which the free curve LL is drawn. Is determined. Hereinafter, this is referred to as a determination line.

【0118】判別行は、矩形の領域データ((s,
t),(u,v))として規定される判別行領域データ
36Bとして、データ記憶部31Dにストアされる。た
だし、変数(s,t)は矩形領域の左上端の座標値、変
数(u,v)は矩形領域の右下端の座標値をそれぞれ示
す。自由曲線LLがY方向に入力された場合には、図2
5の処理において、変数yを変数xに、変数tを変数s
に、変数vを変数uにとそれぞれ置換えればよい。
The discrimination line is a rectangular area data ((s,
t), (u, v)) are stored in the data storage unit 31D as discrimination row area data 36B. Here, the variable (s, t) indicates the coordinate value of the upper left corner of the rectangular area, and the variable (u, v) indicates the coordinate value of the lower right corner of the rectangular area. When the free curve LL is input in the Y direction, FIG.
In the process of 5, the variable y is changed to the variable x and the variable t is changed to the variable s
And the variable v may be replaced with the variable u.

【0119】ここで、自由曲線LLがX方向に入力され
た場合の具体的な処理を、図26(A)〜(D)を参照
し説明する。図26(A)では、表示部2において文章
の画像に対して自由曲線LLが手書き入力された様子が
示される。図26(B)では処理領域指定部6Aにより
指定された処理領域PE内で文字領域検出部8により、
文字領域の検出が行なわれた結果が示される。ここで検
出される矩形の文字領域は曲線修正処理の際に利用され
るもので、矩形(e(z),f(z)),(g(z),
h(z))(z=1〜w)で表わされるものと想定す
る。ただし、wは、検出された矩形の個数とする。
Here, specific processing when the free curve LL is input in the X direction will be described with reference to FIGS. 26 (A) to 26 (D). FIG. 26A shows a state in which the free curve LL is input by handwriting to the image of the sentence on the display unit 2. In FIG. 26 (B), the character area detection unit 8 within the processing area PE specified by the processing area specification unit 6A
The result of the detection of the character area is shown. The rectangular character area detected here is used at the time of the curve correction processing, and the rectangles (e (z), f (z)), (g (z),
h (z)) (z = 1 to w). Here, w is the number of detected rectangles.

【0120】図26(C)では、検出された各文字領域
に関する情報と方向判別部7Aにより判別された自由曲
線LLの入力データ36AAで示される方向とから、行
領域抽出部9により1つ以上の行領域LE1の抽出が行
なわれた結果が示される。図26(D)では、行判別部
10Aにより、自由曲線LLが、検出された1つ以上の
行領域LE1のうちのいずれの領域の行に対して引かれ
たものかが判別された結果が示される。これらの処理の
結果は、画面上に逐次表示されなくてもよいが、処理が
適切に実行されていることをユーザが容易に把握できる
ようにするために、ここでは表示されるものとする。
In FIG. 26 (C), one or more lines are extracted by the line region extraction unit 9 from the information on each detected character region and the direction indicated by the input data 36AA of the free curve LL determined by the direction determination unit 7A. The result of extraction of the row region LE1 is shown. In FIG. 26 (D), the result of the line discriminating unit 10A discriminating whether the free curve LL has been drawn in any one of the detected one or more line regions LE1 is determined. Is shown. The results of these processes do not have to be sequentially displayed on the screen, but are displayed here so that the user can easily grasp that the processes are being executed appropriately.

【0121】次に曲線修正部5Aについて説明する。図
27は、第4実施の形態による曲線修正部5Aの処理フ
ローチャートである。曲線修正部5Aは、行抽出部4A
で得られた判別行に対して自由曲線LLをどのように修
正して、どの位置に引くかを決定する。自由曲線LLの
修正処理には、判別行の領域で得た((s,t),
(u,v))と自由曲線LLの入力データ36AA(x
(i),y(i))(i=1〜n)との位置に関する情
報が用いられる。通常は、自由曲線LLは所定の線幅を
有した直線に修正される。ここでは、自由曲線LLがX
方向に入力された場合に、判別行領域データ36Bの判
別行領域に対して自由曲線LLによる直線の矩形が引か
れるように、入力データ36AAが修正される場合につ
いて説明する。
Next, the curve correcting section 5A will be described. FIG. 27 is a processing flowchart of the curve correction unit 5A according to the fourth embodiment. The curve correcting unit 5A includes a line extracting unit 4A.
Then, it is determined how the free curve LL is corrected for the discrimination row obtained in the step and the position to be drawn. In the process of correcting the free curve LL, ((s, t),
(U, v)) and input data 36AA (x
Information on the position of (i), y (i)) (i = 1 to n) is used. Usually, the free curve LL is corrected to a straight line having a predetermined line width. Here, the free curve LL is X
A case in which the input data 36AA is modified so that, when the input is made in the direction, a straight line rectangle based on the free curve LL is drawn in the discrimination row area of the discrimination row area data 36B.

【0122】図27のフローチャートを用いて、自由曲
線LLの入力データ36AAがX方向に入力された場合
の曲線修正処理について説明する。
Referring to the flowchart of FIG. 27, the curve correction processing when the input data 36AA of the free curve LL is input in the X direction will be described.

【0123】ステップS121で、データ記憶部31D
から判別行領域データ36B((s,t),(u,
v))と文字領域データ((e(z),f(z)),
(g(z),h(z)))(z=1〜w)、自由曲線L
Lの入力データ36AA(x(i),y(i))(i=
1〜n)の情報が読出される。
At step S121, the data storage unit 31D
From the discrimination row area data 36B ((s, t), (u,
v)) and character area data ((e (z), f (z)),
(G (z), h (z))) (z = 1 to w), free curve L
L input data 36AA (x (i), y (i)) (i =
1 to n) are read.

【0124】ステップS122で、幅設定部61から幅
データthを得る。ステップS123では、自由曲線L
Lの入力データ36AAの1つ目の座標データ(i=
1)が指定される。ステップS124では、自由曲線L
Lの入力データ36AAのX方向の最小値min(x
(i))、最大値max(x(i))、Y方向の最小値
min(y(i))、最大値max(y(i))を端点
とする矩形((min(x(i)),min(y
(i)),max(x(i)),max(y(i)))
を想定して、これを自由曲線最大領域と呼ぶことにす
る。
In step S122, width data th is obtained from the width setting unit 61. In step S123, the free curve L
The first coordinate data of the input data 36AA of L (i =
1) is designated. In step S124, the free curve L
The minimum value min (x) of the input data 36AA of L in the X direction
(I)), a maximum value max (x (i)), a minimum value min (y (i)) in the Y direction, and a rectangle ((min (x (i))) having the maximum value max (y (i)) as an end point. ), Min (y
(I)), max (x (i)), max (y (i)))
And this is called the free curve maximum area.

【0125】自由曲線最大領域内にすっぽり納まる1つ
以上の文字領域CE1のうち、X方向に最小の位置にあ
る自由曲線LLの入力データ36AAのx座標をx0、
X方向に最大の位置にある自由曲線LLの入力データ3
6AAのx座標をx1とする。
The x coordinate of the input data 36AA of the free curve LL at the minimum position in the X direction among the one or more character areas CE1 which fits completely in the free curve maximum area is x0,
Input data 3 of the free curve LL at the maximum position in the X direction
The x coordinate of 6AA is x1.

【0126】ステップS125では、自由曲線LLの入
力データ36AAのx座標を、次のように処理する。つ
まり、(1)x0より小さいときはx0からth/2を
引く、(2)x1より大きいときはx1にth/2を足
す、(3)x0とx1の間にあるときにはそのままの値
とする。また、y座標については次のように処理する。
つまり、(1)判別行領域LE1の最小値tより小さい
ときは最小値tからth/2を引く、(2)判別行領域
LE1の最大値vより大きいときは最大値vにth/2
を足す、(3)判別行領域の最小値tと最大値vの間に
あるときにはそのままの値とする。このようにして得ら
れたデータを、修正データ36CC(xcc(i),y
cc(i))とする。
In step S125, the x coordinate of the input data 36AA of the free curve LL is processed as follows. That is, (1) subtract th / 2 from x0 when smaller than x0, (2) add th / 2 to x1 when larger than x1, and (3) leave it as it is when it is between x0 and x1. . Further, the y coordinate is processed as follows.
That is, (1) subtracting th / 2 from the minimum value t when it is smaller than the minimum value t of the discrimination row area LE1, and (2) when the maximum value v of the discrimination row area LE1 is larger than th / 2.
(3) When it is between the minimum value t and the maximum value v of the discrimination row area, the value is kept as it is. The data obtained in this manner is converted into corrected data 36CC (xcc (i), y
cc (i)).

【0127】ステップS126では、自由曲線LLの入
力データ36AAの次の座標点が指定される。ステップ
S127では、自由曲線LLの入力データ36AAのす
べての座標点に対して処理がなされたか判定される。な
されていなければステップS125に戻る。すべての点
に対して処理がなされたと判定されると、曲線修正処理
は終了し、修正データ36CC(xcc(i),ycc
(i))(i=1〜n)および幅データthが得られ
る。
In step S126, the next coordinate point of the input data 36AA of the free curve LL is designated. In step S127, it is determined whether or not processing has been performed on all coordinate points of the input data 36AA of the free curve LL. If not, the process returns to step S125. If it is determined that the processing has been performed on all the points, the curve correction processing ends, and the correction data 36CC (xcc (i), ycc
(I)) (i = 1 to n) and width data th are obtained.

【0128】なお、修正データ36CCは、左上の座標
を(xcc(1),ycc(1))、右下の座標を(x
cc(n),ycc(n))および幅データthで示さ
れる線幅を持つ矩形を示すデータとしてもよい。上述の
自由曲線LLの入力データ36AAがX方向に入力され
た場合の具体的な曲線修正処理の様子が、図29(A)
と(B)に示される。
In the correction data 36CC, the upper left coordinate is (xcc (1), ycc (1)) and the lower right coordinate is (xcc (1), ycc (1)).
cc (n), ycc (n)) and data indicating a rectangle having a line width indicated by the width data th. FIG. 29A shows a specific curve correction process when the input data 36AA of the free curve LL is input in the X direction.
And (B).

【0129】ここで、自由曲線LLの入力データ36A
AがX方向に入力された場合の曲線修正処理に含まれる
幅設定処理について、図28のフローチャートを参照し
説明する。
Here, the input data 36A of the free curve LL
The width setting processing included in the curve correction processing when A is input in the X direction will be described with reference to the flowchart in FIG.

【0130】ステップS131では、判別行領域LE1
の情報((s,t),(u,v))が読出される。ステ
ップS132では、ユーザが幅データthを指定してい
るかどうかが判定される。ユーザが幅データthを指定
している場合には、ステップS133で、ユーザ指定の
幅データthが取込まれる。ユーザが幅データthを指
定していない場合には、ステップS134において、任
意の定数が幅データthに設定される。この場合、画像
データ36Dによる文章の行間隔や文字間隔の定数倍の
値を持つように幅データthを設定すると、画像データ
36Dに応じた線分の幅を指定することができる。幅設
定処理を終了すると、曲線修正処理に幅データthが与
えられる。
In the step S131, the discrimination row area LE1
((S, t), (u, v)) is read out. In step S132, it is determined whether the user has designated the width data th. If the user has specified the width data th, the width data th specified by the user is fetched in step S133. If the user has not specified the width data th, an arbitrary constant is set in the width data th in step S134. In this case, if the width data th is set so as to have a value that is a constant multiple of the line spacing or character spacing of the text according to the image data 36D, the width of the line segment corresponding to the image data 36D can be specified. When the width setting processing is completed, the width data th is given to the curve correction processing.

【0131】自由曲線LLの入力データ36AAがY方
向に入力された場合には、図27のフローチャートのス
テップS124で、X方向ではなくY方向の最小値y0
と最大値y1とを求め、ステップS125の修正式にお
いて自由曲線LLの入力データ36AAのx座標を次の
ように修正すればよい。
When the input data 36AA of the free curve LL is input in the Y direction, the minimum value y0 in the Y direction instead of the X direction is determined in step S124 of the flowchart in FIG.
And the maximum value y1 are obtained, and the x coordinate of the input data 36AA of the free curve LL may be corrected as follows in the correction formula of step S125.

【0132】つまり、(1)判別行領域LE1の最小値
sより小さいときは最小値sからth/2を引く(xc
c(i))=(s−th/2)、(2)判別行領域LE
1の最大値uより大きいときは最大値uにth/2を足
す(xcc(i))=u+th/2)、(3)判別行領
域LE1の最小値sと最大値uの間にあるときにはその
ままの値とする(xcc(i)=x(i))。また、y
座標については、次のように修正すればよい。(1)y
0より小さいときはy0からth/2を引く(ycc
(i)=y0−th/2)、(2)y1より大きいとき
はy1にth/2を足す(ycc(i)=y1+th/
2)、(3)y0とy1の間にあるときはそのままの値
とする(ycc(i)=y(i))。
That is, (1) When the value is smaller than the minimum value s of the discrimination line area LE1, th / 2 is subtracted from the minimum value s (xc
c (i)) = (s-th / 2), (2) determination line area LE
If it is larger than the maximum value u of 1, 1 is added to the maximum value u (xcc (i)) = u + th / 2). (3) If it is between the minimum value s and the maximum value u of the discrimination row area LE1 The value is used as it is (xcc (i) = x (i)). Also, y
The coordinates may be corrected as follows. (1) y
If it is smaller than 0, subtract th / 2 from y0 (ycc
(I) = y0−th / 2), (2) When y1 is larger than y1, th / 2 is added to y1 (ycc (i) = y1 + th /
2), (3) When it is between y0 and y1, the value is left as it is (ycc (i) = y (i)).

【0133】また、このようにして得られた修正データ
36CCの端点の値については、行領域LE1の情報や
文字領域CE1の情報を利用して見やすくするよう修正
されてもよい。たとえば、図30(A)と(B)に示さ
れるように行領域LE1と隣の行領域LE1との間や、
文字領域CE1と隣の文字領域CE1との間から引くな
ど、文字領域CE1の情報を利用して自由曲線LLのデ
ータを修正することもできる。
Further, the value of the end point of the correction data 36CC obtained in this manner may be corrected to make it easier to see using the information of the line area LE1 and the information of the character area CE1. For example, as shown in FIGS. 30A and 30B, between a row area LE1 and an adjacent row area LE1,
The data of the free curve LL can be corrected using the information of the character area CE1, such as drawing from between the character area CE1 and the adjacent character area CE1.

【0134】また、ここでは、自由曲線LLを入力する
前に、適用される曲線修正部が第1の実施の形態で説明
されたものか、本実施の形態で説明されたもののいずれ
であるかを設定してから、自由曲線LLを入力すること
を前提としていたが、自由曲線LLの入力データが、囲
むように入力されたかどうかを自動で判別する機能を準
備すれば、入力された自由曲線の入力データから、第1
の実施の形態による曲線修正を行なうか、本実施の形態
による曲線修正を行なうかを、自動的に判断して修正を
行なうことが可能になる。
Here, before the free curve LL is input, whether the curve correction unit to be applied is the one described in the first embodiment or the one described in the present embodiment. Is set before inputting the free curve LL. However, if a function for automatically determining whether or not the input data of the free curve LL is input so as to surround the free curve LL is prepared, the input free curve LL can be obtained. From the input data of
It is possible to automatically determine whether to perform the curve correction according to the present embodiment or to perform the curve correction according to the present embodiment, and perform the correction.

【0135】また、ユーザによる操作をわかりやすく説
明するために、本実施の形態では、文字列を囲むように
自由曲線LLの入力データ36AAが入力されることを
前提として説明したが、第1〜第3の実施の形態と同様
にすなわち文字列を囲むようにではなく、文字列と重ね
て入力された線分に対しても本実施の形態と同様に行な
われることは明らかである。
Further, in order to easily explain the operation by the user, the present embodiment has been described on the assumption that the input data 36AA of the free curve LL is inputted so as to surround the character string. It is apparent that the same processing as in the present embodiment is performed not on the character string but in the same manner as in the third embodiment, but also on a line segment input overlapping the character string.

【0136】(第5実施の形態)上述した各実施の形態
で説明されたフローチャートに従う処理を含む各種処理
は、プログラム記憶部31Pに予めストアされた文書画
像処理プログラムがCPU30により読出されて実行さ
れることによって実現される。これらのプログラムはプ
ログラム記憶部31PのようなCPU30により読取可
能な記録媒体に格納されている。この記録媒体として、
外部記憶媒体35を用いてもよい。その場合には、外部
記憶媒体35が外部記憶媒体ドライバ34にセットされ
ることで、外部記憶媒体35から読取られたプログラム
は、内部のプログラム記憶部31Pを含む所定のエリア
にロードされて、その後、CPU30により読出されて
実行されるようにしてもよい。このロード用のプログラ
ムは、予め装置本体の図示されない記憶領域に格納され
ているものとする。
(Fifth Embodiment) In the various processes including the processes according to the flowcharts described in the above embodiments, the CPU 30 reads out a document image processing program stored in the program storage section 31P in advance and executes it. It is realized by doing. These programs are stored in a recording medium readable by the CPU 30, such as the program storage unit 31P. As this recording medium,
An external storage medium 35 may be used. In that case, by setting the external storage medium 35 in the external storage medium driver 34, the program read from the external storage medium 35 is loaded into a predetermined area including the internal program storage unit 31P, and thereafter, , May be read and executed by the CPU 30. It is assumed that the loading program is stored in advance in a storage area (not shown) of the apparatus main body.

【0137】なおプログラム記憶媒体は、装置本体と分
離可能に構成される記録媒体であってもよい。つまり、
磁気テープやカセットテープなどのテープ系、フレキシ
ブルディスクやハードディスクなどの磁気ディスクおよ
びCD−ROM,MO,MDおよびDVDなどの光ディ
スクを含むディスク系、ICカード(メモリカードを含
む)や光カードなどのカード系、あるいはマスクRO
M、EPROM、EEPROMおよびフラッシュROM
などによる半導体メモリを含む記録媒体であってもよ
い。
Note that the program storage medium may be a recording medium configured to be separable from the apparatus main body. That is,
Tape systems such as magnetic tapes and cassette tapes, magnetic disks such as flexible disks and hard disks, and disk systems including optical disks such as CD-ROMs, MOs, MDs and DVDs; cards such as IC cards (including memory cards) and optical cards System or mask RO
M, EPROM, EEPROM and flash ROM
For example, the recording medium may include a semiconductor memory such as a semiconductor memory.

【0138】また、図1(B)に示されるように文書画
像処理装置は、インターネットを含む通信ネットワーク
33と接続可能な構成を有するから、通信ネットワーク
33から文書画像処理プログラムを画像処理装置にダウ
ンロードするために、画像処理プログラムを担持する媒
体であってもよい。
Further, as shown in FIG. 1B, the document image processing apparatus has a configuration connectable to a communication network 33 including the Internet, so that a document image processing program is downloaded from the communication network 33 to the image processing apparatus. For this purpose, the medium may carry an image processing program.

【0139】今回開示された実施の形態はすべての点で
例示であって制限的なものではないと考えられるべきで
ある。本発明の範囲は上記した説明ではなくて特許請求
の範囲によって示され、特許請求の範囲と均等の意味お
よび範囲内でのすべての変更が含まれることが意図され
る。
The embodiments disclosed this time are to be considered in all respects as illustrative and not restrictive. The scope of the present invention is defined by the terms of the claims, rather than the description above, and is intended to include any modifications within the scope and meaning equivalent to the terms of the claims.

【図面の簡単な説明】[Brief description of the drawings]

【図1】 (A)と(B)は、この発明に係る文書画像
処理装置の構成を示すブロック図である。
FIGS. 1A and 1B are block diagrams showing a configuration of a document image processing apparatus according to the present invention.

【図2】 この発明に係る文書画像処理装置の概略処理
フローチャートである。
FIG. 2 is a schematic processing flowchart of the document image processing apparatus according to the present invention.

【図3】 図1の行抽出部の構成を示すブロック図であ
る。
FIG. 3 is a block diagram illustrating a configuration of a row extracting unit in FIG. 1;

【図4】 (A)と(B)は、図3の処理領域指定部を
説明するための図である。
FIGS. 4A and 4B are diagrams for explaining a processing area designating unit in FIG. 3;

【図5】 図3の方向判別部による自由曲線の方向判別
処理のフローチャートである。
FIG. 5 is a flowchart of a free curve direction determination process performed by the direction determination unit in FIG. 3;

【図6】 図3の方向判別部について説明するための図
である。
FIG. 6 is a diagram for explaining a direction discriminating unit in FIG. 3;

【図7】 (A)〜(F)は、図3の文字領域検出部に
ついて説明するための図である。
FIGS. 7A to 7F are diagrams for describing a character area detection unit in FIG. 3;

【図8】 (A)〜(C)は、図3の行領域抽出部につ
いて説明するための図である。
FIGS. 8A to 8C are diagrams for explaining a row area extracting unit in FIG. 3;

【図9】 図3の行判別部の処理フローチャートであ
る。
FIG. 9 is a processing flowchart of a row discriminating unit in FIG. 3;

【図10】 (A)〜(D)は、この発明の第1実施の
形態に係る具体的な処理を説明するための図である。
FIGS. 10A to 10D are diagrams for explaining specific processing according to the first embodiment of the present invention;

【図11】 図1の曲線修正部による自由曲線を修正す
るための処理フローチャートである。
FIG. 11 is a processing flowchart for correcting a free curve by the curve correcting unit of FIG. 1;

【図12】 図1の幅設定部の処理フローチャートであ
る。
FIG. 12 is a processing flowchart of a width setting unit in FIG. 1;

【図13】 (A)と(B)は、図12の処理フローチ
ャートに従う処理を説明するための図である。
FIGS. 13A and 13B are diagrams for explaining processing according to the processing flowchart of FIG. 12;

【図14】 (A)〜(C)は、文字領域を利用して修
正データを修正する処理を説明するための図である。
FIGS. 14A to 14C are diagrams illustrating a process of correcting correction data using a character area.

【図15】 図1の曲線修正部において、ルビ付き文字
を含んだ文書画像に自由曲線が入力された場合の処理を
説明するための図である。
FIG. 15 is a diagram for describing processing when a free curve is input to a document image including a character with ruby in the curve correction unit in FIG. 1;

【図16】 図1の透過処理部による処理フローチャー
トである。
FIG. 16 is a flowchart of a process performed by the transmission processing unit of FIG. 1;

【図17】 図1の修正データ有無判定部による処理フ
ローチャートである。
FIG. 17 is a flowchart of a process performed by a correction data presence / absence determination unit in FIG. 1;

【図18】 (A)〜(E)は、図1の複数線位置修正
部による処理の一例を説明する図である。
FIGS. 18A to 18E are diagrams illustrating an example of a process performed by the multiple line position correction unit in FIG. 1;

【図19】 図1の複数自由曲線有無判定部による処理
フローチャートである。
FIG. 19 is a processing flowchart of the multiple free curve presence / absence determination unit in FIG. 1;

【図20】 (A)〜(E)は、図1の複数線位置修正
部による処理の他の例を説明する図である。
FIGS. 20A to 20E are diagrams illustrating another example of the processing performed by the multiple line position correction unit in FIG. 1;

【図21】 この発明の第3実施の形態に適用されるデ
ータ記憶部31Dの内容例を示す図である。
FIG. 21 is a diagram illustrating a content example of a data storage unit 31D applied to the third embodiment of the present invention.

【図22】 (A)と(B)は、第4実施の形態による
処理領域指定部の処理手順を説明する図である。
FIGS. 22A and 22B are diagrams illustrating a processing procedure of a processing area specifying unit according to a fourth embodiment.

【図23】 第4実施の形態による方向判別部の処理フ
ローチャートである。
FIG. 23 is a processing flowchart of a direction determining unit according to a fourth embodiment.

【図24】 図23の処理の具体例を説明する図であ
る。
FIG. 24 is a diagram illustrating a specific example of the processing in FIG. 23;

【図25】 第4実施の形態による行判別部の処理フロ
ーチャートである。
FIG. 25 is a processing flowchart of a row determining unit according to the fourth embodiment.

【図26】 (A)〜(D)は、第4実施の形態による
自由曲線がX方向に入力された場合の具体的な処理手順
を説明する図である。
FIGS. 26A to 26D are diagrams illustrating a specific processing procedure when a free curve according to the fourth embodiment is input in the X direction.

【図27】 第4実施の形態による曲線修正部の処理フ
ローチャートである。
FIG. 27 is a processing flowchart of a curve correcting unit according to the fourth embodiment.

【図28】 第4実施の形態による幅設定処理のフロー
チャートである。
FIG. 28 is a flowchart of a width setting process according to the fourth embodiment.

【図29】 (A)と(B)は第4実施の形態による自
由曲線修正処理の具体的手順を説明する図である。
FIGS. 29A and 29B are diagrams illustrating a specific procedure of a free curve correction process according to the fourth embodiment.

【図30】 (A)と(B)は第4実施の形態による
自由曲線修正処理の他の手順を説明する図である。
FIGS. 30A and 30B are diagrams illustrating another procedure of the free curve correction processing according to the fourth embodiment.

【符号の説明】 1 画像入力部、2 表示部、3 線入力部、4,4A
行抽出部、5,5A曲線修正部、61 幅設定部、7
1 透過処理部、L,LL 自由曲線。
[Description of Signs] 1 image input unit, 2 display unit, 3 line input unit, 4, 4A
Row extraction unit, 5, 5A curve correction unit, 61 width setting unit, 7
1 Transmission part, L, LL free curve.

Claims (11)

【特許請求の範囲】[Claims] 【請求項1】 文書の画像を表示する表示手段と、 前記表示手段により表示された文書画像における任意の
文字列の画像に対応するように手書きされた線分を入力
する線分入力手段と、 前記線分入力手段により入力された手書き線分を処理す
る処理手段とを備え、 前記処理手段は、 前記手書き線分の方向を判別する方向判別手段と、 前記方向判別手段により判別された方向と前記文書画像
における1つ以上の文字画像とに基づいて、前記文書画
像の領域において、前記任意文字列の画像を含む行の領
域を抽出する行抽出手段と、 前記手書き線分を、前記行抽出手段で抽出された前記行
の領域に重ねて引かれる直線に修正する線分修正手段
と、 前記線分修正手段による修正により得られた前記直線が
重ねて引かれる前記任意の文字列の画像を、該直線を透
過して前記表示部に表示されるように処理する透過手段
とを有する、文書画像処理装置。
A display unit for displaying a document image; a line segment input unit for inputting a handwritten line segment corresponding to an image of an arbitrary character string in the document image displayed by the display unit; Processing means for processing a handwritten line segment input by the line segment input means, the processing means comprising: a direction discriminating means for discriminating a direction of the handwritten line segment; and a direction discriminated by the direction discriminating means. A line extraction unit configured to extract a region of a line including the image of the arbitrary character string in a region of the document image based on one or more character images in the document image; A line segment correcting unit for correcting the line extracted by the unit into a line drawn so as to overlap, and an image of the arbitrary character string in which the line obtained by the correction by the line segment correcting unit is drawn so as to overlap. , And a transmission means for processing to be displayed on the display unit passes through the straight line, the document image processing apparatus.
【請求項2】 前記処理手段は、 前記手書き線分を、前記行抽出手段で抽出された前記行
の領域における前記任意文字列の画像を囲む矩形の直線
に修正して、前記表示部に表示する矩形修正手段をさら
に有する、請求項1に記載の文書画像処理装置。
2. The processing unit corrects the handwritten line segment to a rectangular straight line surrounding the image of the arbitrary character string in the line area extracted by the line extracting unit and displays the straight line on the display unit. The document image processing apparatus according to claim 1, further comprising a rectangle correction unit that performs the correction.
【請求項3】 前記直線は、任意に設定された一定線幅
を有していることを特徴とする、請求項1または2に記
載の文書画像処理装置。
3. The document image processing apparatus according to claim 1, wherein the straight line has a arbitrarily set constant line width.
【請求項4】 前記一定線幅は、前記行の領域における
前記任意文字列の画像の大きさに応じて設定されること
を特徴とする、請求項3に記載の文書画像処理装置。
4. The document image processing apparatus according to claim 3, wherein the constant line width is set according to the size of the image of the arbitrary character string in the line area.
【請求項5】 前記線分修正手段は、 前記行抽出手段により抽出された前記行の領域における
1つ以上の文字の領域に基づいて、前記直線の長さを最
適に調整する調整手段を有する、請求項1ないし4のい
ずれかに記載の文書画像処理装置。
5. The line segment correcting unit has an adjusting unit that optimally adjusts the length of the straight line based on one or more character regions in the line region extracted by the line extracting unit. The document image processing apparatus according to any one of claims 1 to 4.
【請求項6】 前記線分修正手段は、前記行抽出手段に
より抽出された前記行の領域について、既に1つ以上の
前記直線が引かれている場合に、 前記手書き線分に対応の前記直線の位置を、前記行の領
域に既に引かれた1つ以上の前記直線と連続して引かれ
るように修正する直線位置修正手段を有する、請求項1
ないし5のいずれかに記載の文書画像処理装置。
6. The straight line corresponding to the handwritten line segment when one or more straight lines are already drawn in the line area extracted by the line extracting unit. 2. A linear position correcting means for correcting the position of the line so as to be continuously drawn with one or more of the lines already drawn in the region of the row.
6. The document image processing apparatus according to any one of claims 5 to 5.
【請求項7】 前記線分修正手段は、 前記行抽出手段により抽出された前記行の領域につい
て、1つ以上の前記手書き線分が入力された場合に、 1つ以上の前記手書き線分のそれぞれに対応の前記直線
を、位置調整して、連続した1つの直線に修正する手書
き線分位置修正手段を有する、請求項1ないし6のいず
れかに記載の文書画像処理装置。
7. The one or more handwritten line segments when one or more of the handwritten line segments are input for the line region extracted by the line extracting unit. 7. The document image processing apparatus according to claim 1, further comprising a handwritten line segment position correcting unit that adjusts the position of each of the corresponding straight lines to correct the straight line into one continuous straight line.
【請求項8】 前記線分修正手段は、 前記行抽出手段により抽出された前記行の領域が、ルビ
の行に対応するものであることを識別するルビ行識別手
段を有し、 前記ルビ行識別手段により前記行の領域が前記ルビの行
に対応するものであると識別されたときは、前記手書き
線分を前記ルビの行の領域に沿って引かれる前記直線に
修正する、請求項1ないし7のいずれかに記載の文書画
像処理装置。
8. The ruby line identifying unit includes a ruby line identifying unit that identifies that an area of the line extracted by the line extracting unit corresponds to a ruby line. 2. The method according to claim 1, wherein when the region of the line is identified as corresponding to the line of the ruby by the identification unit, the handwritten line segment is corrected to the straight line drawn along the region of the ruby line. 8. The document image processing apparatus according to any one of claims 7 to 7.
【請求項9】 文書の画像を表示する表示手段と、 前記表示手段に表示された文書画像における任意の文字
列の画像を囲むように手書きされた線分を入力する線分
入力手段と、 前記線分入力手段により入力された手書き線分を処理す
る処理手段とを備え、 前記処理手段は、 前記手書き線分の方向を判別する方向判別手段と、 前記方向判別手段により判別された方向と前記文書画像
における1つ以上の文字画像とに基づいて、前記文書画
像の領域において、前記任意文字列の画像を含む行の領
域を抽出する行抽出手段と、 前記手書き線分を、前記行抽出手段で抽出された前記行
の領域の前記任意文字列の画像を囲む直線に修正して、
前記表示部に表示する線分修正表示手段とを有する、文
書画像処理装置。
9. A display unit for displaying an image of a document, a line segment input unit for inputting a line segment handwritten so as to surround an image of an arbitrary character string in the document image displayed on the display unit, Processing means for processing a handwritten line segment input by a line segment input means, the processing means comprising: a direction discriminating means for discriminating a direction of the handwritten line segment; and a direction discriminated by the direction discriminating means. A line extracting unit that extracts a line region including the image of the arbitrary character string in the document image region based on one or more character images in the document image; Corrected to a straight line surrounding the image of the arbitrary character string in the area of the line extracted in,
A document image processing apparatus, comprising: a line segment correction display unit that displays on the display unit.
【請求項10】 文書画像を表示する表示ステップと、 前記表示ステップにより表示された前記文書画像におけ
る任意の文字列の画像に対応して、手書きされた線分を
入力する線分入力ステップと、 前記線分入力ステップにより入力された手書き線分を処
理する処理ステップとを備え、 前記処理ステップは、 前記手書き線分の方向を判別する方向判別ステップと、 前記方向判別ステップにより判別された方向と、前記文
書画像における1つ以上の文字の画像とに基づいて、前
記文書画像の領域において、前記任意文字列を含む行の
領域を抽出する行抽出ステップと、 前記手書き線分を、前記行抽出ステップで抽出された前
記行の領域に重ねて引かれる直線に修正する線分修正ス
テップと、 前記線分修正ステップによる修正により得られた前記直
線が重ねて引かれる前記任意の文字列の画像を、該直線
を透過して表示されるように処理する透過ステップとを
有する、文書画像処理方法。
10. A display step of displaying a document image, a line segment input step of inputting a handwritten line segment corresponding to an image of an arbitrary character string in the document image displayed by the display step, A processing step of processing a handwritten line segment input in the line segment input step, wherein the processing step includes: a direction determining step of determining a direction of the handwritten line segment; and a direction determined by the direction determining step. Extracting a line area including the arbitrary character string in an area of the document image based on one or more character images in the document image; and extracting the handwritten line segment by the line extraction. A line segment correcting step of correcting a line drawn over the region of the row extracted in the step, and a correction obtained by the line segment correcting step. An image of said arbitrary character string whose serial straight line is drawn on top, and a transmission step of processing to be displayed through the straight line, the document image processing method.
【請求項11】 文書画像処理方法をコンピュータに実
行させるための文書画像処理プログラムを記録したコン
ピュータで読取可能な記録媒体であって、 前記文書画像処理方法は、 文書画像を表示する表示ステップと、 前記表示ステップにより表示された前記文書画像におけ
る任意の文字列の画像に対応して、手書きされた線分を
入力する線分入力ステップと、 前記線分入力ステップにより入力された手書き線分を処
理する処理ステップとを備え、 前記処理ステップは、 前記手書き線分の方向を判別する方向判別ステップと、 前記方向判別ステップにより判別された方向と、前記文
書画像における1つ以上の文字の画像とに基づいて、前
記文書画像の領域において、前記任意文字列を含む行の
領域を抽出する行抽出ステップと、 前記手書き線分を、前記行抽出ステップで抽出された前
記行の領域に重ねて引かれる直線に修正する線分修正ス
テップと、 前記線分修正ステップによる修正により得られた前記直
線が重ねて引かれる前記任意の文字列の画像を、該直線
を透過して表示されるように処理する透過ステップとを
有する、文書画像処理プログラムを記録したコンピュー
タで読取可能な記録媒体。
11. A computer-readable recording medium storing a document image processing program for causing a computer to execute the document image processing method, wherein the document image processing method comprises: a display step of displaying a document image; A line input step of inputting a handwritten line segment corresponding to an image of an arbitrary character string in the document image displayed by the display step; and processing a handwritten line segment input by the line input step A direction determining step of determining a direction of the handwritten line segment, a direction determined by the direction determining step, and an image of one or more characters in the document image. A line extraction step of extracting a line region including the arbitrary character string in the document image region based on the A line segment correcting step of correcting a line segment into a straight line drawn over the region of the row extracted in the line extracting step; and the straight line obtained by the correction by the line segment correcting step is drawn over the line. And a transmission step of processing an image of an arbitrary character string so that the image is displayed while passing through the straight line.
JP2000093307A 2000-03-30 2000-03-30 Device and method for processing document image and computer-readable recording medium with document image processing program recorded thereon Pending JP2001282785A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2000093307A JP2001282785A (en) 2000-03-30 2000-03-30 Device and method for processing document image and computer-readable recording medium with document image processing program recorded thereon

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2000093307A JP2001282785A (en) 2000-03-30 2000-03-30 Device and method for processing document image and computer-readable recording medium with document image processing program recorded thereon

Publications (1)

Publication Number Publication Date
JP2001282785A true JP2001282785A (en) 2001-10-12

Family

ID=18608504

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2000093307A Pending JP2001282785A (en) 2000-03-30 2000-03-30 Device and method for processing document image and computer-readable recording medium with document image processing program recorded thereon

Country Status (1)

Country Link
JP (1) JP2001282785A (en)

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2007312363A (en) * 2006-04-17 2007-11-29 Ricoh Co Ltd Image reading system
JP2015201038A (en) * 2014-04-08 2015-11-12 富士通株式会社 Information processing device and information processing program
JP2017211847A (en) * 2016-05-26 2017-11-30 コニカミノルタ株式会社 Information processing device and program
WO2022123929A1 (en) * 2020-12-10 2022-06-16 ソニーセミコンダクタソリューションズ株式会社 Information processing device and information processing method

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH0535910A (en) * 1991-07-30 1993-02-12 Canon Inc Method and device for picture processing
JPH0540851A (en) * 1991-08-02 1993-02-19 Canon Inc Method and device for character recognition
JPH06242885A (en) * 1993-02-16 1994-09-02 Hitachi Ltd Document editing method
JPH0778051A (en) * 1993-09-08 1995-03-20 Sony Corp Shape input method

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH0535910A (en) * 1991-07-30 1993-02-12 Canon Inc Method and device for picture processing
JPH0540851A (en) * 1991-08-02 1993-02-19 Canon Inc Method and device for character recognition
JPH06242885A (en) * 1993-02-16 1994-09-02 Hitachi Ltd Document editing method
JPH0778051A (en) * 1993-09-08 1995-03-20 Sony Corp Shape input method

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
東芝パーソナルワープロルポ JW−V900 ルポガイドI, vol. A1版, JPN6008033400, 21 April 1995 (1995-04-21), JP, pages 395 - 396, ISSN: 0001081023 *

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2007312363A (en) * 2006-04-17 2007-11-29 Ricoh Co Ltd Image reading system
JP2015201038A (en) * 2014-04-08 2015-11-12 富士通株式会社 Information processing device and information processing program
JP2017211847A (en) * 2016-05-26 2017-11-30 コニカミノルタ株式会社 Information processing device and program
WO2022123929A1 (en) * 2020-12-10 2022-06-16 ソニーセミコンダクタソリューションズ株式会社 Information processing device and information processing method

Similar Documents

Publication Publication Date Title
US20100066691A1 (en) Input apparatus and computer readable recording medium recorded with image processing program
US6356655B1 (en) Apparatus and method of bitmap image processing, storage medium storing an image processing program
US20040207600A1 (en) System and method for transforming an ordinary computer monitor into a touch screen
JP3113827B2 (en) Method and apparatus for recognizing rectangular object
JP5439455B2 (en) Electronic comic editing apparatus, method and program
JP2013089198A (en) Electronic comic editing device, method and program
US6810147B2 (en) Document image processing apparatus for processing line portions manually input to document image, method therefor, and computer readable recording medium recorded with document image processing program therefor
JP7529865B2 (en) Digital ink generation device, method and program
EP0531060B1 (en) Image processing method and apparatus
US9678642B2 (en) Methods of content-based image area selection
US11080472B2 (en) Input processing method and input processing device
US11348331B2 (en) Information processing apparatus and non-transitory computer readable medium
US20020051009A1 (en) Method and apparatus for extracting object from video image
JP2001282785A (en) Device and method for processing document image and computer-readable recording medium with document image processing program recorded thereon
US6806878B2 (en) Graphic editing apparatus for adding or deleting curve to/from graphics by interactive processing
CN111968063A (en) Morphological image filtering device and method
JP2000082110A (en) Ruled line deletion device, character picture extraction device, ruled line deletion method, character picture extraction method and storage medium
JP2723109B2 (en) Image processing method
JP2581353B2 (en) Graph image registration system
JP7231844B2 (en) Information processing device, information processing method, program
JP5361315B2 (en) Information processing apparatus and information processing method
JP6471796B2 (en) Information processing apparatus, information processing apparatus control method, and program
US20050108635A1 (en) Document processing apparatus and storage medium
JPH0573725A (en) Hand-written character and graphic recognition device
JPH06149888A (en) Electronic filing system

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20060911

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20080627

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20080708

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20080905

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20081216