Nothing Special   »   [go: up one dir, main page]

JP3789243B2 - Image processing apparatus and method - Google Patents

Image processing apparatus and method Download PDF

Info

Publication number
JP3789243B2
JP3789243B2 JP34336698A JP34336698A JP3789243B2 JP 3789243 B2 JP3789243 B2 JP 3789243B2 JP 34336698 A JP34336698 A JP 34336698A JP 34336698 A JP34336698 A JP 34336698A JP 3789243 B2 JP3789243 B2 JP 3789243B2
Authority
JP
Japan
Prior art keywords
character
area
region
halftone dot
edge
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
JP34336698A
Other languages
Japanese (ja)
Other versions
JP2000175032A (en
Inventor
幸二 小林
敏 大内
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Ricoh Co Ltd
Original Assignee
Ricoh Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Ricoh Co Ltd filed Critical Ricoh Co Ltd
Priority to JP34336698A priority Critical patent/JP3789243B2/en
Publication of JP2000175032A publication Critical patent/JP2000175032A/en
Application granted granted Critical
Publication of JP3789243B2 publication Critical patent/JP3789243B2/en
Anticipated expiration legal-status Critical
Expired - Fee Related legal-status Critical Current

Links

Images

Landscapes

  • Image Processing (AREA)
  • Facsimile Image Signal Circuits (AREA)

Description

【0001】
【発明の属する技術分野】
本発明は、画像領域を文字領域とそうでない領域(非文字領域)に分離して各領域毎に画像処理を行うための画像処理装置および方法に関する。
【0002】
【従来の技術】
一般に、デジタル複写機等において読み取られる原稿は、文字原稿、写真原稿及び網点印刷原稿の3種類に大別され、また、これらが混在する原稿も取り扱われる。このような原稿はそれぞれの画像に要求される画質評価が異なるので、各領域を識別して各領域毎に最適な画像処理を行う必要がある。しかしながら、網点上の文字や色地上の文字を識別しないと、文字ではなく網点と誤って識別して平滑化等の絵柄と同様な処理を行い、このため網点上の文字の解像度が悪くなり、読みにくくなる。
【0003】
そこで、従来例として例えば特開平7−95409号公報には、網点上の文字や色地上の文字、網点原稿、写真原稿を高画質に再生するために、像域分離処理により白地上の文字領域と非文字領域を分離し、次いで文字領域にはエッジ強調を施し、他方、非文字領域に対して平滑化を行い、次いでこの平滑化後の信号に対して注目画素のエッジ度に応じた適応エッジ強調を行う方法が提案されている。
【0004】
また、他の従来例として例えば特開平7−264399号公報には、色成分毎の画像のエッジ情報(エッジ強度と方向)に基づいて原稿を写真画像領域と、カラー網点画像領域と文字線画像領域に分離し、また、色成分毎の領域分離と単色用の領域分離を併用して網点上の文字領域を分離して、各領域毎に画像処理を行う方法が提案されている。
【0005】
【発明が解決しようとする課題】
しかしながら、上記の特開平7−95409号公報記載の発明では、像域分離処理により網点上の文字や色地上の文字を非文字領域と判定して処理を行うので、例えばカラー複写機のようにこの処理の後段に、色補正処理や中間調処理を行う場合には、網点上の文字や色地上の文字が誤って絵柄処理されるという問題点がある。
【0006】
また、上記の特開平7−264399号公報記載の発明では、色成分毎の画像のエッジ方向を高網点率の領域やその境界において判定することが困難であり、誤判定の確率が高いという問題点がある。また、これを防止するために分離信号の平滑化をより強力に行うと、網点上の文字を判定することが困難となる。加えて、色成分毎にエッジ情報検出手段が必要になるので、ハード量が増加してコストアップとなったり、処理時間が長くなる等の問題点がある。
【0007】
本発明は上記従来例の問題点に鑑み、白地上の文字のみならず網点上の文字や色地上の文字を正確に判定して高画質で再生することができる画像処理装置を提供することを目的とする。
【0008】
【課題を解決するための手段】
第1の手段は上記目的を達成するために、入力画像データから文字領域とその他の領域と分離する像域分離処理を施す画像処理装置であって前記入力画像データに対してエッジ強調処理を施す第1のフィルタリング手段と、前記第1のフィルタリング手段により処理された画像データに基づき、エッジか否かを判定する第1のエッジ判定手段と、前記入力画像データに対して平滑化処理を施す第2のフィルタリング手段と、前記第2のフィルタリング手段により処理された画像データに基づき、エッジか否かを判定する第2のエッジ判定手段と、前記入力画像データが網点領域か否かを判定する網点領域判定手段と、前記第1のエッジ判定手段、前記第2のエッジ判定手段、及び前記網点領域判定手段の判定結果に基づき、前記画像データにおける文字領域とその他の領域とを判定する総合判定手段とを有する画像処理装置を特徴とする。
【0009】
第2の手段は、第1の手段において、前記総合判定手段は、前記第2のエッジ判定手段が文字領域だけではなく、前記網点領域判定手段が網点領域ではなく、かつ前記第1のエッジ判定手段が文字領域と判定した場合には、文字領域と判定し、それ以外は、その他の領域と判定することを特徴とする。
【0010】
第3の手段は、第1の手段において、前記総合判定手段は、前記第2のエッジ判定手段が文字領域と判定した場合には文字領域と判定し、前記第2のエッジ判定手段が文字領域ではなく、かつ前記網点領域判定手段が網点領域と判定した場合には、絵柄領域と判定し、前記第2のエッジ判定手段が文字領域ではなく、前記網点領域判定手段が網点領域ではなく、かつ前記第1のエッジ判定手段が文字領域と判定した場合には、文字領域と判定し、前記第2のエッジ判定手段が文字領域ではなく、前記網点領域判定手段が網点領域ではなく、かつ前記第1のエッジ判定手段が文字領域ではないと判定した場合には、絵柄領域と判定することを特徴とする。
【0011】
第4の手段は、第1の手段において、前記総合判定手段は、前記第2のエッジ判定手段が文字領域と判定し、かつ前記第1のエッジ判定手段が網点領域と判定した場合には、文字領域と判定し、前記第2のエッジ判定手段が文字領域ではなく、かつ前記網点領域判定手段が網点領域と判定した場合には、絵柄領域と判定し、前記網点領域判定手段が網点領域ではなく、かつ前記第1のエッジ判定手段が文字領域ではないと判定した場合には、文字領域と判定し、前記網点領域判定手段が網点領域ではなく、かつ前記第1のエッジ判定手段が文字領域ではないと判定した場合には、絵柄領域と判定することを特徴とする。
第5の手段は、入力画像データから文字領域とその他の領域とに分離する像域分離処理を施す画像処理方法であって、前記入力画像データに対してエッジ強調処理を施す第1の工程と、前記第1の工程で処理された画像データに基づき、エッジか否かを判定する第2の工程と、前記入力画像データに対して平滑化処理を施す第3の工程と、前記第3の工程で処理された画像データに基づき、エッジか否かを判定する第4の工程と、 前記入力画像データが網点領域か否かを判定する第5の工程と、前記第2の工程、前記第4の工程、及び前記第5の工程の判定結果に基づき、前記入力画像データにおける文字領域とその他の領域とを判定する第6の工程とを有することを特徴とする。
第6の手段は、第5の手段において、前記第6の工程で、前記第4の工程の判定結果が文字領域だけではなく、前記第5の工程の判定結果が網点領域ではなく、かつ前記第2の工程の判定結果が文字領域である場合には、文字領域と判定し、それ以外は、その他の領域と判定することを特徴とする。
第7の手段は、第5の手段において、前記第6の工程で、前記第4の工程の判定結果が文字領域である場合には文字領域と判定し、前記第4の工程の判定結果が文字領域ではなく、かつ前記第5の工程の判定結果が網点領域である場合に、絵柄領域と判定し、前記第4の工程の判定結果が文字領域ではなく、前記第5の工程の判定結果が網点領域ではなく、かつ前記第2の工程の判定結果が文字領域である場合に、文字領域と判定し、前記第4の工程の判定結果が文字領域ではなく、前記第5の工程の判定結果が網点領域ではなく、かつ前記第2の工程の判定結果が文字領域ではない場合には、絵柄領域と判定することを特徴とする。
第8の手段は、第5の手段において、前記第6の工程で、前記第4の工程の判定結果が文字領域であり、かつ前記第2の工程の判定結果が網点領域である場合には、文字領域と判定し、前記第4の工程の判定結果が文字領域ではなく、かつ前記第5の工程の判定結果が網点領域である場合には、絵柄領域と判定し、前記第5の工程の判定結果が網点領域ではなく、かつ前記第2の工程の判定結果が文字領域ではない場合には、文字領域と判定し、前記第5の工程の判定結果が網点領域ではなく、かつ前記第2の工程の判定結果が文字領域ではない場合には、絵柄領域と判定することを特徴とする。
【0014】
【発明の実施の形態】
1.第1の実施形態
以下、図面を参照して本発明の実施の形態を説明する。図1は本発明に係る画像処理装置の一実施形態を示すブロック図、図2は図1の像域分離処理部を詳細に示すブロック図、図3は図2のエッジ強調処理部の構成及び処理を示す説明図、図4は図2の平滑化処理部の構成及び処理を示す説明図、図5は図2のエッジ判定部を詳細に示すブロック図、図6は図5の黒画素判定部と白画素判定部の処理を示す説明図、図7は図2の総合判定部の処理を示す説明図である。
【0015】
図1において、スキャナ1により読み取られた原稿画像データは文字用画像処理部2と、絵柄用画像処理部3と像域分離処理部4に印加される。文字用画像処理部2は一般的には、文字のエッジを強調するエッジ強調処理を行い、また、カラー画像の場合には高UCR(下地除去)率によるUCR処理、高解像度の中間調処理を行う。絵柄用画像処理部3は一般的には、網点画像上のモアレを除去するための平滑化処理や、高階調性を重視した中間調処理を行う。なお、文字用画像処理部2と絵柄用画像処理部3の処理については、本発明に直接関係しないので、詳細な説明を省略する。文字用画像処理部2と絵柄用画像処理部3により処理された画像データは、セレクタ5により図2に詳しく示す像域分離処理部4により検出された文字/非文字検出信号に基づいて選択されてプリンタ部6に印加される。
【0016】
図2を参照して像域分離処理部4について詳しく説明する。像域分離処理部4は概略的に、エッジ強調処理部11及びエッジ判定部13を有する白地上文字領域判定部(11,13)と、平滑化処理部12及びエッジ判定部14を有する網点上文字領域判定部(12,14)と総合判定部15により構成されている。スキャナ1からの画像データは、白地上文字領域判定部(11,13)ではまず、エッジ強調処理部11により例えば図3に示すような5×3画素のマトリクスで係数=24の注目画素がエッジ強調フィルタ処理されてエッジ判定部13に出力される。また、これに並行して網点上文字領域判定部(12,14)ではまず、平滑化処理部12により例えば図4に示すような5×3画素のマトリクスで係数=2の注目画素が平滑化されてエッジ判定部14に出力される。
【0017】
<白地上文字領域判定>
図5に詳しく示すようにエッジ判定部13、14は同じ構成であるが、3値化部21の閾値が異なる。白地上文字領域判定回路(11、13)におけるエッジ判定部13の3値化部21は、エッジ強調処理部11からの入力データ(画素値X=0〜255)を白画素、黒画素及びその他の画素に分類するために、閾値TM1、TM2(TM1>TM2)により3値化する。すなわち
X≧TM1の場合→黒画素
TM1>X≧TM2の場合→その他の画素
TM2>Xの場合→白画素
のように分類してこの3値データを黒画素判定部22と白画素判定部23に出力する。
【0018】
黒画素判定部22はこの3値データに基づいて、図6(a)〜(d)に示すように3つの黒画素が縦、横、斜めに連続するパターンと一致するか否かを判定してその判定結果を2値で判定部24に出力する。また、白画素判定部23はこの3値データに基づいて、図6(e)〜(h)に示すように3つの白画素が縦、横、斜めに連続するパターンと一致するか否かを判定してその判定結果を2値で判定部24に出力する。判定部24は黒画素判定部22と白画素判定部23の各判定結果に基づいて、5×5画素のブロックにおけるパターンの一致が両者ともに1個以上存在する場合に注目ブロックを「白地上のエッジ領域」と判定し、そうでなければ非エッジ領域と判定する。
【0019】
ここで、白地上の文字領域を判定するためにエッジ強調処理を行う理由は、エッジ強調により文字エッジとその背景(白地)の差を強調してエッジ判定の精度を向上させるとともに、ペアライン(一定間隔の黒線)等のように線画像密集領域においてエッジ判定の精度を向上させるためである。なお、この白地上の文字領域を判定する方法は、例えば電子情報通信学会論文誌、D-II Vol. J75-D-II No. 1 pp39-47, 1992年1月"文字/絵柄(網点、写真)混在画像の像域分離方式”に記載されているが、他の方法でもよい。
【0020】
<網点上文字領域判定>
網点上文字領域判定回路(12、14)におけるエッジ判定部14の3値化部21は、平滑化処理部12からの入力データ(画素値X=0〜255)を白画素、黒画素及びその他の画素に分類するために、閾値TA1、TA2(但し、TM1>TA1>TA2>TM2)により3値化する。すなわち
X≧TA1の場合→黒画素
TA1>X≧TA2の場合→その他の画素
TA2>Xの場合→白画素
のように分類してこの3値データを黒画素判定部22と白画素判定部23に出力する。黒画素判定部22と、白画素判定部23と判定部24の処理は白地上文字領域判定の場合と同一であり、これにより「網点上の文字領域」か否かが判定される。
【0021】
ここで、網点上の文字領域を判定するために平滑化処理を行う理由は、網点部に見られる画像データの起伏を除去して、網点上の文字領域を判定可能にするためである。なお、エッジ判定部13、14はこれに限定されず、また、同じ構成でなくてもよい。また、網点上文字領域判定回路(12、14)では、平滑化処理部12の出力に基づいて直接エッジ判定を行う代わりに、平滑化処理部12の出力をさらにエッジ強調し、その結果に基づいてエッジ判定を行うようにしてもよい。
【0022】
<総合判定>
総合判定部15は白地上文字領域判定部(11,13)の判定結果SMOと網点上文字領域判定部(12,14)の判定結果AMOに基づいて図7に示すような総合判定を行う。すなわち
(1)網点上文字領域判定結果AMO=文字の場合には、白地上文字領域判定結果SMOに関係なく、総合判定結果=文字、
(2)白地上文字領域判定結果SMO=文字の場合には、網点上文字領域判定結果AMOに関係なく、総合判定結果=文字、
(3)網点上文字領域判定結果AMO=白地上文字領域判定結果SMO=非文字の場合には、総合判定結果=絵柄
と総合判定する。
【0023】
したがって、上記実施形態によれば、エッジ強調した信号をエッジ判定することにより白地上の文字領域を判定するとともに、平滑化した信号をエッジ判定することにより網点上の文字領域を判定し、両者の論理和(OR)により文字領域を総合判定するので、白地上の文字のみならず網点上の文字や色地上の文字を判定することができる。このため、図1に示す文字用画像処理部2と絵柄用画像処理部3の出力を誤りなく選択することができるので、白地上の文字のみならず網点上の文字や色地上の文字を正確に判定して高画質で再生することができる。
【0024】
2.第2の実施形態
次に図8〜図10を参照して第2の実施形態について説明する。この第2の実施形態の像域分離処理部は、図8に示すように第1の実施形態(図2参照)に対して網点領域判定部16aが追加され、この網点領域判定部16はスキャナ1により読み取られた原稿画像データに基づいて網点領域か否かを判定し、その判定結果AMIを総合判定部15aに出力する。
【0025】
網点領域判定部16aでは図9に詳しく示すように、まず、ピーク画素検出部31により3×3画素のブロックにおける中心画素の値が周囲画素より一定レベル以上か否かを判定することによりピーク画素を検出する。次いで網点領域検出部32により4×4画素のブロックにおいてピーク画素を含むブロックが2ブロック以上存在する場合に注目ブロックを網点候補領域とし、そうでない場合には非網点候補領域として検出する。最後に網点領域補正部33により4×4画素を1ブロックとして、注目ブロックを中心ブロックとする3×3ブロックにおいて4ブロック以上が網点候補領域の場合に注目ブロックを網点領域(AMI=1)とする。なお、この網点領域判定は図9に限定されず、他の公知の方法を用いてもよい。
【0026】
そして、総合判定部15aは白地上文字領域判定部(11,13)の判定結果SMOと、網点上文字領域判定部(12,14)の判定結果AMOと網点領域判定部16の判定結果AMIに基づいて図10に示すような総合判定を行う。すなわち
(1)網点上文字領域判定結果AMO=文字の場合には、白地上文字領域判定結果SMOと網点領域判定結果AMIに関係なく、総合判定結果=文字、
(2)網点上文字領域判定結果AMO=非文字、且つ網点領域判定結果AMI=網点領域の場合には、白地上文字領域判定結果SMOに関係なく、総合判定結果=絵柄(網点)、
(3)網点上文字領域判定結果AMO=非文字、網点領域判定結果AMI=非網点領域且つ白地上文字領域判定結果SMO=文字の場合には、総合判定結果=文字、
(4)網点上文字領域判定結果AMO=非文字、網点領域判定結果AMI=非網点領域且つ白地上文字領域判定結果SMO=非文字の場合には、総合判定結果=絵柄(写真)
と総合判定する。
【0027】
したがって、第2の実施形態によれば、総合判定の優先度は、網点上の文字領域が最も高く、以下、網点(絵柄)領域、白地上の文字領域、写真(絵柄)領域の順に低くなるので、第1の実施形態の効果の他に、さらに像域分離精度を上げることができる。
【0028】
3.第3の実施形態
次に図11を参照して第3の実施形態について説明する。この第3の実施形態の構成は第2の実施形態(図8、図9)と同一であるが、総合判定部15aは白地上文字領域判定部(11,13)の判定結果SMOと、網点上文字領域判定部(12,14)の判定結果AMOと網点領域判定部16の判定結果AMIに基づいて図11に示すような総合判定を行う。すなわち
(1)網点上文字領域判定結果AMO=文字、且つ網点領域判定結果AMI=網点の場合には、白地上文字領域判定結果SMOに関係なく、総合判定結果=文字、
(2)網点上文字領域判定結果AMO=非文字、且つ網点領域判定結果AMI=網点領域の場合には、白地上文字領域判定結果SMOに関係なく、総合判定結果=絵柄(網点)、
(3)網点領域判定結果AMI=非網点領域、且つ白地上文字領域判定結果SMO=文字の場合には、網点上文字領域判定結果AMOに関係なく、総合判定結果=文字、
(4)網点領域判定結果AMI=非網点領域、且つ白地上文字領域判定結果SMO=非文字の場合には、網点上文字領域判定結果AMOに関係なく、総合判定結果=絵柄(写真)
と総合判定する。
【0029】
したがって、第3の実施形態によれば、第2の実施形態と比較すると、網点領域でのみ網点上の文字領域を判定するので、第2の実施形態の効果の他に、さらに像域分離精度を上げることができる。
【0030】
4.第4の実施形態
次に図12〜図14を参照して第4の実施形態について説明する。この第4の実施形態では、図12に示すように第1の実施形態(図1参照)における像域分離処理部4の代わりに特徴量算出部7が設けられ、セレクタ5の代わりに演算部8が設けられている。他の構成は同一である。ここで、第1〜第3の実施形態では、文字用画像処理部2又は絵柄用画像処理部3の処理信号を選択、すなわち2値的に選択するように構成されているが、この第4の実施形態では、特徴量算出部7によりエッジの度合いに応じて文字度MOJIを算出し、文字度MOJIに応じて文字用画像処理部2処理信号CHARと絵柄用画像処理部3の処理信号IMAGEを演算部8により混合するように構成されている。
【0031】
特徴量算出部7は図13に詳しく示すように、エッジ強調処理部11及びエッジ度算出部16を有する白地上文字度算出部(11,16)と、平滑化処理部12及びエッジ度算出部17を有する網点上文字度算出部(12,17)と演算部18により構成されている。エッジ強調処理部11と平滑化処理部12は第1の実施形態と同じ構成である。
【0032】
白地上文字度算出におけるエッジ度算出部16では図14に詳しく示すように、まず、エッジ強調処理部11からの入力データに対して、ラプラシアンフィルタ部41により例えば図15に示すような3×3画素のマトリクスでラプラシアンフィルタ処理を行うことによりエッジ度(量)を算出する。次いでこのエッジ度(量)をLUT(ルックアップテーブル)部42により白地上の文字度SMOに変換する。ここで、エッジ度が大きい場合には文字度SMOも大きくなるのでLUT部42は必ずしも必要はないが、それぞれのシステムに応じて最適な文字度SMOを得るためにはLUT部42を設けた方がよい。
【0033】
網点上文字度算出におけるエッジ度算出部17は、図14に示すエッジ度算出部16と同じ構成であるが、LUT部42の変換が異なる。ここで、エッジ度算出部16、17におけるラプラシアンフィルタ部41は必ずしも必要はなく、また、エッジ度算出部16、17は図14に示す構成に限定されない。また、第1の実施形態においても説明したが、平滑化処理部12の出力に基づいて直接エッジ度を算出する代わりに、平滑化処理部12の出力をさらにエッジ強調し、その結果に基づいてエッジ度を算出するようにしてもよい。
【0034】
図13に示す演算部18は、白地上文字度算出部(11,16)により算出された白地上の文字度SMOと網点上文字度算出部(12,17)により算出された網点上の文字度AMOに基づいて、以下のように数値が大きいほど大きな文字度MOJIを算出して図12に示す演算部8に出力する。
【0035】
MOJI=max(SMO,AMO)
但し、MOJI,SMO,AMO=8ビット
図12に示す演算部8は、文字度MOJIに応じて文字用画像処理部2の処理信号CHARと絵柄用画像処理部3の処理信号IMAGEを以下のように混合する。
【0036】
OUT={CHAR×MOJI+IMAGE×(255−MOJI)}/255
但し、CHAR,IMAGE=8ビット
なお、文字度MOJIを算出する他の方法としては、第1〜第3の実施形態における2値の像域分離信号を、文字領域と判定された場合を「255」、判定されなかった場合を「0」として平滑化することにより8ビットの文字度MOJIに変換するようにしてもよい。また、他の方法として、第2、第3の実施形態における網点領域判定部16a(図8参照)の判定結果を文字度MOJIと併用するようにしてもよい。
【0037】
したがって、この第4の実施形態によれば、エッジ強調した信号のエッジ度により白地上の文字度を算出するとともに、平滑化した信号のエッジ度により網点上の文字度を算出し、両者を総合判定して文字度を算出するので、白地上の文字のみならず網点上の文字や色地上の文字を判定することができるとともに、文字処理と絵柄処理を2値的ではなく、段階的に切り替えることができる。このため、白地上の文字のみならず網点上の文字や色地上の文字を正確に判定して高画質で再生することができる。
【0038】
【発明の効果】
以上説明したように、発明によれば、白地上の文字には、エッジ強調処理を行うことにより下地とエッジ部とのコントラストを高めてエッジ判定の精度を向上させ、網点領域の場合には、網点に対して平滑化処理を行ってぼかすことにより網点をエッジ判定しないようにして網点上の文字と網点の誤判定を減少させることが可能となり、これにより白地上の文字のみならず網点上の文字や色地上の文字を正確に判定して高画質で再生することができる。
【図面の簡単な説明】
【図1】本発明に係る画像処理装置の一実施形態を示すブロック図である。
【図2】図1の像域分離処理部を詳細に示すブロック図である。
【図3】図2のエッジ強調処理部の構成及び処理を示す説明図である。
【図4】図2の平滑化処理部の構成及び処理を示す説明図である。
【図5】図2のエッジ判定部を詳細に示すブロック図である。
【図6】図5の黒画素判定部と白画素判定部の処理を示す説明図である。
【図7】図2の総合判定部の処理を示す説明図である。
【図8】第2の実施形態の像域分離処理部を詳細に示すブロック図である。
【図9】図8の網点領域判定部を詳細に示すブロック図である。
【図10】図8の総合判定部の処理を示す説明図である。
【図11】第3の実施形態の総合判定部の処理を示す説明図である。
【図12】第4の実施形態の画像処理装置を示すブロック図である。
【図13】図12の特徴量算出部を詳細に示すブロック図である。
【図14】図13のエッジ度算出部を詳細に示すブロック図である。
【図15】図14のラプラシアンフィルタ部の処理を示す説明図である。
【符号の説明】
2 文字用画像処理部
3 絵柄用画像処理部
4 像域分離処理部
8,18 演算部
11 エッジ強調処理部
12 平滑化処理部
13,14 エッジ判定部
15,15a 総合判定部
16a 網点領域判定部
16,17 エッジ度算出部
[0001]
BACKGROUND OF THE INVENTION
The present invention relates to an image processing apparatus and method for performing image processing for each area by separating an image area into a character area and a non-character area (non-character area).
[0002]
[Prior art]
In general, documents read by a digital copying machine or the like are roughly classified into three types: a text document, a photo document, and a halftone print document, and a document in which these are mixed is also handled. Since such an original requires different image quality evaluations for each image, it is necessary to identify each area and perform optimum image processing for each area. However, if the characters on the halftone dots and the characters on the color ground are not identified, they are mistakenly identified as halftone dots instead of characters, and the same processing as the pattern such as smoothing is performed. It gets worse and harder to read.
[0003]
Therefore, as a conventional example, for example, Japanese Patent Application Laid-Open No. 7-95409 discloses a method for reproducing a character on a white ground by image area separation processing in order to reproduce a character on a halftone dot, a character on a color ground, a halftone dot manuscript, and a photo manuscript with high image quality. The character area is separated from the non-character area, then edge enhancement is applied to the character area, and the non-character area is smoothed. Then, the smoothed signal is subjected to the edge degree of the pixel of interest. A method for performing adaptive edge enhancement has been proposed.
[0004]
As another conventional example, for example, Japanese Patent Laid-Open No. 7-264399 discloses a document based on edge information (edge strength and direction) of an image for each color component, a photographic image region, a color halftone image region, and a character line. A method has been proposed in which image areas are separated and character areas on halftone dots are separated by using both area separation for each color component and area separation for a single color to perform image processing for each area.
[0005]
[Problems to be solved by the invention]
However, in the invention described in Japanese Patent Laid-Open No. 7-95409, a character on a halftone dot or a character on a color ground is determined as a non-character region by image region separation processing, so that, for example, a color copying machine is used. In addition, when color correction processing or halftone processing is performed after this processing, there is a problem that characters on halftone dots or characters on the color ground are erroneously subjected to pattern processing.
[0006]
In the invention described in Japanese Patent Laid-Open No. 7-264399, it is difficult to determine the edge direction of an image for each color component in a high halftone dot area or its boundary, and the probability of erroneous determination is high. There is a problem. Further, if the separation signal is more smoothly smoothed to prevent this, it becomes difficult to determine the character on the halftone dot. In addition, since edge information detection means is required for each color component, there is a problem that the amount of hardware increases, resulting in an increase in cost and a longer processing time.
[0007]
SUMMARY OF THE INVENTION In view of the problems of the above-described conventional example, the present invention provides an image processing apparatus that can accurately determine not only characters on white ground but also characters on halftone dots and characters on color ground and reproduce them with high image quality. With the goal.
[0008]
[Means for Solving the Problems]
For the first means to achieve the above object, an image processing apparatus which performs image area separation processing for separating from the input image data into a character region and another region, edge enhancement processing to the input image data a first filtering means for performing said-out first filtering means based on the image data processed by the first edge determination means for determining whether or not the edge, smoothing with respect to the input image data and second filtering means for performing processing, the-out second filtering means based on the image data processed by the second edge determination means for determining whether or not an edge, the input image data is halftone area and whether determining dot area determination means for determining said first edge determination unit,-out the second edge determination means, and based on the determination result of the halftone region judging means, the image data Wherein the image processing apparatus and a total determination means for determining a character region and other regions in.
[0009]
The second means is the first means, wherein the comprehensive judgment means is such that the second edge judgment means is not only a character area, the halftone area judgment means is not a halftone area, and the first When the edge determination means determines that the character area is detected , it is determined that the character area is determined. Otherwise, the other area is determined .
[0010]
Third means, in the first hand stage, the overall judging means, when said second edge determination unit determines that the character region is determined as a character region, the second edge determination unit characters If it is not an area and the halftone dot area determination means determines that it is a halftone dot area, it is determined as a picture area, the second edge determination means is not a character area, and the halftone dot area determination means is a halftone dot. If the first edge determination means determines that the area is not a character area, it is determined to be a character area, and the second edge determination means is not a character area, and the halftone dot area determination means is a halftone dot. If it is not an area and the first edge determining means determines that the area is not a character area, it is determined that the area is a picture area .
[0011]
Fourth means, in the first hand stage, the total determination unit, when the second edge determination means determines that the character region and the first edge determination unit determines that the halftone dot area Is determined as a character area, and when the second edge determination means is not a character area and the halftone dot area determination means determines a halftone dot area, it is determined as a picture area, and the halftone dot area determination is performed. If the means is not a halftone dot area, and the first edge determination means determines that it is not a character area, it is determined as a character area, the halftone dot area determination means is not a halftone dot area, and the first area When one edge determination means determines that the area is not a character area, it is determined that the area is a picture area .
A fifth means is an image processing method for performing image region separation processing for separating character regions and other regions from input image data, the first step of performing edge enhancement processing on the input image data; A second step of determining whether or not the edge is based on the image data processed in the first step, a third step of performing a smoothing process on the input image data, and the third step A fourth step of determining whether or not an edge is based on the image data processed in the step; a fifth step of determining whether or not the input image data is a halftone region; the second step; And a sixth step of determining a character region and other regions in the input image data based on the determination result of the fourth step and the fifth step.
The sixth means is the fifth means in which, in the sixth step, the determination result of the fourth step is not only the character region, the determination result of the fifth step is not a halftone dot region, and If the determination result of the second step is a character area, it is determined as a character area, and otherwise it is determined as another area.
A seventh means is a fifth means in which, in the sixth step, if the determination result of the fourth step is a character area, it is determined as a character area, and the determination result of the fourth step is When it is not a character region and the determination result of the fifth step is a halftone dot region, it is determined as a picture region, and the determination result of the fourth step is not a character region but the determination of the fifth step If the result is not a halftone dot region and the determination result of the second step is a character region, it is determined as a character region, and the determination result of the fourth step is not a character region, but the fifth step If the determination result is not a halftone dot region and the determination result of the second step is not a character region, it is determined as a pattern region.
The eighth means is the fifth means, wherein, in the sixth step, the determination result of the fourth step is a character area, and the determination result of the second process is a halftone dot area. Is determined to be a character region, and if the determination result of the fourth step is not a character region and the determination result of the fifth step is a halftone dot region, it is determined to be a pattern region, and the fifth region If the determination result of the step is not a halftone dot region and the determination result of the second step is not a character region, it is determined as a character region, and the determination result of the fifth step is not a halftone dot region. And when the determination result of the said 2nd process is not a character area, it determines with a pattern area, It is characterized by the above-mentioned.
[0014]
DETAILED DESCRIPTION OF THE INVENTION
1. First Embodiment Hereinafter, an embodiment of the present invention will be described with reference to the drawings. FIG. 1 is a block diagram showing an embodiment of an image processing apparatus according to the present invention, FIG. 2 is a block diagram showing in detail an image area separation processing unit in FIG. 1, and FIG. 3 is a configuration of an edge enhancement processing unit in FIG. FIG. 4 is an explanatory diagram showing the configuration and processing of the smoothing processing unit in FIG. 2, FIG. 5 is a block diagram showing the edge determination unit in FIG. 2 in detail, and FIG. 6 is a black pixel determination in FIG. FIG. 7 is an explanatory diagram showing the processing of the comprehensive determination unit in FIG. 2.
[0015]
In FIG. 1, document image data read by the scanner 1 is applied to a character image processing unit 2, a design image processing unit 3, and an image area separation processing unit 4. The character image processing unit 2 generally performs edge emphasis processing for emphasizing the edges of characters, and in the case of a color image, UCR processing with a high UCR (background removal) rate and high resolution halftone processing are performed. Do. The pattern image processing unit 3 generally performs a smoothing process for removing moire on a halftone image and a halftone process that emphasizes high gradation. Note that the processing of the character image processing unit 2 and the design image processing unit 3 is not directly related to the present invention, and thus detailed description thereof is omitted. The image data processed by the character image processing unit 2 and the pattern image processing unit 3 is selected by the selector 5 based on the character / non-character detection signal detected by the image area separation processing unit 4 shown in detail in FIG. Applied to the printer unit 6.
[0016]
The image area separation processing unit 4 will be described in detail with reference to FIG. The image area separation processing unit 4 generally includes a white background character region determination unit (11, 13) having an edge enhancement processing unit 11 and an edge determination unit 13, and a halftone dot having a smoothing processing unit 12 and an edge determination unit 14. The upper character area determination unit (12, 14) and the comprehensive determination unit 15 are configured. For the image data from the scanner 1, the white ground character area determination unit (11, 13) first converts the target pixel having a coefficient of 24 into a 5 × 3 pixel matrix as shown in FIG. The enhancement filter process is performed and the result is output to the edge determination unit 13. In parallel with this, in the halftone dot character region determination unit (12, 14), first, the smoothing processing unit 12 smooths the target pixel of coefficient = 2 in a matrix of 5 × 3 pixels as shown in FIG. And output to the edge determination unit 14.
[0017]
<White ground character area judgment>
As shown in detail in FIG. 5, the edge determination units 13 and 14 have the same configuration, but the threshold value of the ternary unit 21 is different. The ternarization unit 21 of the edge determination unit 13 in the white ground character region determination circuit (11, 13) converts the input data (pixel value X = 0 to 255) from the edge enhancement processing unit 11 into white pixels, black pixels, and others. In order to classify the pixel into three pixels, ternarization is performed using threshold values TM1 and TM2 (TM1> TM2). That is, if X ≧ TM1 → black pixel TM1> X ≧ TM2 → other pixels TM2> X → classify as white pixels and classify the ternary data into black pixel determination unit 22 and white pixel determination unit 23. Output to.
[0018]
Based on this ternary data, the black pixel determination unit 22 determines whether or not three black pixels match a pattern in which the vertical, horizontal, and diagonal continuous as shown in FIGS. 6 (a) to 6 (d). The determination result is output to the determination unit 24 in binary. Further, based on the ternary data, the white pixel determination unit 23 determines whether or not three white pixels coincide with a pattern that is continuous in the vertical, horizontal, and diagonal directions as shown in FIGS. The determination is made and the determination result is output to the determination unit 24 in binary. Based on the determination results of the black pixel determination unit 22 and the white pixel determination unit 23, the determination unit 24 selects the block of interest as “white ground” when there is at least one pattern match in a 5 × 5 pixel block. Edge region ”is determined. Otherwise, it is determined as a non-edge region.
[0019]
Here, the reason for performing the edge enhancement processing to determine the character area on the white background is to enhance the edge determination accuracy by enhancing the difference between the character edge and the background (white background) by edge enhancement, This is to improve the accuracy of edge determination in a line image dense region such as a black line at regular intervals. The method for determining the character area on the white ground is, for example, the Journal of the Institute of Electronics, Information and Communication Engineers, D-II Vol. J75-D-II No. 1 pp39-47, January 1992 , Photo) “Image area separation method for mixed images”, but other methods may be used.
[0020]
<Character determination on halftone dot>
The ternarization unit 21 of the edge determination unit 14 in the halftone dot character region determination circuit (12, 14) converts the input data (pixel value X = 0 to 255) from the smoothing processing unit 12 into white pixels, black pixels, and In order to classify into other pixels, ternarization is performed by threshold values TA1 and TA2 (where TM1>TA1>TA2> TM2). That is, when X ≧ TA1 → black pixel TA1> X ≧ TA2 → other pixels TA2> X → classify as white pixels and ternary data is classified into black pixel determination unit 22 and white pixel determination unit 23. Output to. The processing of the black pixel determination unit 22, the white pixel determination unit 23, and the determination unit 24 is the same as in the case of white ground character region determination, and thereby, it is determined whether or not the character region is on a halftone dot.
[0021]
Here, the reason for performing the smoothing process in order to determine the character area on the halftone dot is to remove the undulation of the image data seen in the halftone dot portion and to make it possible to determine the character area on the halftone dot. is there. The edge determination units 13 and 14 are not limited to this, and may not have the same configuration. Further, in the halftone dot character region determination circuit (12, 14), instead of directly performing edge determination based on the output of the smoothing processing unit 12, the output of the smoothing processing unit 12 is further edge-enhanced, The edge determination may be performed based on this.
[0022]
<Comprehensive judgment>
The comprehensive determination unit 15 performs a comprehensive determination as shown in FIG. 7 based on the determination result SMO of the white ground character region determination unit (11, 13) and the determination result AMO of the halftone character region determination unit (12, 14). . That is, (1) when halftone dot character region determination result AMO = character, regardless of white ground character region determination result SMO, comprehensive determination result = character,
(2) When white ground character area determination result SMO = character, regardless of halftone dot character area determination result AMO, overall determination result = character,
(3) When halftone dot character region determination result AMO = white ground character region determination result SMO = non-character, comprehensive determination result = pattern is comprehensively determined.
[0023]
Therefore, according to the above embodiment, the character area on the white background is determined by performing edge determination on the edge-enhanced signal, and the character area on the halftone dot is determined by performing edge determination on the smoothed signal. Since the character area is comprehensively determined by the logical sum (OR), it is possible to determine not only the characters on the white background but also the characters on the halftone dots and the characters on the color ground. Therefore, the output of the character image processing unit 2 and the pattern image processing unit 3 shown in FIG. 1 can be selected without error, so that not only the characters on the white background but also the characters on the halftone dots and the characters on the color ground can be selected. Accurate determination and reproduction with high image quality are possible.
[0024]
2. Second Embodiment Next, a second embodiment will be described with reference to FIGS. In the image area separation processing unit of the second embodiment, as shown in FIG. 8, a halftone dot region determination unit 16a is added to the first embodiment (see FIG. 2). Determines whether or not it is a halftone dot region based on the document image data read by the scanner 1, and outputs the determination result AMI to the comprehensive determination unit 15a.
[0025]
As shown in detail in FIG. 9, the halftone dot region determination unit 16 a first determines whether the peak pixel detection unit 31 determines whether the value of the central pixel in the 3 × 3 pixel block is equal to or higher than a certain level from the surrounding pixels. Detect a pixel. Next, when there are two or more blocks including peak pixels in the 4 × 4 pixel block, the halftone dot detection unit 32 detects the block of interest as a halftone dot candidate region, otherwise, it is detected as a non-halftone dot candidate region. . Finally, when the 4 × 4 pixels are set as one block by the halftone dot region correcting unit 33 and 4 blocks or more are halftone dot candidate regions in the 3 × 3 block having the target block as the central block, the target block is converted into a halftone dot region (AMI = 1). This halftone dot region determination is not limited to that shown in FIG. 9, and other known methods may be used.
[0026]
Then, the overall determination unit 15a determines the determination result SMO of the white ground character region determination unit (11, 13), the determination result AMO of the halftone dot character region determination unit (12, 14), and the determination result of the halftone region determination unit 16. Based on the AMI, comprehensive determination as shown in FIG. 10 is performed. That is, (1) when halftone dot character area determination result AMO = character, regardless of white ground character area determination result SMO and halftone dot area determination result AMI, overall determination result = character,
(2) When halftone dot character area determination result AMO = non-character and halftone dot area determination result AMI = halftone dot area, comprehensive determination result = picture (halftone dot) regardless of white ground character area determination result SMO ),
(3) When halftone dot character region determination result AMO = non-character, halftone dot region determination result AMI = non-halftone dot region and white ground character region determination result SMO = character, overall determination result = character,
(4) When halftone dot character region determination result AMO = non-character, halftone dot region determination result AMI = non-halftone dot region and white ground character region determination result SMO = non-character, comprehensive determination result = picture (photo)
And comprehensive judgment.
[0027]
Therefore, according to the second embodiment, the priority of the comprehensive determination is the highest in the character area on the halftone dot, and in the order of the halftone dot (picture) area, the character area on the white background, and the photograph (picture) area. Therefore, in addition to the effects of the first embodiment, the image area separation accuracy can be further increased.
[0028]
3. Third Embodiment Next, a third embodiment will be described with reference to FIG. Although the configuration of the third embodiment is the same as that of the second embodiment (FIGS. 8 and 9), the overall determination unit 15a uses the determination result SMO of the white background character region determination unit (11, 13) and the network. Based on the determination result AMO of the dot character region determination unit (12, 14) and the determination result AMI of the halftone region determination unit 16, comprehensive determination as shown in FIG. 11 is performed. That is, (1) When the halftone dot character region determination result AMO = character and the halftone dot region determination result AMI = halftone dot, regardless of the white ground character region determination result SMO, the comprehensive determination result = character,
(2) When halftone dot character area determination result AMO = non-character and halftone dot area determination result AMI = halftone dot area, comprehensive determination result = picture (halftone dot) regardless of white ground character area determination result SMO ),
(3) When halftone dot area determination result AMI = non-halftone dot area and white ground character area determination result SMO = character, regardless of halftone dot character area determination result AMO, overall determination result = character,
(4) When halftone dot area determination result AMI = non-halftone dot area and white ground character area determination result SMO = non-character, regardless of halftone dot character area determination result AMO, overall determination result = picture (photograph )
And comprehensive judgment.
[0029]
Therefore, according to the third embodiment, compared with the second embodiment, the character area on the halftone dot is determined only in the halftone dot area, so that in addition to the effect of the second embodiment, the image area is further increased. Separation accuracy can be increased.
[0030]
4). Fourth Embodiment Next, a fourth embodiment will be described with reference to FIGS. In the fourth embodiment, as shown in FIG. 12, a feature amount calculation unit 7 is provided instead of the image area separation processing unit 4 in the first embodiment (see FIG. 1), and an arithmetic unit instead of the selector 5 8 is provided. Other configurations are the same. Here, in the first to third embodiments, the processing signal of the character image processing unit 2 or the design image processing unit 3 is selected, that is, selected in a binary manner. In the embodiment, the character amount MOJI is calculated by the feature amount calculation unit 7 according to the degree of the edge, and the character image processing unit 2 processing signal CHAR and the processing image IMAGE of the pattern image processing unit 3 are calculated according to the character degree MOJI. Are mixed by the calculation unit 8.
[0031]
As shown in detail in FIG. 13, the feature amount calculation unit 7 includes a white background character degree calculation unit (11, 16) having an edge enhancement processing unit 11 and an edge degree calculation unit 16, a smoothing processing unit 12, and an edge degree calculation unit. A halftone dot character degree calculation unit (12, 17) having 17 and a calculation unit 18. The edge enhancement processing unit 11 and the smoothing processing unit 12 have the same configuration as in the first embodiment.
[0032]
In the whiteness character degree calculation, as shown in detail in FIG. 14, first, the Laplacian filter unit 41 applies 3 × 3 as shown in FIG. 15, for example, to the input data from the edge enhancement processing unit 11. The edge degree (amount) is calculated by performing Laplacian filter processing with a matrix of pixels. Next, this edge degree (amount) is converted into a white ground character degree SMO by an LUT (look-up table) unit 42. Here, when the edge degree is large, the character degree SMO also becomes large, so the LUT unit 42 is not necessarily required. However, in order to obtain the optimum character degree SMO according to each system, the LUT unit 42 is provided. Is good.
[0033]
The edge degree calculation unit 17 in calculating the character degree on halftone dot has the same configuration as the edge degree calculation unit 16 shown in FIG. 14, but the conversion of the LUT unit 42 is different. Here, the Laplacian filter unit 41 in the edge degree calculation units 16 and 17 is not necessarily required, and the edge degree calculation units 16 and 17 are not limited to the configuration shown in FIG. Further, as described in the first embodiment, instead of directly calculating the edge degree based on the output of the smoothing processing unit 12, the output of the smoothing processing unit 12 is further edge-enhanced, and based on the result. The edge degree may be calculated.
[0034]
The calculation unit 18 shown in FIG. 13 includes the white ground character degree SMO calculated by the white background character degree calculation unit (11, 16) and the halftone character degree calculation unit (12, 17). Based on the character degree AMO, the greater the numerical value, the greater the character degree MOJI is calculated and output to the computing unit 8 shown in FIG.
[0035]
MOJI = max (SMO, AMO)
However, MOJI, SMO, AMO = 8 bits The arithmetic unit 8 shown in FIG. 12 generates the processing signal CHAR of the character image processing unit 2 and the processing signal IMAGE of the picture image processing unit 3 in accordance with the character degree MOJI as follows. To mix.
[0036]
OUT = {CHAR × MOJI + IMAGE × (255−MOJI)} / 255
However, CHAR, IMAGE = 8 bits As another method for calculating the character degree MOJI, the case where the binary image area separation signal in the first to third embodiments is determined to be a character area is “255”. ”, It may be converted to 8-bit character degree MOJI by smoothing the case where it is not determined as“ 0 ”. As another method, the determination result of the halftone dot region determination unit 16a (see FIG. 8) in the second and third embodiments may be used together with the character degree MOJI.
[0037]
Therefore, according to the fourth embodiment, the character degree on the white ground is calculated from the edge degree of the edge-enhanced signal, and the character degree on the halftone dot is calculated from the edge degree of the smoothed signal. Since the character degree is calculated by comprehensive determination, not only the characters on the white ground but also the characters on the halftone dots and the characters on the color ground can be determined, and the character processing and the pattern processing are not binary, but step by step. You can switch to For this reason, not only the characters on the white ground but also the characters on the halftone dots and the characters on the color ground can be accurately determined and reproduced with high image quality.
[0038]
【The invention's effect】
As described above, according to the present invention, for the characters on the white background, the edge enhancement processing is performed to increase the contrast between the background and the edge portion, thereby improving the accuracy of edge determination. Makes it possible to reduce the misjudgment of characters on halftone dots and halftone dots by performing smoothing processing on the halftone dots so that the halftone dots are not edge-determined. In addition, the characters on the halftone dots and the characters on the color ground can be accurately determined and reproduced with high image quality.
[Brief description of the drawings]
FIG. 1 is a block diagram showing an embodiment of an image processing apparatus according to the present invention.
FIG. 2 is a block diagram illustrating in detail an image area separation processing unit in FIG. 1;
FIG. 3 is an explanatory diagram showing a configuration and processing of an edge enhancement processing unit in FIG. 2;
4 is an explanatory diagram showing a configuration and processing of a smoothing processing unit in FIG. 2; FIG.
FIG. 5 is a block diagram illustrating in detail an edge determination unit in FIG. 2;
6 is an explanatory diagram showing processing of a black pixel determination unit and a white pixel determination unit in FIG. 5. FIG.
7 is an explanatory diagram showing processing of a comprehensive determination unit in FIG. 2; FIG.
FIG. 8 is a block diagram illustrating in detail an image area separation processing unit according to a second embodiment;
9 is a block diagram illustrating in detail a halftone dot region determination unit in FIG. 8;
10 is an explanatory diagram showing processing of a comprehensive determination unit in FIG. 8. FIG.
FIG. 11 is an explanatory diagram illustrating processing of a comprehensive determination unit according to the third embodiment.
FIG. 12 is a block diagram illustrating an image processing apparatus according to a fourth embodiment.
13 is a block diagram illustrating in detail a feature amount calculation unit in FIG. 12;
14 is a block diagram illustrating in detail an edge degree calculation unit in FIG. 13;
15 is an explanatory diagram showing processing of a Laplacian filter unit in FIG. 14;
[Explanation of symbols]
2 Image processing unit 3 Character image processing unit 4 Image area separation processing unit 8, 18 Calculation unit 11 Edge enhancement processing unit 12 Smoothing processing unit 13, 14 Edge determination unit 15, 15 a Total determination unit 16 a Halftone region determination Units 16 and 17 Edge degree calculation unit

Claims (8)

入力画像データから文字領域とその他の領域と分離する像域分離処理を施す画像処理装置であって
前記入力画像データに対してエッジ強調処理を施す第1のフィルタリング手段と、
前記第1のフィルタリング手段により処理された画像データに基づき、エッジか否かを判定する第1のエッジ判定手段と、
前記入力画像データに対して平滑化処理を施す第2のフィルタリング手段と、
前記第2のフィルタリング手段により処理された画像データに基づき、エッジか否かを判定する第2のエッジ判定手段と、
前記入力画像データが網点領域か否かを判定する網点領域判定手段と、
前記第1のエッジ判定手段、前記第2のエッジ判定手段、及び前記網点領域判定手段の判定結果に基づき、前記入力画像データにおける文字領域とその他の領域とを判定する総合判定手段と、
を有することを特徴とする画像処理装置。
An image processing apparatus for performing image area separation processing for separating from the input image data into a character region and another region,
A first filtering means for performing edge enhancement processing to the input image data,
Wherein-out first filtering means based on the image data processed by the first edge determination means for determining whether or not an edge,
And second filtering means for performing a smoothing process on the input image data,
The-out second filtering means based on the image data processed by the second edge determination means for determining whether or not an edge,
Halftone dot area determination means for determining whether the input image data is a halftone dot area;
The first edge determination unit,-out the second edge determination means, and based on the determination result of the halftone region judging means, and comprehensive determining means for determining a character region and another region in the input image data ,
An image processing apparatus comprising:
前記総合判定手段は、
前記第2のエッジ判定手段が文字領域だけではなく、前記網点領域判定手段が網点領域ではなく、かつ前記第1のエッジ判定手段が文字領域と判定した場合には、文字領域と判定し、
それ以外は、その他の領域と判定することを特徴とする請求項1記載の画像処理装置。
The comprehensive determination means includes
If the second edge determining means is not only a character area, the halftone dot area determining means is not a halftone dot area, and the first edge determining means determines a character area, it is determined as a character area. ,
The image processing apparatus according to claim 1, wherein other areas are determined as other areas .
前記総合判定手段は、
前記第2のエッジ判定手段が文字領域と判定した場合には文字領域と判定し、
前記第2のエッジ判定手段が文字領域ではなく、かつ前記網点領域判定手段が網点領域と判定した場合には、絵柄領域と判定し、
前記第2のエッジ判定手段が文字領域ではなく、前記網点領域判定手段が網点領域ではなく、かつ前記第1のエッジ判定手段が文字領域と判定した場合には、文字領域と判定し、
前記第2のエッジ判定手段が文字領域ではなく、前記網点領域判定手段が網点領域ではなく、かつ前記第1のエッジ判定手段が文字領域ではないと判定した場合には、絵柄領域と判定することを特徴とする請求項1記載の画像処理装置。
The comprehensive determination means includes
If the second edge determination means determines that it is a character area, it is determined as a character area;
If the second edge determination means is not a character area and the halftone dot area determination means determines that it is a halftone dot area, it is determined as a pattern area;
If the second edge determination means is not a character area, the halftone dot area determination means is not a halftone dot area, and the first edge determination means determines a character area, it is determined as a character area;
If the second edge determining means is not a character area, the halftone dot area determining means is not a halftone dot area, and the first edge determining means is not a character area, it is determined as a picture area. The image processing apparatus according to claim 1, wherein:
前記総合判定手段は、
前記第2のエッジ判定手段が文字領域と判定し、かつ前記第1のエッジ判定手段が網点領域と判定した場合には、文字領域と判定し、
前記第2のエッジ判定手段が文字領域ではなく、かつ前記網点領域判定手段が網点領域と判定した場合には、絵柄領域と判定し、
前記網点領域判定手段が網点領域ではなく、かつ前記第1のエッジ判定手段が文字領域ではないと判定した場合には、文字領域と判定し、
前記網点領域判定手段が網点領域ではなく、かつ前記第1のエッジ判定手段が文字領域ではないと判定した場合には、絵柄領域と判定することを特徴とする請求項1記載の画像処理装置。
The comprehensive determination means includes
When the second edge determination means determines that the character area and the first edge determination means determines that the area is a halftone dot area, the character area is determined.
If the second edge determination means is not a character area and the halftone dot area determination means determines that it is a halftone dot area, it is determined as a pattern area;
If the halftone dot area determination means is not a halftone dot area and the first edge determination means is not a character area, it is determined as a character area;
2. The image processing according to claim 1, wherein when the halftone dot area determination unit determines that the area is not a halftone dot area and the first edge determination section determines that the area is not a character area, the image area is determined as a picture area. apparatus.
入力画像データから文字領域とその他の領域とに分離する像域分離処理を施す画像処理方法であって、An image processing method for performing image region separation processing for separating character regions and other regions from input image data,
前記入力画像データに対してエッジ強調処理を施す第1の工程と、  A first step of performing edge enhancement processing on the input image data;
前記第1の工程で処理された画像データに基づき、エッジか否かを判定する第2の工程と、  A second step of determining whether or not an edge is based on the image data processed in the first step;
前記入力画像データに対して平滑化処理を施す第3の工程と、  A third step of performing a smoothing process on the input image data;
前記第3の工程で処理された画像データに基づき、エッジか否かを判定する第4の工程と、  A fourth step of determining whether or not an edge is based on the image data processed in the third step;
前記入力画像データが網点領域か否かを判定する第5の工程と、  A fifth step of determining whether the input image data is a halftone dot region;
前記第2の工程、前記第4の工程、及び前記第5の工程の判定結果に基づき、前記入力画像データにおける文字領域とその他の領域とを判定する第6の工程と、  A sixth step of determining a character region and other regions in the input image data based on the determination results of the second step, the fourth step, and the fifth step;
を有することを特徴とする画像処理方法。An image processing method comprising:
前記第6の工程は、The sixth step includes
前記第4の工程の判定結果が文字領域だけではなく、前記第5の工程の判定結果が網点領域ではなく、かつ前記第2の工程の判定結果が文字領域である場合には、文字領域と判定し、  If the determination result of the fourth step is not only a character region, the determination result of the fifth step is not a halftone dot region, and the determination result of the second step is a character region, the character region And
それ以外は、その他の領域と判定することを特徴とする請求項5記載の画像処理装置。  6. The image processing apparatus according to claim 5, wherein the other areas are determined as other areas.
前記第6の工程は、The sixth step includes
前記第4の工程の判定結果が文字領域である場合には文字領域と判定し、  If the determination result of the fourth step is a character area, it is determined as a character area;
前記第4の工程の判定結果が文字領域ではなく、かつ前記第5の工程の判定結果が網点領域である場合に、絵柄領域と判定し、  When the determination result of the fourth step is not a character region and the determination result of the fifth step is a halftone dot region, it is determined as a pattern region,
前記第4の工程の判定結果が文字領域ではなく、前記第5の工程の判定結果が網点領域ではなく、かつ前記第2の工程の判定結果が文字領域である場合に、文字領域と判定し、  When the determination result of the fourth step is not a character region, the determination result of the fifth step is not a halftone dot region, and the determination result of the second step is a character region, it is determined as a character region And
前記第4の工程の判定結果が文字領域ではなく、前記第5の工程の判定結果が網点領域ではなく、かつ前記第2の工程の判定結果が文字領域ではない場合には、絵柄領域と判定することを特徴とする請求項5記載の画像処理方法。  When the determination result of the fourth step is not a character region, the determination result of the fifth step is not a halftone dot region, and the determination result of the second step is not a character region, 6. The image processing method according to claim 5, wherein the determination is performed.
前記第6の工程は、The sixth step includes
前記第4の工程の判定結果が文字領域であり、かつ前記第2の工程の判定結果が網点領域である場合には、文字領域と判定し、  When the determination result of the fourth step is a character region and the determination result of the second step is a halftone region, it is determined as a character region,
前記第4の工程の判定結果が文字領域ではなく、かつ前記第5の工程の判定結果が網点領域である場合には、絵柄領域と判定し、  When the determination result of the fourth step is not a character region and the determination result of the fifth step is a halftone dot region, it is determined as a pattern region,
前記第5の工程の判定結果が網点領域ではなく、かつ前記第2の工程の判定結果が文字領域ではない場合には、文字領域と判定し、  When the determination result of the fifth step is not a halftone dot region and the determination result of the second step is not a character region, it is determined as a character region,
前記第5の工程の判定結果が網点領域ではなく、かつ前記第2の工程の判定結果が文字領域ではない場合には、絵柄領域と判定することを特徴とする請求項5記載の画像処理方法。  6. The image processing according to claim 5, wherein when the determination result of the fifth step is not a halftone dot region and the determination result of the second step is not a character region, it is determined as a picture region. Method.
JP34336698A 1998-12-02 1998-12-02 Image processing apparatus and method Expired - Fee Related JP3789243B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP34336698A JP3789243B2 (en) 1998-12-02 1998-12-02 Image processing apparatus and method

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP34336698A JP3789243B2 (en) 1998-12-02 1998-12-02 Image processing apparatus and method

Publications (2)

Publication Number Publication Date
JP2000175032A JP2000175032A (en) 2000-06-23
JP3789243B2 true JP3789243B2 (en) 2006-06-21

Family

ID=18360968

Family Applications (1)

Application Number Title Priority Date Filing Date
JP34336698A Expired - Fee Related JP3789243B2 (en) 1998-12-02 1998-12-02 Image processing apparatus and method

Country Status (1)

Country Link
JP (1) JP3789243B2 (en)

Families Citing this family (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP4013478B2 (en) 2000-12-25 2007-11-28 コニカミノルタビジネステクノロジーズ株式会社 Image processing device
JP4269521B2 (en) 2001-01-24 2009-05-27 コニカミノルタビジネステクノロジーズ株式会社 Image processing apparatus and image forming apparatus
JP4150844B2 (en) 2001-07-05 2008-09-17 コニカミノルタビジネステクノロジーズ株式会社 Image processing apparatus and image processing program
JP6693310B2 (en) * 2015-07-24 2020-05-13 株式会社リコー Image processing apparatus, image processing method and program

Also Published As

Publication number Publication date
JP2000175032A (en) 2000-06-23

Similar Documents

Publication Publication Date Title
US6041139A (en) Image processing apparatus
US20080137159A1 (en) Image forming apparatus and image quality improving method thereof
JPH0497657A (en) Area separating device for color picture
JPH0722330B2 (en) Image region identification method for image processing apparatus
JPH05328121A (en) Method and device for picture processing
JP3862374B2 (en) Image processing apparatus and method
JP3088010B2 (en) Line drawing separation method and apparatus
JP2000278523A (en) Image processor, image reader and image formation device loading the same, image processing method and computer readable storage medium storing image processing procedures
JP3868654B2 (en) Image processing device
JP3789243B2 (en) Image processing apparatus and method
JP2616386B2 (en) Image processing device
JP4228466B2 (en) Image processing apparatus, image processing method, and computer-readable storage medium storing image processing procedure
JPH08272952A (en) Image processor
JP4007134B2 (en) Image processing device
JP3495743B2 (en) Image processing apparatus and image processing method
JP2001119575A (en) Image processing unit
JP3988970B2 (en) Image processing apparatus, image processing method, and storage medium
JP2702133B2 (en) Image processing method
JP2002232709A (en) Image processing device, image forming device using the same, and image processing method
JP3064896B2 (en) Image processing device
JP3587740B2 (en) Image processing device
JP2007243330A (en) Image processing apparatus, and information output method of dot character
JP3262773B2 (en) Method and apparatus for detecting pixel color of color image
JP3262834B2 (en) Color image processing equipment
JP3070174B2 (en) Image forming device

Legal Events

Date Code Title Description
A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20050721

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20050802

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20051003

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20060322

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20060328

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20100407

Year of fee payment: 4

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20100407

Year of fee payment: 4

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20110407

Year of fee payment: 5

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20120407

Year of fee payment: 6

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20130407

Year of fee payment: 7

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20140407

Year of fee payment: 8

LAPS Cancellation because of no payment of annual fees