Nothing Special   »   [go: up one dir, main page]

JP4187134B2 - Image processing apparatus, image processing method, program for executing the method, and recording medium storing the program - Google Patents

Image processing apparatus, image processing method, program for executing the method, and recording medium storing the program Download PDF

Info

Publication number
JP4187134B2
JP4187134B2 JP2001042897A JP2001042897A JP4187134B2 JP 4187134 B2 JP4187134 B2 JP 4187134B2 JP 2001042897 A JP2001042897 A JP 2001042897A JP 2001042897 A JP2001042897 A JP 2001042897A JP 4187134 B2 JP4187134 B2 JP 4187134B2
Authority
JP
Japan
Prior art keywords
coefficient
image
predetermined
threshold value
band
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
JP2001042897A
Other languages
Japanese (ja)
Other versions
JP2002245450A (en
Inventor
亨 水納
弘幸 芝木
悦朗 森本
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Ricoh Co Ltd
Original Assignee
Ricoh Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Ricoh Co Ltd filed Critical Ricoh Co Ltd
Priority to JP2001042897A priority Critical patent/JP4187134B2/en
Publication of JP2002245450A publication Critical patent/JP2002245450A/en
Application granted granted Critical
Publication of JP4187134B2 publication Critical patent/JP4187134B2/en
Anticipated expiration legal-status Critical
Expired - Fee Related legal-status Critical Current

Links

Images

Landscapes

  • Image Processing (AREA)
  • Facsimile Image Signal Circuits (AREA)
  • Image Analysis (AREA)

Description

【0001】
【発明の属する技術分野】
本発明は、文字の鮮鋭性とノイズ除去を両立させ、画質の向上を図った画像処理装置に関する。
【0002】
【従来の技術】
従来、ノイズを強調することなく画像を強調処理する方法として、例えば、画像をウェーブレット変換することにより複数の周波数帯域の信号に分解し、ある周波数帯域の信号に所定数を乗算することにより強調処理し、逆ウェーブレット変換する画像処理方法が提案されている(特開平6−274614号公報を参照)。
【0003】
【発明が解決しようとする課題】
上記した従来の方法では、所定のしきい値以下の係数信号を0にすることによるノイズ成分の除去ができず、また、像域分離を考慮していないので、絵柄と文字について同一のパラメータを使用することになり、文字の鮮鋭性と網点絵柄のモアレ抑制の両立を実現することが難しい。
【0004】
本発明は、上記した問題点に鑑みてなされたもので、
本発明の目的は、画像を帯域分割し、分割後の信号を周波数帯域、方向ともに独立に制御することにより、文字の鮮鋭性とモアレ抑制を両立させた画像処理装置を提供することにある。
【0005】
また、従来の方法では、画像を帯域分割するときに、画像を間引き、その間引いた画素により、帯域合成をするため、画像が1画素でもずれると、帯域合成後の結果が変わり、フィルタ処理が不安定になるという問題がある。
【0006】
本発明の他の目的は、画像を間引かずに帯域分割し、分割後の信号を周波数帯域、方向ともに独立に制御する画像処理装置を提供することにある。。
【0007】
さらに、本発明では、画像読み取り手段の解像度が可変である場合にも対応する。例えば、600dpi入力における2階層の係数信号特性は、300dpi入力における1階層の係数信号特性と同じである。従って、600dpi入力のときに2階層で行っていたフィルタ制御を、300dpiでは1階層で行う。
【0008】
本発明の他の目的は、読み取り解像度が変化した場合に、その解像度に応じてフィルタ処理を切り替え、読み取り解像度が変化したことによる画像の劣化を抑制する画像処理装置を提供することにある。
【0009】
【課題を解決するための手段】
本発明では、例えば低周波帯域の縦横成分の信号を強く強調し、高周波帯域の斜め成分の信号を弱く強調(または平滑)することにより、文字の鮮鋭性を向上させ、モアレを抑制する。
【0010】
また、帯域分割するとき、画像を間引かずに係数変換し、帯域合成をするときには、注目画素の近傍の係数も使用して行うことにより、逆変換する位置により、所定のフィルタ処理が実現できないような不安定な状況を阻止する。
【0011】
また、例えば、文字領域では、低周波帯域に大きなノイズ成分が現れるので、低周波帯域を強く強調するしきい値の絶対値を、高周波帯域に比べて大きな値にする。
【0012】
本発明の一実施例では、画像を入力する手段と、前記入力された画像信号から複数の周波数帯域成分を算出する手段と、前記入力された画像信号から複数の方向成分を算出する手段と、前記複数の周波数帯域成分と前記複数の方向成分に応じて、周波数帯域および方向に対して独立に周波数特性の補正を行う手段と、画像を出力する手段を備えている。
【0013】
本発明の一実施例では、画像を入力する手段と、前記入力された画像信号を複数の周波数帯域と複数の方向の係数信号に変換する帯域分割手段と、前記係数信号を変換することにより画像の周波数特性を補正する周波数特性補正手段と、前記周波数変換された係数信号を実空間の画像信号に変換する帯域合成手段と、画像を出力する手段を備え、前記周波数特性補正手段では、前記帯域毎、方向毎に独立に補正する。
【0014】
本発明の一実施例では、画像を入力する手段と、前記入力された画像信号を複数の周波数帯域と複数の方向の係数信号に変換する帯域分割手段と、前記係数信号を用いて像域分離を行う像域分離手段と、前記係数信号を変換することにより画像の周波数特性を制御する周波数特性補正手段と、前記周波数変換された係数信号を実空間の画像信号に変換する帯域合成手段と、画像を出力する手段を備え、前記像域分離手段では、文字と絵柄に分離する。
【0015】
本発明の一実施例では、画像を入力する手段と、前記入力された画像信号を複数の周波数帯域と複数の方向の係数信号に変換する帯域分割手段と、前記係数信号を用いて像域分離を行う像域分離手段と、前記係数信号を変換することにより画像の周波数特性を制御する周波数特性補正手段と、前記周波数変換された係数信号を実空間の画像信号に変換する帯域合成手段と、画像を出力する手段を備え、前記像域分離手段は、網点絵柄と印画紙絵柄に分離する。
【0016】
本発明の一実施例では、読み取り解像度により周波数特性補正手段を制御し、解像度に応じてどの周波数帯域までを算出するかを決定する。また、解像度が大きくなると周波数特性が低周波側に移るための制御を行い、さらに、主走査と副走査で入力解像度が異なる場合、縦方向の周波数特性と横方向の周波数特性を解像度に合わせて独立に制御する。
【0017】
【発明の実施の形態】
以下、本発明の一実施例を図面を用いて具体的に説明する。
(実施例1)
図1は、本発明の実施例1の構成を示す。スキャナ等の画像入力手段1によって入力された画像信号は、スキャナγ処理手段2によって、画像入力手段1からの反射率リニアの画像データを濃度リニアまたは明度リニアの画像データに変換する。なお、このスキャナγ手段2の処理をスルーにしてもよい。スキャナγ処理手段2からの画像データはフィルタ処理手段3に入力される。
【0018】
フィルタ処理手段3では所定の空間周波数特性に画像を変換する。フィルタ処理手段3から出力された画像データはプリンタγ変換処理手段4で所定の濃度特性となるように変換する。
【0019】
プリンタγ変換手段4から出力された画像データは、中間調処理手段5において多値または2値画像データに変換される。中間調処理手段5として、例えばディザ処理や誤差拡散処理を用いればよい。中間調処理手段5から出力された画像データは電子写真プリンタなどの画像出力手段6に出力される。
【0020】
図2は、フィルタ処理手段の構成を示す。フィルタ処理手段では、入力画像データから、高周波成分と低周波成分の各成分について縦横斜め方向の成分を抽出する。
【0021】
すなわち、高周波成分の各方向成分について、高周波縦方向成分抽出部101は、例えば図3(b)に示すフィルタにより高周波縦方向成分を抽出する。高周波横方向成分抽出部102は、例えば図3(a)に示すフィルタにより高周波横方向成分を抽出する。高周波右上方向成分抽出部103は、例えば図3(d)に示すフィルタにより高周波右上方向成分を抽出する。高周波右下方向成分抽出部104は、例えば図3(c)に示すフィルタにより高周波右下方向成分を抽出する。
【0022】
同様に、低周波成分の各方向成分について、低周波縦方向成分抽出部105は、例えば図3(f)に示すフィルタにより低周波縦方向成分を抽出する。低周波横方向成分抽出部106は、例えば図3(e)に示すフィルタにより低周波横方向成分を抽出する。低周波右上方向成分抽出部107は、例えば図3(h)に示すフィルタにより低周波右上方向成分を抽出する。低周波右下方向成分抽出部108は、例えば図3(g)に示すフィルタにより低周波右下方向成分を抽出する。
【0023】
それぞれの周波数帯域におけるそれぞれの方向成分を抽出した後、補正部109はその成分に対して補正を行う。図4は、補正部の入出力特性の一例を示す。抽出された成分の絶対値が所定のしきい値Thdより小さければ0に補正し、しきい値Thd以上ならば抽出された成分に所定の値α(強調係数)を乗算する。
【0024】
なお、図4に示す方法以外にも他の補正方法として、例えば多項式などの関数を用いる方法、LUTを用いる方法、+または−方向にバイアスをかけるなどの方法を用いてもよい。
【0025】
それぞれの周波数帯域におけるそれぞれの方向成分を補正した結果を加算した値と、スキャナγ処理手段2の出力信号とを加算器110で加算し、フィルタ処理手段3の出力値とする。
【0026】
上記処理は、入力画像の各画素毎に行われる。このように、各成分毎に独立してフィルタをかけることにより、強調したい帯域、方向のみに強調フィルタがかかり、きめ細かいフィルタ処理が実現できる。
【0027】
(実施例2)
本発明の実施例2の全体構成は、前述した実施例1の構成と同様である。実施例1と相違する点は、フィルタ処理手段3の構成である。図5は、実施例2に係るフィルタ処理手段3の構成を示す。
【0028】
図5に示すように、入力画像信号Sは、まず帯域分割手段7に入力され、複数の画像帯域信号Wに分解される。次に、鮮鋭性制御手段8では、画像の強調処理および平滑処理を行う。鮮鋭性制御手段8から出力された複数の画像帯域信号Fは、帯域合成手段9によって実空間画像信号IWに変換される。
【0029】
実施例2では、帯域分割手段7を図6に示すようなウェーブレット変換によって実現している。入力画像信号Sは、まずローパスフィルタG(x)701およびハイパスフィルタH(x)702によってx方向にウェーブレット変換される。ここで、ローパスフィルタG(x)は、図7(a)に示すように、平均値成分を求めるような低周波成分抽出用フィルタであり、ハイパスフィルタH(x)は、図7(b)に示すように、差分成分を求めるような高周波成分抽出用フィルタである。
【0030】
実施例2では、図7に示す特性のウェーブレット基底関数(Haar)を例にして説明する。求められた画像信号に対し、フィルタ群703,704,705,706によってy方向のウェーブレット変換が施される。以上の変換によって求められるのが1階層のウェーブレット係数である。
【0031】
図6において、1st−LLは1階層の低周波成分であり、原画像に対して2×2画素の平均値を求めた画像信号となっている。また、1st−LHは1階層の横方向高周波成分であり、ナイキスト周波数にあたる横方向のエッジ信号を抽出したような画像信号となっている。同様に1st−HLは1階層の縦方向高周波成分であり縦方向のエッジ信号を、1st−HHは斜め方向のエッジ信号を抽出したような画像信号となっている。
【0032】
図8に示すように、基底関数としてHaar関数を用いたウェーブレット変換では、2×2画素単位での変換が行われ、4画素の有する値を図8のようにa,b,c,dとした場合、2×2画素ブロックの画像情報はLL、HL、LH、HHの4係数に変換され、平均値及び各方向のエッジ成分を抽出する変換が行われる。
【0033】
図9に示すように、求められた1st−LL信号に対し、同様の手順で2階層のウェーブレット変換が行われ、フィルタ群707−712によって変換された画像信号2nd−LL,2nd−LH,2nd−HL,2nd−HHを得る。2nd−LLは4×4画素の平均値を求めた画像信号であり、1階層より低周波帯域の画像信号である。また、同様に2nd−LHは1st−LHよりも低周波帯域の成分であり、ナイキスト周波数の1/2の周波数帯域の横方向エッジを抽出した画像信号である。同様に2nd−HLは2階層の縦方向高周波成分であり、より低周波な縦方向エッジ信号を、2nd−HHは斜め方向のエッジ信号を抽出したような画像信号となっている。以上のようにして、2階層までのウェーブレット係数信号W(1st−LL−1st−HH,2nd−LL−2nd−HH)を得る。
【0034】
図5の帯域分割手段7から出力された係数信号Wに基づいて、鮮鋭性制御手段8では、画像信号の強調処理および平滑化処理を行う。図10は、鮮鋭性制御手段8の構成を示す。図10に示すように、1階層の高周波成分(1st−HL,1st−LH,1st−HH)および2階層の高周波成分(2nd−HL,2nd−LH,2nd−HH)に対し、補正手段209によって所定の補正を行うように構成している。
【0035】
補正手段209は、周波数帯域成分、方向成分にそれぞれ独立であり、いずれの帯域においても、係数信号が0以上のとき、縦横方向の補正後の係数信号の値は、斜め方向の補正後の係数信号の値以上に補正し、係数信号が負のとき、斜め方向の補正後の係数信号の値は、縦横方向の補正後の係数信号の値以上に補正する。
【0036】
補正手段の一例は、係数信号に所定の値を乗算することであり、いずれの帯域においても、縦横方向の係数信号に乗算する値は、斜め方向の係数信号に乗算する値以上の値である。
【0037】
図11は、補正手段の第1の例(入出力特性)を示す。補正手段209に入力された高周波成分係数信号の絶対値が所定の値(Thd)未満の場合は、補正後の値(Dout)の方が補正前の値(Din)よりも小さく、係数信号の絶対値が所定の値(Thd)以上ならば、補正後の値(Dout)は、補正前の値(Din)よりも大きく設定する。これにより、ノイズ成分などの強調すべきない部分を平滑化し、エッジなどの強調すべき部分を、強く強調するという制御が可能になる。
【0038】
図12は、補正手段の第2の例である。係数信号の絶対値が所定のしきい値未満の場合は、補正後の値の方が補正前の値よりも小さく、係数信号の絶対値が所定のしきい値以上ならば、補正後の値は、補正前の値よりも大きく設定する。これにより、ノイズ成分などの強調すべきない部分は平滑化し、エッジなどの強調すべき部分は、強く強調するという制御が可能になる。このとき、図13に示すように、切り替えのしきい値の絶対値は、1階層に比べて2階層を大きく設定する。これは、ノイズ成分の係数信号は、高周波帯域である1階層に比べて低周波帯域である2階層の方が大きな値になるためである。
【0039】
図14は、補正手段の第3の例(入出力特性)を示す。補正手段209に入力された高周波成分係数信号の絶対値が、所定のノイズ除去閾値(Thn)よりも小さい場合には、補正後の係数信号の値を0にするように補正する。また、高周波成分係数信号の絶対値が、所定のノイズ除去閾値(Thn)以上の場合には、入力された係数信号の値に所定の強調係数αを乗じて出力する。このように制御することによって、ノイズ除去閾値Thnより小さな高周波成分はノイズとして除去されるため平滑化を施した画像となり、ノイズ除去閾値Thn以上の高周波成分は信号としてα倍(α>1)されるため差分成分が増大し強調処理を施した画像が得られる。
【0040】
なお、上記した補正手段209のThn、αは、図15に示すように異なる周波数帯域(1st,2nd)、異なる方向成分(HL,LH,HH)ごとに個別に設定できるように構成されている。例えば、網点部のモアレを抑制するために斜め成分の強調係数αを縦横成分の強調係数αより小さく設定する。また、例えば、文字部の鮮鋭性を再現するために低周波帯域の縦横斜め成分の強調係数αを大きく設定する。また、例えば、ノイズ除去の精度を上げるために、1階層のノイズ除去しきい値Thn1よりも2階層のノイズ除去しきい値Thn2を大きく設定する。
【0041】
つまり、それぞれの帯域、方向ごとに除去する高周波成分の大きさと強調度合いを制御できるので、きめこまかなノイズ除去(平滑化)と強調を行うことが可能となる。
【0042】
図16は、補正手段の第4の例を示す。補正手段209に入力された高周波成分係数信号の絶対値が、所定のノイズ除去閾値(Thn)よりも小さい場合には、補正前の係数信号が正ならば、正の所定の定数に変換し、補正前の係数信号が負ならば、負の所定の定数に変換し、補正前の係数信号が0ならば補正後の係数信号を0にするように補正する。また、高周波成分係数信号の絶対値が、所定のノイズ除去閾値Thn以上の場合には、入力された係数信号の値に所定の強調係数αを乗じて出力する。このように制御することによって、ノイズ除去閾値Thnより小さな高周波成分は定数の絶対値を小さな値に設定すれば、ほどよい平滑化を施した画像となり、ノイズ除去閾値Thn以上の高周波成分は信号としてα倍されるため差分成分が増大し強調処理を施した画像が得られる。
【0043】
図17は、補正手段の第5の例を示す。補正手段209に入力された高周波成分係数信号の絶対値が、所定のノイズ除去閾値(Thn1)未満の場合には、補正後の係数信号を0にする。補正手段209に入力された高周波成分係数信号の絶対値が、所定のノイズ除去閾値(Thn1)以上で、Thn1よりも大きいしきい値(Thn2)未満の場合、補正前の係数信号が正ならば、正の所定の定数に変換し、補正前の係数信号が負ならば、負の所定の定数に変換する。また、高周波成分係数信号の絶対値が、所定のノイズ除去閾値Thn2以上の場合には、入力された係数信号の値に所定の強調係数αを乗じて出力する。
【0044】
このように制御することによって、ノイズ除去閾値Thn1より小さな高周波成分には強い平滑化がなされ、ノイズ除去しきい値Thn1以上Thn2以下ならば、定数の絶対値を小さな値に設定すれば、ほどよい平滑化を施した画像となり、ノイズ除去閾値Thn2以上の高周波成分は信号としてα倍されるため差分成分が増大し強調処理を施した画像が得られる。
【0045】
図18は、補正手段の第6の例を示す。補正手段209に入力された高周波成分係数信号の絶対値が、所定のノイズ除去閾値(Thn1)よりも小さいとき、入力された係数信号の値に所定の強調係数αを乗じて出力する。補正手段に入力された高周波成分係数信号の絶対値が、所定のノイズ除去閾値(Thn1)以上で、Thn1よりも大きいしきい値(Thn2)未満の場合、補正前の係数信号が正ならば、正の所定の定数に変換し、補正前の係数信号が負ならば、負の所定の定数に変換する。また、同高周波成分係数信号の絶対値が、所定のノイズ除去閾値Thn2以上の場合には、入力された係数信号の値に所定の強調係数αを乗じて出力する。このように制御することによって、ノイズ除去閾値Thn1より小さな高周波成分には適度な強調がなされ、ノイズ除去しきい値Thn1以上Thn2未満ならば、定数の絶対値を小さな値に設定すれば、ほどよい平滑化を施した画像となり、ノイズ除去閾値Thn2以上の高周波成分は信号としてα倍されるため差分成分が増大し強調処理を施した画像が得られる。なお、ここでは、しきい値Thn1と−Thn1において、連続性を保つように制御することにより、しきい値付近の境界部で画像の劣化を防ぐことができる。
【0046】
図19は、補正手段の第7の例を示す。補正手段209に入力された高周波成分係数信号の絶対値が、所定のノイズ除去閾値(Thn1)よりも小さい場合には、補正後の係数信号を0にする。また、高周波成分係数信号の絶対値が、所定のノイズ除去閾値Thn2以上の場合には、入力された係数信号の値に所定の強調係数αを乗じる。また、補正手段に入力された高周波成分係数信号の絶対値が、所定のノイズ除去閾値(Thn1)以上で、Thn1よりも大きいしきい値(Thn2)未満の場合、しきい値Thn1とThn2、−Thn1と−Thn2で連続になるように制御する。ここでは、補正前の信号をx、補正後の信号をyとするとき、xが正の場合は、y=αThn2(x−Thn1)/(Thn2−Thn1)
とし、xが負の場合は、y=αThn2(x+Thn1)/(Thn2−Thn1)とする。つまり、しきい値間を直線で結ぶように制御する。もちろん、連続性を保つ他の関数を用いてもよい。
【0047】
このように制御することによって、ノイズ除去閾値Thn1より小さな高周波成分には強い平滑化がなされ、ノイズ除去閾値Thn2以上の高周波成分は信号としてα倍されるため差分成分が増大し、強調処理を施され、Thn1以上Thn2の間には、ほどよい強調が施され、しきい値付近で連続性が保たれるため、しきい値付近での画像の劣化はなくなる。
【0048】
上記した補正方法の他に、多項式などの算術関数を用いる方法や、LUTを用いる方法や、+方向または−方向にバイアスをかけるなどの方法を用いてもよい。
【0049】
図5に戻り、鮮鋭性制御手段8からのデータは帯域合成手段9に入力され、実空間画像に逆変換される。図20は、帯域合成手段9の構成を示す。
【0050】
帯域合成手段では、より高階層のウェーブレット係数信号から処理が行われる。鮮鋭性制御手段8によって補正された2階層係数信号(2nd−LL',2nd−HL',2nd−LH',2nd−HH')は、逆変換フィルタH*(y),G*(y)によってy方向に逆変換され、さらにH*(x),G*(x)によってx方向に逆変換される。得られた画像信号は補正後の1階層LL信号(1st−LL')であり、1階層の他の補正後係数信号(1st−HL',1st−LH',1st−HH')とともに、同様な帯域合成が施される。このようにしてフィルタ処理後の実空間画像信号S'が得られる。
【0051】
上記した実施例1では、実空間で複数の周波数帯域に分解して、帯域毎方向毎に独立してフィルタ制御する場合、図2、図3のように、多数のマトリクスが必要となり、ハード規模が非常に大きくなってしまう。
【0052】
実施例1に比べて、実施例2(以下の実施例も同様)の帯域分割を用いる方法では、しきい値を設けて、係数信号の絶対値がしきい値以上ならば係数信号に定数を乗算し、係数信号の絶対値がしきい値未満ならば0に変換するという単純な処理で、フィルタ処理を実現できる。
【0053】
(実施例3)
本発明の実施例3の全体構成は、前述した実施例1の構成と同様である。実施例1と相違する点は、フィルタ処理手段3の構成である。図21は、実施例3に係るフィルタ処理手段3の構成を示す。
【0054】
図21に示すように、入力画像信号Sは、まず帯域分割手段7に入力され、複数の画像帯域信号Wに分解される。像域分離手段10では、分解された画像信号Wを用いて文字画像、あるいは網点画像のような画像属性を示す特徴量を求めることにより、画像を文字、網点に分離する。次いで、鮮鋭性制御手段8では、像域分離された分離結果に応じて画像の強調処理および平滑処理を行う。最後に、帯域合成手段9によって実空間画像信号に変換し、出力するよう構成されている。実施例3に係る帯域分割手段7は、実施例2と同様である。
【0055】
図22は、像域分離手段の構成を示す。像域分離手段10は、出力されたウェーブレット係数信号Wを入力し、係数信号Wから文字特徴量検出手段11によって文字画像の特徴を、網点特徴量検出手段12によって網点画像の特徴を検出し、これらの特徴量を特徴量補正手段13によって補正し、分離結果を出力するよう構成されている。
【0056】
文字特徴量検出手段11は、例えば1階層の高周波成分(1st−HL,1st−LH,1st−HH)を入力し、高周波成分の大きさと連続性を評価し、文字の特徴を抽出する。すなわち、1階層の高周波成分を入力し、中央位置の注目係数を所定の閾値と比較し、エッジ量の大きさを判定する。また、1階層の高周波成分を入力し、注目係数とその上下の係数、注目係数とその左右の係数、注目係数とその斜めの係数の、3係数の分散値を所定の閾値と比較し、分散値が小さいことを評価することにより、エッジの連続性を判定する。つまり、大きな縦エッジ成分が縦方向に、または大きな横エッジ成分が横方向に、または大きな斜めエッジ成分が斜め方向に、連続して存在するものを文字と判定する。
【0057】
網点特徴量検出手段12は、例えば1階層の高周波成分(1st−HL,1st−LH,1st−HH)を入力し、所定領域内の変曲点(HLでは上下方向、LHでは左右方向、HHでは斜め方向)の数をカウントし、変曲点の数を基に網点の特徴を抽出する。
【0058】
特徴量補正手段13では、網点特徴量に対して所定の閾値によって2値化を行い、網点領域と非網点領域に分類する。さらに文字特徴量による文字領域と非文字領域結果とを組み合わせて総合判定結果Cを出力する。つまり、文字かつ非網点領域のみを文字領域と判定出力し、文字特徴量抽出による誤検出部分を網点特徴量を用いて絵柄領域に補正(文字かつ網点と判定された領域を絵柄に判定)するようにしている。
【0059】
像域分離手段10から出力された制御信号Cに基づいて、鮮鋭性制御手段8では画像信号の強調処理および平滑化処理を行う。図23は、実施例3に係る鮮鋭性制御手段8の構成を示す。図23に示すように、像域分離手段10の分離結果に応じて、1階層の高周波成分(1st−HL,1st−LH,1st−HH)および2階層の高周波成分(2nd−HL,2nd−LH,2nd−HH)に対し、補正手段309によって所定の補正を行うよう構成している。これら補正手段309の補正については、図14を用いて説明する。
【0060】
図14に示すように、補正手段309に入力された高周波成分係数信号の絶対値が、所定のノイズ除去閾値(Thn)よりも小さい場合には、補正後の係数信号の値を0にするように補正している。また、高周波成分係数信号の絶対値が、所定のノイズ除去閾値Thn以上の場合には、入力された係数信号の値に所定の強調係数αを乗じて出力するように構成している。このように制御することによって、ノイズ除去閾値Thnより小さな高周波成分はノイズとして除去されるため平滑化を施した画像となり、ノイズ除去閾値Thn以上の高周波成分は信号としてα倍されるため差分成分が増大し強調処理を施した画像が得られる。
【0061】
なお、上記した補正手段309のThn、αは、図24に示すように異なる周波数帯域(1st,2nd)、異なる方向成分(HL,LH,HH)ごとに個別に設定するよう構成している。つまり、それぞれの帯域、方向ごとに除去する高周波成分の大きさと強調度合いを制御できるので、きめこまかなノイズ除去(平滑化)と強調を行うことが可能となる。
【0062】
実施例3では、文字領域および絵柄領域で異なるパラメータ群(Thn、α)を保有しており、像域分離手段10の分離結果に応じて、これらのパラメータ群(Thn、α)の切り換えを行うよう構成している。
【0063】
図24と図25は、文字領域と絵柄領域との制御の切り替え方の一例を示す。文字領域における強調係数αは絵柄領域よりも大きな値であり、文字や線画部において十分な鮮鋭性が得られるよう設定している。逆にノイズ除去閾値Thdcは、絵柄領域に比べて小さな値に設定することにより、比較的微小な濃度変化も強調することができ、文字や線画部の鮮鋭性を満足することができる。
【0064】
帯域に関しては、2階層(低周波帯域)のエッジ成分に対して最も強調度合いが高くなるように設定している。また、文字領域の2階層のノイズ除去しきい値Thnは、1階層のノイズ除去しきい値Thnよりも大きな値を設定している。これは、2階層の方が1階層に比べてノイズ成分が大きな係数値となるためである。また、網点上の文字の劣化を防止するために、2階層の係数信号の強調度に比べて、1階層の係数信号の強調度の方を小さくする。
【0065】
一般的な原稿では、6本/mmに相当する画像周波数付近での強調を大きくすることで6ポイント明朝体などの小さな文字画像に対して十分な鮮鋭性を得ることができる。これよりも高周波帯域に対して過度な強調を行ってもノイズ成分を強調する恐れがあり好ましくない。
【0066】
実施例3では600dpiの解像度を有するスキャナで読み取った画像信号を前提としたもので、6本/mmに相当する高周波成分は2階層の信号(2nd−HL,2nd−LH,2nd−HH)であるので、2階層の強調係数を最も高く設定している。
【0067】
入力された画像信号の解像度17に応じて、どの階層の強調係数を最も高くするか、どの階層の係数信号まで算出するかを適宜、それぞれ補正手段309、帯域分割手段7に設定すればよい。
【0068】
例えば、図26(b)、図27(b)に示すように、300dpiでは6本/mmに相当する高周波成分は、ナイキスト周波数を表す1階層の信号(1st−HL,1st−LH,1st−HH)であるので1階層の強調係数を最も高く設定する。また、例えば、図26(c)、図27(c)に示すように、1200dpiでは、6本/mmに相当する高周波成分は、ナイキスト周波数の1/4の周波数を表す3階層の信号(3rd−HL,3rd−LH,3rd−HH)であるので3階層の強調係数を最も高く設定する。3階層の信号は図28に示すように、注目ブロックと右、左、右下の2階層のLLによって作成され、ナイキスト周波数の1/4の周波数帯域に最も強く反応する階層の信号である。つまり、解像度が大きくなるにつれ、強調係数を高くする階層を高階層側に移動するように設定する。
【0069】
絵柄領域では、網点画像部におけるモアレの発生を抑制するため、文字領域に比べて小さな強調係数を適用するよう構成している。とりわけ、網点部のピークが多い低周波帯域の斜め方向は、低周波帯域の縦横方向にくらべて小さな値を乗算するように設定している。
【0070】
一般的な原稿では、600dpiで2階層に相当する周波数帯域で網点画像の周波数成分が強く現れる。それが300dpiでは1階層であり、1200dpiでは3階層である。従って、斜め方向の強調を弱くする帯域は600dpiでは2階層であり、300dpiでは1階層であり、1200dpiでは3階層である。つまり解像度が大きくなるに従って、斜め方向の強調を弱くする階層を高階層側に移動するように設定する。
【0071】
また、150線以上の高線数の網点画像に対しては網点構造の除去を行ない粒状性の向上を実現するために、2階層に比べて1階層で大きなノイズ除去閾値Thnpを設定している。さらに、網点部に関してはしきい値を十分に大きくとれば、高周波帯域の信号は0に変換されるので、網点絵柄部に関しては、何の値でも良い。
【0072】
しかし、文字部を非文字部と誤判定した場合のことを考えて、文字領域と同等の値を設定している。網点画像の鮮鋭性を維持するために、2階層の縦横方向の係数信号は、1階層の縦横方向の係数信号よりも大きな値に設定している。一方、網点画像のモアレを抑制するために2階層の斜め方向の係数信号は、1階層の斜め方向の係数信号よりも小さな値に設定している。
【0073】
補正手段309では、図29、図30、図31に示すように、文字領域については、入力された画像信号の解像度17が大きくなるにつれ、強調係数(α)とノイズ除去閾値(Thn)は高階層側にシフトするように(高階層側が大きくなるように)構成している。また、主走査方向と副走査方向で入力解像度が異なる場合は、主走査方向と副走査方向で別々にフィルタ処理(補正手段での補正)を行う。例えば、主走査方向の入力解像度が600dpiで副走査方向の入力解像度が1200dpiならば、主走査方向の1階層と副走査方向の2階層のフィルタ制御を同じにし、主走査方向の2階層と副走査方向の3階層のフィルタ制御を同じにする。なお、上記した説明では、像域分離結果を用いたが、分離結果を用いずに、単に解像度17に応じて、図29−31を切り換えるようにしてもよい。
【0074】
以上のようにパラメータを設定することで、文字領域および絵柄領域(主に網点画像領域)に対して、両者の画像品質を両立する鮮鋭性制御を行うことができる。
【0075】
また、文字領域に対しては図14の方法で制御し、絵柄領域に対しては図19の方法で制御するように、領域によって処理を切り替えることもできる。
【0076】
図21に示すように、鮮鋭性制御手段8からのデータは帯域合成手段9に入力され、実空間画像に逆変換される。帯域合成手段9は実施例2と同様である。
【0077】
(実施例4)
本発明の実施例4の全体構成は、前述した実施例1、2、3の構成と同様である。実施例4に係るフィルタ処理手段3の構成は、図21に示す実施例3の構成と同様である。実施例3と相違する点は、フィルタ処理手段3内の像域分離手段と鮮鋭性制御手段の構成である。。
【0078】
図21に示すように、入力画像信号Sは、まず帯域分割手段7に入力され、複数の画像帯域信号Wに分解される。像域分離手段10では、分解された画像信号Wを用いて、網点画像あるいは印画紙画像のような画像属性を示す特徴量を求め、画像を網点、印画紙に分離する。次いで鮮鋭性制御手段8では、像域分離された分離結果に応じて画像の強調処理および平滑処理を行う。最後に帯域合成手段9によって実空間画像信号に変換し、出力するよう構成されている。実施例4に係る帯域分割手段7は、実施例2、3と同様である。
【0079】
図32は、実施例4に係る像域分離手段の構成を示す。像域分離手段10は、出力されたウェーブレット係数信号Wを入力し、係数信号Wから網点特徴量検出手段14によって網点画像の特徴を、印画紙特徴量検出手段15によって印画紙画像の特徴を検出し、これらの特徴量を特徴量補正手段16によって補正し、分離結果を出力するよう構成されている。特徴量補正手段16では、網点かつ印画紙と判定された領域を、印画紙に判定を補正する。
【0080】
印画紙判定方式は、例えば、所定領域(例えば7×5画素)において、すべての帯域、すべての方向で平均値が小さくかつ、分散も小さい領域部分を印画紙絵柄領域と判定する。
【0081】
像域分離手段10から出力された制御信号Cに基づいて、鮮鋭性制御手段8では画像信号の強調処理および平滑化処理を行う。実施例4に係る鮮鋭性制御手段8の構成を図33に示す。図33のように、像域分離手段10の分離結果に応じて、1階層の高周波成分(1st−HL,1st−LH,1st−HH)および2階層の高周波成分(2nd−HL,2nd−LH,2nd−HH)に対し、補正手段409によって所定の補正を行うよう構成している。これら補正手段409の補正については図14を用いて説明する。
【0082】
図14に示すように、補正手段409に入力された高周波成分係数信号の絶対値が、所定のノイズ除去閾値(Thn)よりも小さい場合には、補正後の係数信号の値を0にするように補正している。また、高周波成分係数信号の絶対値が、所定のノイズ除去閾値Thn以上の場合には、入力された係数信号の値に所定の強調係数αを乗じて出力するように構成している。このように制御することによって、ノイズ除去閾値Thnより小さな高周波成分はノイズとして除去されるため平滑化を施した画像となり、ノイズ除去閾値Thn以上の高周波成分は信号としてα倍されるため差分成分が増大し、強調処理を施した画像が得られる。
【0083】
上記した補正手段409のThn、αは、図34に示すように異なる周波数帯域(1st,2nd)、異なる方向成分(HL,LH,HH)ごとに個別に設定するよう構成している。つまり、それぞれの帯域、方向ごとに除去する高周波成分の大きさと強調度合いを制御できるので、きめこまかなノイズ除去(平滑化)と強調を行うことが可能となる。また、本発明の実施例4では、網点領域および印画紙領域で異なるパラメータ群(Thn、α)を保有しており、像域分離手段10の分離結果に応じてこれらのパラメータ群の切り換えを行うよう構成している。
【0084】
印画紙絵柄領域と網点絵柄領域との制御の切り替え方の一例を図34に示す。印画紙絵柄領域における強調係数αは網点絵柄領域よりも大きな値であり、印画紙をはじめとする連続調画像において十分な鮮鋭性が得られるよう設定している。印画紙領域の係数信号は一般的に小さいので、印画紙絵柄の鮮鋭性を満足させるためにノイズ除去閾値Thnは網点絵柄領域にくらべて小さな値に設定する。
【0085】
印画紙絵柄領域の帯域に関しては、2階層の縦横斜めエッジ成分に対して最も強調度合いが高くなるように設定している。一般的に、印画紙絵柄領は低周波にピークがあるような周波数特性を示しているため、1階層の係数は非常に小さい。そこで、1階層の強調係数をいくら大きくしても、印画紙絵柄の鮮鋭性に大きな影響はない。そこで、2階層の縦横斜め係数における強調係数を網点絵柄領域の強調係数よりも大きくした。2階層でも係数の値は非常に小さいので、ノイズ除去しきい値は、網点絵柄のノイズしきい値に比べて小さい値にした。
【0086】
網点絵柄領域では、網点画像部におけるモアレの発生を抑制するため、比較的小さな強調係数を用いる。特に150線以上の高線数の網点画像に対しては網点構造の除去を行ない粒状性の向上を実現するために、比較的大きなノイズ除去閾値Thnpを設定している。
【0087】
以上のようにパラメータを設定することで、印画紙絵柄領域および網点絵柄領域に対して両者の画像品質を両立する鮮鋭性制御を行うことができる。
【0088】
図21に示すように、鮮鋭性制御手段8からのデータは帯域合成手段9に入力され、実空間画像に逆変換される。帯域合成手段9は実施例2、3と同じである。
【0089】
(実施例5)
前述した実施例2−4において、ウェーブレット変換は通常圧縮処理などで行われているサブサンプリングを想定していたが、実施例5では、ウェーブレット変換は、通常圧縮処理などで行われているサブサンプリング(画素の間引き)を実施しない構成をとる。
【0090】
実施例5の全体構成は、実施例2−4と同様に図1である。図5、図21中のフィルタ処理手段3において、帯域分割手段7と帯域合成手段9が、実施例2−4と異なる。言い換えれば、実施例2−4の帯域分割手段7と帯域合成手段9を以下に示す内容に置き換えたものが、実施例5である。
【0091】
サブサンプリングを行うウェーブレット変換の構成は、図35に示すように、ハイパスフィルタ及びローパスフィルタによる処理を行った後、2画素に1画素間引く処理(例えば、奇数画素を間引く処理)を行い、係数信号とする。逆変換では、アップサンプリングを行い、逆変換フィルタによって逆変換を行う。
【0092】
本実施例のウェーブレット変換は図36に示すように、順変換の際にダウンサンプリングを行わない。従って、図36に示すように各階層、各方向の係数信号の画像サイズは入力画像Orgと同サイズとなる。逆変換時には、図36のようにeven、odd画素群毎にそれぞれアップサンプリングを行い逆変換フィルタを施す。1つの原画像画素に対してeven画素群からの逆変換結果と、odd画素群からの逆変換結果が得られるので、これらを平均して逆変換後の画像データとする。
【0093】
以上のような、サブサンプリングを行わない処理によって、高精度な画像特徴量の算出が行えるとともに、強調/平滑ムラのない高品位なフィルタ処理を行うことができる。この様子を図37−図39を用いて説明する。
【0094】
図37−図39は、いずれも原画像は同じであり4画素周期で濃淡を繰り返す信号である。図37と図38はサブサンプリングを行う場合の例であり、図39はサブアンプリングを行わない本実施例の方式を示すものである。さらに、図37と図38はサブサンプリングを行う画素が1画素ずれた場合の例を示すものである。
【0095】
図37の場合、d1とd2の画素対、d3とd4の画素対に対して行われたウェーブレット係数信号を間引いた例であり、結果、d0とd1の画素対、d2とd3の画素対に対する係数信号が残る。例えば強調フィルタ処理のために、高周波成分に対して2倍の強調係数を乗じて逆変換すると、d0とd1の高周波成分50が2倍と増幅され、逆変換後のd0'とd1'のデータ差は2倍となり、所望の強調処理が行われていることがわかる。
【0096】
これに対し、図38のようにサブサンプリングが1画素ずれた場合、d1とd2の画素対によって得られる高周波成分は0となり、強調係数を乗じても高周波成分は増幅されず、図38のように原信号と何ら変わらない結果となり、所望の強調処理が行われていないことがわかる。このようにサブサンプリングを行う変換系では、そのサンプリング位置によって正しく周波数特性の補正が行えない場合がある。
【0097】
この問題を解決するのが本実施例のサブサンプリングを行わないウェーブレット変換であり、図39のように、図37と図38の結果を平均した結果となり漏れがなく周波数特性の補正が行える。また、強調処理のみならず、画像の特徴量を算出する際にもサブサンプリングを行っていない信号なので高精度な特徴量抽出が行える。
【0098】
上記した実施例2−5では、ウェーブレット基底関数としてHaar型ウェーブレットを例にしたが、他の基底関数でも同様に実現できる。また、ウェーブレット変換に限らず、画像を複数の周波数帯域に分割するサブバンド変換、フーリエ変換、アダマール変換、ラプラシアンピラミッドなどに対しても同様に実現できる。
【0099】
上記したように、本発明は専用のハードウェアによって実施してもよいことは当然であるが、汎用のコンピュータシステムを利用し、ソフトウェアで実施してもよい。ソフトウェアで実施する場合には、本発明の画像処理機能(フィルタ処理、γ変換、中間調処理などの処理)や処理手順を実現するプログラムが記録媒体などに記録されていて、該記録媒体などからプログラムがコンピュータシステムに読み込まれてCPUによって実行されることにより、本発明の画像処理機能が実施される。画像データは、例えばスキャナなどから読み込んだ原稿画像データや予めハードディスクなどに用意された画像データであり、あるいはネットワークを介して取り込んだ画像データである。また、処理結果は、プリンタに出力され、あるいはハードディスクに書き出される。またはネットワークを介して外部装置(プリンタなど)に出力される。
【0100】
【発明の効果】
以上、説明したように、本発明によれば、以下のような効果が得られる。
(1)入力画像データから高周波成分、低周波成分のそれぞれについて、縦横斜め方向の成分を抽出し、各成分毎にフィルタをかけることにより、強調したい帯域、方向のみに強調フィルタがかかり、きめ細かなフィルタ処理が実現される。従って、文字の鮮鋭性と網点絵柄のモアレ抑制と画像全体のノイズ除去が同時に実現できる。
(2)画像を複数の周波数帯域と、各帯域において縦横斜め方向の係数信号に分解し、各係数信号毎に個別に強調または平滑の制御を行い、縦横方向の係数を斜め方向に比べて強く強調し、また、係数信号があるしきい値より小さいときには、0または小さい定数に変換してノイズ成分を抑制し、さらに、ノイズ成分抑制のために、上記しきい値以下で急に0にすると、しきい値付近の境界で画像の劣化が目立つ場合には、しきい値を二つ設けて、制御前の係数の値と制御後の係数の値との関係が連続性が保たれるように変換しているので、文字の鮮鋭性が向上し、画像全体のノイズが除去され、網点絵柄のモアレが除去される。
(3)係数信号を用いて文字と絵柄に像域分離し、文字領域は鮮鋭性を保つように、絵柄領域はモアレが発生しないように、係数の切り替えを制御し、各係数において、周波数変換後の値は、同じ係数であれば、文字の場合の方が、絵柄の場合よりも大きくなくように制御し、とりわけ、絵柄の斜め成分の係数信号値は、変換後には小さい値としているので、より一層、文字の鮮鋭性が向上し、画像全体のノイズが除去され、網点絵柄のモアレが除去される。
(4)係数信号を用いて文字と網点絵柄と印画紙絵柄に像域分離し、同じ変換前の係数ならば、印画紙絵柄の変換後の係数は、網点絵柄の変換後の係数以上とし、さらに印画紙のノイズ除去のしきい値の絶対値は、網点絵柄のノイズ除去しきい値よりも小さくしているので、文字の鮮鋭性とノイズ除去とモアレの除去と連続調画像の鮮鋭性が同時に実現できる。
(5)入力された画像信号の解像度が変化しても、文字の鮮鋭性が維持されると共に、網点絵柄のモアレが抑制される。
(6)帯域合成を行うとき、注目画素近傍の画素の係数も用いているので、逆変換を開始する位置により、逆変換後の信号の値が大きく変化することが防止され、安定したフィルタ処理が実現できる。
【図面の簡単な説明】
【図1】本発明の実施例1−5の構成を示す。
【図2】実施例1に係るフィルタ処理手段の構成を示す。
【図3】実施例1で用いる空間フィルタの例を示す。
【図4】実施例1の補正手段の入出力特性の一例を示す。
【図5】実施例2に係るフィルタ処理手段の構成を示す。
【図6】帯域分割手段の構成を示す。
【図7】Haarのウェーブレットを示す。
【図8】Haarウェーブレット変換を説明する図である。
【図9】2階層までのウェーブレット係数信号を示す。
【図10】実施例2に係る鮮鋭性制御手段の構成を示す。
【図11】補正手段の第1の例を示す。
【図12】補正手段の第2の例を示す。
【図13】実施例2に係る補正手段の設定例を示す。
【図14】補正手段の第3の例を示す。
【図15】実施例2に係る補正手段の設定例を示す。
【図16】補正手段の第4の例を示す。
【図17】補正手段の第5の例を示す。
【図18】補正手段の第6の例を示す。
【図19】補正手段の第7の例を示す。
【図20】帯域合成手段の構成を示す。
【図21】実施例3に係るフィルタ処理手段の構成を示す。
【図22】実施例3に係る像域分離手段の構成を示す。
【図23】実施例3に係る鮮鋭性制御手段の構成を示す。
【図24】実施例3に係る補正手段の設定例を示す。
【図25】文字用と絵柄用に強調係数とノイズ除去しきい値を切り替える例を示す。
【図26】解像度が異なる画像例を示す。
【図27】異なる解像度の係数信号の周波数応答を示す。
【図28】3階層までのウェーブレット係数信号を示す。
【図29】解像度に応じた補正手段の設定例を示す。
【図30】解像度に応じた補正手段の設定例を示す。
【図31】解像度に応じた補正手段の設定例を示す。
【図32】実施例4に係る像域分離手段の構成を示す。
【図33】実施例4に係る鮮鋭性制御手段の構成を示す。
【図34】実施例4に係る補正手段の設定例を示す。
【図35】サブサンプリングを行うウェーブレット変換の構成を示す。
【図36】実施例5に係るウェーブレット変換の構成を示す。
【図37】サブサンプリングを行うウェーブレット変換を説明する図である。
【図38】サブサンプリングを行うウェーブレット変換を説明する図である。
【図39】サブサンプリングを行わない実施例5に係るウェーブレット変換を説明する図である。
【符号の説明】
1 画像入力手段
2 スキャナγ処理手段
3 フィルタ処理手段
4 γ変換手段
5 中間調処理手段
6 画像出力手段
[0001]
BACKGROUND OF THE INVENTION
The present invention relates to an image processing apparatus that achieves both character sharpness and noise removal and improves image quality.
[0002]
[Prior art]
Conventionally, as a method of enhancing an image without enhancing noise, for example, the image is decomposed into signals of a plurality of frequency bands by wavelet transform, and the enhancement processing is performed by multiplying a signal of a certain frequency band by a predetermined number. However, an image processing method for inverse wavelet transformation has been proposed (see Japanese Patent Laid-Open No. Hei 6-274614).
[0003]
[Problems to be solved by the invention]
In the conventional method described above, the noise component cannot be removed by setting the coefficient signal equal to or lower than the predetermined threshold value to 0, and image area separation is not taken into consideration. Therefore, it is difficult to achieve both the sharpness of characters and the suppression of moire of halftone dots.
[0004]
The present invention has been made in view of the above problems,
An object of the present invention is to provide an image processing apparatus that achieves both character sharpness and moire suppression by dividing an image into bands and independently controlling both the frequency band and direction of the divided signal.
[0005]
Further, in the conventional method, when the image is divided into bands, the image is thinned out, and the band composition is performed by the thinned pixels. Therefore, if even one pixel is shifted, the result after the band composition is changed, and the filter processing is performed. There is a problem of becoming unstable.
[0006]
Another object of the present invention is to provide an image processing apparatus that divides a band without thinning out an image and independently controls a divided signal in both frequency band and direction. .
[0007]
Furthermore, the present invention deals with a case where the resolution of the image reading means is variable. For example, the coefficient signal characteristic of two layers at 600 dpi input is the same as the coefficient signal characteristic of one layer at 300 dpi input. Therefore, the filter control that has been performed in the second hierarchy at the time of 600 dpi input is performed in the first hierarchy at 300 dpi.
[0008]
Another object of the present invention is to provide an image processing device that switches filter processing in accordance with the resolution when the reading resolution changes, and suppresses image degradation due to the change in the reading resolution.
[0009]
[Means for Solving the Problems]
In the present invention, for example, the vertical and horizontal component signals in the low frequency band are emphasized strongly, and the diagonal component signals in the high frequency band are emphasized weakly (or smoothed), thereby improving the sharpness of characters and suppressing moire.
[0010]
In addition, when band division is performed, coefficient conversion is performed without thinning out an image, and when band synthesis is performed, a coefficient in the vicinity of the target pixel is also used, so that a predetermined filter process cannot be realized depending on the reverse conversion position. To prevent such an unstable situation.
[0011]
Further, for example, in the character area, a large noise component appears in the low frequency band, so the absolute value of the threshold value that strongly emphasizes the low frequency band is set to a larger value than in the high frequency band.
[0012]
In one embodiment of the present invention, means for inputting an image, means for calculating a plurality of frequency band components from the input image signal, means for calculating a plurality of direction components from the input image signal, According to the plurality of frequency band components and the plurality of direction components, there is provided means for correcting frequency characteristics independently for the frequency band and direction, and means for outputting an image.
[0013]
In one embodiment of the present invention, means for inputting an image, band dividing means for converting the input image signal into coefficient signals in a plurality of frequency bands and directions, and an image by converting the coefficient signal A frequency characteristic correcting unit that corrects the frequency characteristic of the frequency domain, a band synthesizing unit that converts the frequency-converted coefficient signal into an image signal in real space, and a unit that outputs an image. In the frequency characteristic correcting unit, The correction is made independently for each direction.
[0014]
In one embodiment of the present invention, means for inputting an image, band dividing means for converting the input image signal into coefficient signals in a plurality of frequency bands and directions, and image area separation using the coefficient signal Image region separation means for performing frequency characteristic correction means for controlling the frequency characteristics of the image by converting the coefficient signal, band synthesis means for converting the frequency converted coefficient signal to an image signal in real space, Means for outputting an image is provided, and the image area separating means separates characters and pictures.
[0015]
In one embodiment of the present invention, means for inputting an image, band dividing means for converting the input image signal into coefficient signals in a plurality of frequency bands and directions, and image area separation using the coefficient signal Image region separation means for performing frequency characteristic correction means for controlling the frequency characteristics of the image by converting the coefficient signal, band synthesis means for converting the frequency converted coefficient signal to an image signal in real space, An image output means is provided, and the image area separating means separates a halftone dot pattern and a photographic paper pattern.
[0016]
In one embodiment of the present invention, the frequency characteristic correcting means is controlled according to the reading resolution, and up to which frequency band is calculated according to the resolution. In addition, when the resolution increases, control is performed to shift the frequency characteristics to the low frequency side, and when the input resolution differs between main scanning and sub-scanning, the vertical frequency characteristics and horizontal frequency characteristics are matched to the resolution. Control independently.
[0017]
DETAILED DESCRIPTION OF THE INVENTION
Hereinafter, an embodiment of the present invention will be described in detail with reference to the drawings.
(Example 1)
FIG. 1 shows the configuration of Embodiment 1 of the present invention. The image signal input by the image input means 1 such as a scanner is converted by the scanner γ processing means 2 from linear image data of reflectance from the image input means 1 to image data of density linearity or lightness linearity. The processing of the scanner γ means 2 may be made through. Image data from the scanner γ processing means 2 is input to the filter processing means 3.
[0018]
The filter processing means 3 converts the image into a predetermined spatial frequency characteristic. The image data output from the filter processing means 3 is converted by the printer γ conversion processing means 4 so as to have a predetermined density characteristic.
[0019]
The image data output from the printer γ conversion unit 4 is converted into multi-value or binary image data by the halftone processing unit 5. As the halftone processing means 5, for example, dither processing or error diffusion processing may be used. The image data output from the halftone processing means 5 is output to an image output means 6 such as an electrophotographic printer.
[0020]
FIG. 2 shows the configuration of the filter processing means. The filter processing means extracts components in the vertical and horizontal diagonal directions from the input image data for each of the high frequency component and the low frequency component.
[0021]
That is, for each direction component of the high-frequency component, the high-frequency longitudinal direction component extraction unit 101 extracts the high-frequency longitudinal direction component by using, for example, a filter illustrated in FIG. The high frequency lateral component extraction unit 102 extracts the high frequency lateral component by using, for example, a filter illustrated in FIG. The high frequency upper right direction component extraction unit 103 extracts the high frequency upper right direction component by using, for example, a filter illustrated in FIG. The high frequency lower right direction component extraction unit 104 extracts the high frequency lower right direction component by using, for example, a filter illustrated in FIG.
[0022]
Similarly, for each direction component of the low-frequency component, the low-frequency longitudinal direction component extraction unit 105 extracts the low-frequency longitudinal component by using, for example, a filter illustrated in FIG. The low-frequency lateral direction component extraction unit 106 extracts the low-frequency lateral direction component by using, for example, a filter illustrated in FIG. The low frequency upper right direction component extraction unit 107 extracts the lower frequency upper right direction component using, for example, a filter illustrated in FIG. The low frequency lower right direction component extraction unit 108 extracts the lower frequency lower right direction component by using, for example, a filter shown in FIG.
[0023]
After extracting each direction component in each frequency band, the correction unit 109 corrects the component. FIG. 4 shows an example of input / output characteristics of the correction unit. If the absolute value of the extracted component is smaller than a predetermined threshold value Thd, it is corrected to 0, and if it is greater than or equal to the threshold value Thd, the extracted component is multiplied by a predetermined value α (enhancement coefficient).
[0024]
In addition to the method shown in FIG. 4, other correction methods such as a method using a function such as a polynomial, a method using an LUT, and a method of applying a bias in the + or − direction may be used.
[0025]
A value obtained by adding the correction results of the respective direction components in the respective frequency bands and the output signal of the scanner γ processing means 2 are added by the adder 110 to obtain an output value of the filter processing means 3.
[0026]
The above processing is performed for each pixel of the input image. Thus, by applying a filter independently for each component, the enhancement filter is applied only to the band and direction to be enhanced, and fine filter processing can be realized.
[0027]
(Example 2)
The overall configuration of the second embodiment of the present invention is the same as the configuration of the first embodiment described above. The difference from the first embodiment is the configuration of the filter processing means 3. FIG. 5 shows the configuration of the filter processing means 3 according to the second embodiment.
[0028]
As shown in FIG. 5, the input image signal S is first input to the band dividing means 7 and decomposed into a plurality of image band signals W. Next, the sharpness control means 8 performs image enhancement processing and smoothing processing. The plurality of image band signals F output from the sharpness control means 8 are converted into real space image signals IW by the band synthesizing means 9.
[0029]
In the second embodiment, the band dividing means 7 is realized by wavelet transform as shown in FIG. The input image signal S is first wavelet transformed in the x direction by a low-pass filter G (x) 701 and a high-pass filter H (x) 702. Here, as shown in FIG. 7A, the low-pass filter G (x) is a low-frequency component extraction filter for obtaining an average value component, and the high-pass filter H (x) is the same as FIG. 7B. As shown in FIG. 2, the high-frequency component extraction filter is for obtaining a difference component.
[0030]
In the second embodiment, a wavelet basis function (Haar) having the characteristics shown in FIG. 7 will be described as an example. The obtained image signals are subjected to wavelet transformation in the y direction by the filter groups 703, 704, 705, and 706. One layer of wavelet coefficients is obtained by the above conversion.
[0031]
In FIG. 6, 1st-LL is a low-frequency component of one layer, and is an image signal obtained by obtaining an average value of 2 × 2 pixels with respect to the original image. 1st-LH is a horizontal high-frequency component in one layer, and is an image signal obtained by extracting a horizontal edge signal corresponding to the Nyquist frequency. Similarly, 1st-HL is a vertical high-frequency component of one layer, and an edge signal in the vertical direction, and 1st-HH is an image signal obtained by extracting an edge signal in the oblique direction.
[0032]
As shown in FIG. 8, in the wavelet transform using the Haar function as a basis function, the conversion is performed in units of 2 × 2 pixels, and the values of the four pixels are converted to a, b, c, d as shown in FIG. In this case, the image information of the 2 × 2 pixel block is converted into four coefficients LL, HL, LH, and HH, and conversion is performed to extract the average value and the edge component in each direction.
[0033]
As shown in FIG. 9, the obtained 1st-LL signal is subjected to two-layer wavelet transform in the same procedure, and the image signals 2nd-LL, 2nd-LH, and 2nd converted by the filter group 707-712 are processed. -HL, 2nd-HH is obtained. 2nd-LL is an image signal obtained by obtaining an average value of 4 × 4 pixels, and is an image signal in a lower frequency band than one layer. Similarly, 2nd-LH is a component in a lower frequency band than 1st-LH, and is an image signal obtained by extracting a lateral edge of a frequency band that is ½ of the Nyquist frequency. Similarly, 2nd-HL is a vertical high-frequency component in two layers, and a lower-frequency vertical edge signal is extracted, and 2nd-HH is an image signal obtained by extracting an oblique edge signal. As described above, wavelet coefficient signals W (1st-LL-1st-HH, 2nd-LL-2nd-HH) up to two layers are obtained.
[0034]
Based on the coefficient signal W output from the band dividing unit 7 of FIG. 5, the sharpness control unit 8 performs enhancement processing and smoothing processing of the image signal. FIG. 10 shows the configuration of the sharpness control means 8. As shown in FIG. 10, correction means 209 is applied to the high-frequency components of the first layer (1st-HL, 1st-LH, 1st-HH) and the high-frequency components of the second layer (2nd-HL, 2nd-LH, 2nd-HH). Thus, a predetermined correction is performed.
[0035]
The correction means 209 is independent of the frequency band component and the direction component, and in any band, when the coefficient signal is 0 or more, the value of the coefficient signal after correction in the vertical and horizontal directions is the coefficient after correction in the diagonal direction. When the coefficient signal is corrected to be greater than the signal value and the coefficient signal is negative, the corrected coefficient signal value in the oblique direction is corrected to be greater than or equal to the corrected coefficient signal value in the vertical and horizontal directions.
[0036]
An example of the correcting means is to multiply the coefficient signal by a predetermined value, and in any band, the value multiplied by the coefficient signal in the vertical and horizontal directions is equal to or greater than the value multiplied by the coefficient signal in the diagonal direction. .
[0037]
FIG. 11 shows a first example (input / output characteristics) of the correction means. When the absolute value of the high frequency component coefficient signal input to the correction unit 209 is less than a predetermined value (Thd), the corrected value (Dout) is smaller than the uncorrected value (Din), and the coefficient signal If the absolute value is equal to or greater than the predetermined value (Thd), the corrected value (Dout) is set larger than the uncorrected value (Din). As a result, it is possible to control such that a portion that should not be emphasized such as a noise component is smoothed and a portion that should be emphasized such as an edge is strongly emphasized.
[0038]
FIG. 12 shows a second example of the correcting means. If the absolute value of the coefficient signal is less than the predetermined threshold, the corrected value is smaller than the value before correction, and if the absolute value of the coefficient signal is greater than or equal to the predetermined threshold, the corrected value Is set larger than the value before correction. As a result, it is possible to control such that a portion not to be emphasized such as a noise component is smoothed and a portion to be emphasized such as an edge is strongly emphasized. At this time, as shown in FIG. 13, the absolute value of the threshold value for switching is set to be larger in two layers than in one layer. This is because the noise component coefficient signal has a larger value in the second layer in the low frequency band than in the first layer in the high frequency band.
[0039]
FIG. 14 shows a third example (input / output characteristics) of the correcting means. When the absolute value of the high-frequency component coefficient signal input to the correction unit 209 is smaller than a predetermined noise removal threshold (Thn), the corrected coefficient signal value is corrected to zero. When the absolute value of the high frequency component coefficient signal is equal to or greater than a predetermined noise removal threshold (Thn), the value of the input coefficient signal is multiplied by a predetermined enhancement coefficient α and output. By controlling in this way, a high frequency component smaller than the noise removal threshold value Thn is removed as noise, resulting in a smoothed image, and a high frequency component equal to or higher than the noise removal threshold value Thn is multiplied by α (α> 1) as a signal. Therefore, the difference component increases and an image subjected to enhancement processing is obtained.
[0040]
Note that Thn and α of the correction unit 209 are configured to be set individually for different frequency bands (1st, 2nd) and different direction components (HL, LH, HH) as shown in FIG. . For example, in order to suppress the moire of the halftone dot portion, the diagonal component enhancement coefficient α is set smaller than the vertical and horizontal component enhancement coefficient α. Further, for example, in order to reproduce the sharpness of the character portion, the enhancement coefficient α of the vertical and horizontal diagonal components in the low frequency band is set large. For example, in order to increase the accuracy of noise removal, the noise removal threshold value Thn2 in the second layer is set larger than the noise removal threshold value Thn1 in the first layer.
[0041]
That is, since the magnitude and enhancement degree of the high frequency component to be removed can be controlled for each band and direction, fine noise removal (smoothing) and enhancement can be performed.
[0042]
FIG. 16 shows a fourth example of the correcting means. When the absolute value of the high frequency component coefficient signal input to the correction means 209 is smaller than a predetermined noise removal threshold (Thn), if the coefficient signal before correction is positive, it is converted to a positive predetermined constant, If the coefficient signal before correction is negative, it is converted to a predetermined negative constant, and if the coefficient signal before correction is zero, the coefficient signal after correction is corrected to zero. When the absolute value of the high frequency component coefficient signal is equal to or greater than a predetermined noise removal threshold value Thn, the value of the input coefficient signal is multiplied by a predetermined enhancement coefficient α and output. By controlling in this way, a high frequency component smaller than the noise removal threshold value Thn becomes a smoothed image if the absolute value of the constant is set to a small value, and a high frequency component equal to or higher than the noise removal threshold value Thn is used as a signal. Since it is multiplied by α, the difference component increases and an image subjected to enhancement processing is obtained.
[0043]
FIG. 17 shows a fifth example of the correcting means. When the absolute value of the high frequency component coefficient signal input to the correction unit 209 is less than a predetermined noise removal threshold (Thn1), the corrected coefficient signal is set to zero. If the absolute value of the high frequency component coefficient signal input to the correction means 209 is greater than or equal to a predetermined noise removal threshold (Thn1) and less than a threshold (Thn2) greater than Thn1, the coefficient signal before correction is positive If the coefficient signal before correction is negative, it is converted to a negative predetermined constant. When the absolute value of the high frequency component coefficient signal is equal to or greater than a predetermined noise removal threshold value Thn2, the value of the input coefficient signal is multiplied by a predetermined enhancement coefficient α and output.
[0044]
By controlling in this way, high frequency components smaller than the noise removal threshold value Thn1 are strongly smoothed. If the noise removal threshold value is Thn1 or more and Thn2 or less, it is better to set the absolute value of the constant to a small value. The smoothed image is obtained, and the high frequency component equal to or higher than the noise removal threshold Thn2 is multiplied by α as a signal, so that the differential component increases and an image subjected to enhancement processing is obtained.
[0045]
FIG. 18 shows a sixth example of the correcting means. When the absolute value of the high-frequency component coefficient signal input to the correction means 209 is smaller than a predetermined noise removal threshold (Thn1), the input coefficient signal value is multiplied by a predetermined enhancement coefficient α and output. If the absolute value of the high-frequency component coefficient signal input to the correction means is equal to or greater than a predetermined noise removal threshold (Thn1) and less than a threshold (Thn2) greater than Thn1, the coefficient signal before correction is positive. If the coefficient signal before correction is negative, it is converted to a negative predetermined constant. When the absolute value of the high frequency component coefficient signal is equal to or greater than a predetermined noise removal threshold Thn2, the value of the input coefficient signal is multiplied by a predetermined enhancement coefficient α and output. By controlling in this way, moderate emphasis is given to high frequency components smaller than the noise removal threshold value Thn1, and if the noise removal threshold value Thn1 is less than Thn2, it is better to set the absolute value of the constant to a smaller value. The smoothed image is obtained, and the high frequency component equal to or higher than the noise removal threshold Thn2 is multiplied by α as a signal, so that the differential component increases and an image subjected to enhancement processing is obtained. Note that here, by controlling the threshold values Thn1 and -Thn1 so as to maintain continuity, it is possible to prevent image degradation at the boundary portion in the vicinity of the threshold value.
[0046]
FIG. 19 shows a seventh example of the correcting means. When the absolute value of the high frequency component coefficient signal input to the correction unit 209 is smaller than a predetermined noise removal threshold (Thn1), the corrected coefficient signal is set to zero. When the absolute value of the high frequency component coefficient signal is equal to or greater than a predetermined noise removal threshold Thn2, the value of the input coefficient signal is multiplied by a predetermined enhancement coefficient α. Further, when the absolute value of the high-frequency component coefficient signal input to the correction means is not less than a predetermined noise removal threshold value (Thn1) and less than a threshold value (Thn2) larger than Thn1, threshold values Thn1 and Thn2, − Control is performed so that Thn1 and -Thn2 are continuous. Here, when the signal before correction is x and the signal after correction is y, when x is positive, y = αThn2 (x−Thn1) / (Thn2−Thn1)
When x is negative, y = αThn2 (x + Thn1) / (Thn2−Thn1). That is, control is performed so as to connect the threshold values with a straight line. Of course, other functions that maintain continuity may be used.
[0047]
By controlling in this way, high frequency components smaller than the noise removal threshold value Thn1 are strongly smoothed, and high frequency components equal to or higher than the noise removal threshold value Thn2 are multiplied by α as a signal, so that the differential component increases and emphasis processing is performed. In addition, moderate emphasis is applied between Thn1 and Thn2, and continuity is maintained near the threshold value, so that there is no deterioration of the image near the threshold value.
[0048]
In addition to the correction method described above, a method using an arithmetic function such as a polynomial, a method using an LUT, or a method of applying a bias in the + direction or the − direction may be used.
[0049]
Returning to FIG. 5, the data from the sharpness control means 8 is input to the band synthesizing means 9 and inversely converted into a real space image. FIG. 20 shows the configuration of the band synthesizing means 9.
[0050]
In the band synthesizing means, processing is performed from a wavelet coefficient signal of a higher hierarchy. The two-layer coefficient signals (2nd-LL ′, 2nd-HL ′, 2nd-LH ′, 2nd-HH ′) corrected by the sharpness control means 8 are converted into inverse transform filters H * (y), G * (y). Is inversely transformed in the y direction, and further inversely transformed in the x direction by H * (x) and G * (x). The obtained image signal is a corrected one-layer LL signal (1st-LL ′), and is the same as other corrected coefficient signals (1st-HL ′, 1st-LH ′, 1st-HH ′) of one layer. Band synthesis is performed. In this way, the filtered real space image signal S ′ is obtained.
[0051]
In the first embodiment described above, when the frequency is decomposed into a plurality of frequency bands in the real space and the filter control is performed independently for each direction for each band, a large number of matrices are required as shown in FIGS. Will become very large.
[0052]
Compared to the first embodiment, in the method using the band division of the second embodiment (the same applies to the following embodiments), a threshold is provided, and if the absolute value of the coefficient signal is greater than or equal to the threshold, a constant is set in the coefficient signal Filter processing can be realized by a simple process of multiplying and converting to 0 if the absolute value of the coefficient signal is less than the threshold value.
[0053]
(Example 3)
The overall configuration of Embodiment 3 of the present invention is the same as that of Embodiment 1 described above. The difference from the first embodiment is the configuration of the filter processing means 3. FIG. 21 shows the configuration of the filter processing means 3 according to the third embodiment.
[0054]
As shown in FIG. 21, the input image signal S is first input to the band dividing means 7 and decomposed into a plurality of image band signals W. The image area separating means 10 separates an image into characters and halftone dots by obtaining a feature amount indicating an image attribute such as a character image or a halftone dot image using the decomposed image signal W. Next, the sharpness control means 8 performs image enhancement processing and smoothing processing according to the separation result of the image area separation. Finally, the band synthesizing unit 9 converts the signal into a real space image signal and outputs it. The band dividing unit 7 according to the third embodiment is the same as that of the second embodiment.
[0055]
FIG. 22 shows the configuration of the image area separating means. The image area separation unit 10 receives the output wavelet coefficient signal W, detects the character image feature by the character feature amount detection unit 11 and the halftone dot feature amount detection unit 12 from the coefficient signal W. These feature amounts are corrected by the feature amount correction means 13 and the separation result is output.
[0056]
The character feature quantity detection means 11 receives, for example, one layer of high frequency components (1st-HL, 1st-LH, 1st-HH), evaluates the size and continuity of the high frequency components, and extracts character features. That is, the high frequency component of one layer is input, the attention coefficient at the center position is compared with a predetermined threshold value, and the size of the edge amount is determined. Also, the high frequency component of one layer is input, and the variance value of 3 coefficients of the attention coefficient and its upper and lower coefficients, the attention coefficient and its left and right coefficients, the attention coefficient and its diagonal coefficient are compared with a predetermined threshold, and the dispersion Edge continuity is determined by evaluating that the value is small. That is, a character in which a large vertical edge component continuously exists in the vertical direction, a large horizontal edge component in the horizontal direction, or a large diagonal edge component in the diagonal direction is determined as a character.
[0057]
The halftone dot feature amount detection means 12 inputs, for example, one layer of high-frequency components (1st-HL, 1st-LH, 1st-HH), and inflection points within a predetermined area (up and down in HL, left and right in LH, The number of dots in the HH direction is counted, and the features of halftone dots are extracted based on the number of inflection points.
[0058]
The feature amount correcting unit 13 binarizes the halftone dot feature amount with a predetermined threshold value, and classifies the halftone dot region and the non-halftone dot region. Further, the comprehensive determination result C is output by combining the character region based on the character feature amount and the non-character region result. In other words, only character and non-halftone areas are judged and output as character areas, and misdetected parts due to character feature extraction are corrected to picture areas using halftone dot feature quantities (areas that have been judged to be character and halftone dots are used as pictures) Judgment).
[0059]
Based on the control signal C output from the image area separation means 10, the sharpness control means 8 performs enhancement processing and smoothing processing of the image signal. FIG. 23 shows the configuration of the sharpness control means 8 according to the third embodiment. As shown in FIG. 23, according to the separation result of the image area separation means 10, the high-frequency component of the first layer (1st-HL, 1st-LH, 1st-HH) and the high-frequency component of the second layer (2nd-HL, 2nd- LH, 2nd-HH) is configured to perform a predetermined correction by the correction means 309. The correction of these correction means 309 will be described with reference to FIG.
[0060]
As shown in FIG. 14, when the absolute value of the high-frequency component coefficient signal input to the correction means 309 is smaller than a predetermined noise removal threshold (Thn), the value of the corrected coefficient signal is set to zero. It is corrected to. Further, when the absolute value of the high frequency component coefficient signal is equal to or greater than a predetermined noise removal threshold value Thn, the value of the input coefficient signal is multiplied by a predetermined enhancement coefficient α and output. By controlling in this way, a high frequency component smaller than the noise removal threshold value Thn is removed as noise, resulting in a smoothed image, and a high frequency component equal to or higher than the noise removal threshold value Thn is multiplied by α as a signal, so that the difference component is An increased and enhanced image is obtained.
[0061]
Note that Thn and α of the correction unit 309 are configured to be set individually for different frequency bands (1st, 2nd) and different direction components (HL, LH, HH) as shown in FIG. That is, since the magnitude and enhancement degree of the high frequency component to be removed can be controlled for each band and direction, fine noise removal (smoothing) and enhancement can be performed.
[0062]
In the third embodiment, different parameter groups (Thn, α) are held in the character area and the picture area, and these parameter groups (Thn, α) are switched according to the separation result of the image area separation means 10. It is configured as follows.
[0063]
24 and 25 show an example of how to switch control between the character area and the picture area. The emphasis coefficient α in the character area is larger than that in the picture area, and is set so that sufficient sharpness can be obtained in the character and line drawing area. On the other hand, by setting the noise removal threshold Thdc to a value smaller than that of the picture area, it is possible to emphasize a relatively small change in density and satisfy the sharpness of characters and line drawings.
[0064]
The band is set so that the degree of emphasis is the highest for the edge component of the two layers (low frequency band). Further, the noise removal threshold value Thn in the second layer of the character area is set to a value larger than the noise removal threshold value Thn in the first layer. This is because the noise component is larger in the two layers than in the first layer. In addition, in order to prevent deterioration of characters on a halftone dot, the enhancement level of the coefficient signal in the first layer is made smaller than the enhancement level of the coefficient signal in the second layer.
[0065]
In a general manuscript, sufficient sharpness can be obtained for a small character image such as a 6-point Mincho body by increasing the emphasis in the vicinity of an image frequency corresponding to 6 lines / mm. Even if excessive emphasis is applied to the high frequency band, noise components may be emphasized, which is not preferable.
[0066]
The third embodiment is premised on an image signal read by a scanner having a resolution of 600 dpi, and high-frequency components corresponding to 6 lines / mm are two-layer signals (2nd-HL, 2nd-LH, and 2nd-HH). Therefore, the enhancement coefficient for the second hierarchy is set to the highest.
[0067]
Depending on the resolution 17 of the input image signal, which correction layer 309 and band division unit 7 may be set as appropriate to determine which layer's enhancement coefficient is the highest and which layer's coefficient signal is calculated.
[0068]
For example, as shown in FIG. 26 (b) and FIG. 27 (b), the high frequency component corresponding to 6 lines / mm at 300 dpi is a one-layer signal (1st-HL, 1st-LH, 1st-) representing the Nyquist frequency. HH), the highest enhancement factor is set for one layer. Also, for example, as shown in FIGS. 26 (c) and 27 (c), at 1200 dpi, a high frequency component corresponding to 6 lines / mm is a three-layer signal (3rd) representing a quarter of the Nyquist frequency. -HL, 3rd-LH, 3rd-HH), the highest three-layer enhancement coefficient is set. As shown in FIG. 28, the signal of the three layers is a signal of the layer that is generated by the block of interest and the LLs of the two layers of right, left, and lower right and most strongly reacts to the 1/4 frequency band of the Nyquist frequency. In other words, as the resolution increases, the layer that increases the enhancement coefficient is set to move to the higher layer side.
[0069]
In the picture area, in order to suppress the occurrence of moire in the halftone image portion, a smaller emphasis coefficient than that in the character area is applied. In particular, the diagonal direction of the low frequency band with many halftone dots is set to be multiplied by a smaller value than the vertical and horizontal directions of the low frequency band.
[0070]
In a general manuscript, a frequency component of a halftone image appears strongly in a frequency band corresponding to two layers at 600 dpi. That is one layer at 300 dpi and three layers at 1200 dpi. Accordingly, the band for weakening the enhancement in the diagonal direction is two layers at 600 dpi, one layer at 300 dpi, and three layers at 1200 dpi. That is, as the resolution increases, the layer that weakens the emphasis in the oblique direction is set to move to the higher layer side.
[0071]
Also, in order to improve the graininess by removing the halftone dot structure from a halftone dot image having a high line number of 150 lines or more, a larger noise removal threshold Thnp is set in one hierarchy than in the second hierarchy. ing. Further, if the threshold value is sufficiently large for the halftone dot portion, the signal in the high frequency band is converted to 0, so that any value may be used for the halftone dot pattern portion.
[0072]
However, considering the case where the character part is erroneously determined as a non-character part, a value equivalent to the character area is set. In order to maintain the sharpness of a halftone image, the coefficient signal in the vertical and horizontal directions of the second layer is set to a larger value than the coefficient signal in the vertical and horizontal directions of the first layer. On the other hand, in order to suppress moire in the halftone image, the coefficient signal in the two-level diagonal direction is set to a smaller value than the coefficient signal in the one-level diagonal direction.
[0073]
As shown in FIGS. 29, 30 and 31, the correction unit 309 increases the enhancement coefficient (α) and the noise removal threshold (Thn) for the character region as the resolution 17 of the input image signal increases. It is configured to shift to the layer side (so that the higher layer side becomes larger). If the input resolution differs between the main scanning direction and the sub-scanning direction, filter processing (correction by the correction unit) is performed separately in the main scanning direction and the sub-scanning direction. For example, if the input resolution in the main scanning direction is 600 dpi and the input resolution in the sub-scanning direction is 1200 dpi, the filter control of the first hierarchy in the main scanning direction and the two hierarchies in the sub-scanning direction are made the same, and the two hierarchies in the main scanning direction and the sub-scanning direction. The filter control of the three layers in the scanning direction is made the same. In the above description, the image area separation result is used. However, FIGS. 29-31 may be switched according to the resolution 17 without using the separation result.
[0074]
By setting the parameters as described above, it is possible to perform sharpness control that achieves both the image qualities of the character area and the picture area (mainly the halftone image area).
[0075]
Further, the processing can be switched depending on the area so that the character area is controlled by the method of FIG. 14 and the pattern area is controlled by the method of FIG.
[0076]
As shown in FIG. 21, the data from the sharpness control means 8 is input to the band synthesizing means 9 and inversely converted into a real space image. The band synthesizing means 9 is the same as that in the second embodiment.
[0077]
Example 4
The overall configuration of the fourth embodiment of the present invention is the same as that of the first, second, and third embodiments described above. The configuration of the filter processing means 3 according to the fourth embodiment is the same as the configuration of the third embodiment shown in FIG. The difference from the third embodiment is the configuration of the image area separation means and the sharpness control means in the filter processing means 3. .
[0078]
As shown in FIG. 21, the input image signal S is first input to the band dividing means 7 and decomposed into a plurality of image band signals W. The image area separating means 10 uses the decomposed image signal W to obtain a feature amount indicating an image attribute such as a halftone image or a photographic paper image, and separates the image into halftone dots and photographic paper. Next, the sharpness control means 8 performs image enhancement processing and smoothing processing in accordance with the separation result of the image area separation. Finally, the band synthesizing unit 9 converts the signal into a real space image signal and outputs it. The band dividing unit 7 according to the fourth embodiment is the same as the second and third embodiments.
[0079]
FIG. 32 shows a configuration of an image area separation unit according to the fourth embodiment. The image area separation means 10 receives the output wavelet coefficient signal W, and from the coefficient signal W, features of the halftone dot image are detected by the halftone dot feature amount detection means 14, and features of the photographic paper image by the photographic paper feature amount detection means 15. Are detected, these feature amounts are corrected by the feature amount correction means 16, and a separation result is output. The feature amount correcting unit 16 corrects the determination of the area determined as the halftone dot and the photographic paper to the photographic paper.
[0080]
In the photographic paper determination method, for example, in a predetermined area (for example, 7 × 5 pixels), an area portion having a small average value and small variance in all bands and in all directions is determined as a photographic paper pattern area.
[0081]
Based on the control signal C output from the image area separation means 10, the sharpness control means 8 performs enhancement processing and smoothing processing of the image signal. The configuration of the sharpness control means 8 according to the fourth embodiment is shown in FIG. As shown in FIG. 33, according to the separation result of the image area separation means 10, the high-frequency component of the first layer (1st-HL, 1st-LH, 1st-HH) and the high-frequency component of the second layer (2nd-HL, 2nd-LH) , 2nd-HH), the correction means 409 performs a predetermined correction. The correction by these correction means 409 will be described with reference to FIG.
[0082]
As shown in FIG. 14, when the absolute value of the high frequency component coefficient signal input to the correction means 409 is smaller than a predetermined noise removal threshold (Thn), the value of the corrected coefficient signal is set to zero. It is corrected to. Further, when the absolute value of the high frequency component coefficient signal is equal to or greater than a predetermined noise removal threshold value Thn, the value of the input coefficient signal is multiplied by a predetermined enhancement coefficient α and output. By controlling in this way, a high frequency component smaller than the noise removal threshold value Thn is removed as noise, resulting in a smoothed image, and a high frequency component equal to or higher than the noise removal threshold value Thn is multiplied by α as a signal, so that the difference component is An image with increased emphasis processing is obtained.
[0083]
As shown in FIG. 34, Thn and α of the correcting unit 409 are configured to be set individually for different frequency bands (1st, 2nd) and different direction components (HL, LH, HH). That is, since the magnitude and enhancement degree of the high frequency component to be removed can be controlled for each band and direction, fine noise removal (smoothing) and enhancement can be performed. Further, in the fourth embodiment of the present invention, different parameter groups (Thn, α) are held in the halftone dot area and the photographic paper area, and these parameter groups are switched according to the separation result of the image area separation means 10. Configured to do.
[0084]
An example of how to switch control between the photographic paper pattern area and the halftone dot pattern area is shown in FIG. The enhancement coefficient α in the photographic paper pattern area is larger than that in the halftone pattern area, and is set so that sufficient sharpness can be obtained in continuous tone images including photographic paper. Since the coefficient signal of the photographic paper region is generally small, the noise removal threshold Thn is set to a smaller value than the halftone image region in order to satisfy the sharpness of the photographic paper pattern.
[0085]
The band of the photographic paper pattern area is set so that the degree of emphasis is the highest for the two-level vertical and horizontal diagonal edge components. Generally, since the photographic paper pattern region shows frequency characteristics such that there is a peak at a low frequency, the coefficient of one layer is very small. Therefore, no matter how much the enhancement factor of one layer is increased, the sharpness of the photographic paper pattern is not greatly affected. Therefore, the enhancement coefficient in the vertical and horizontal diagonal coefficients of the two layers is made larger than the enhancement coefficient in the halftone pattern region. Since the value of the coefficient is very small even in the second layer, the noise removal threshold value is set smaller than the noise threshold value of the dot pattern.
[0086]
In the halftone dot pattern region, a relatively small emphasis coefficient is used in order to suppress the occurrence of moire in the halftone dot image portion. In particular, a relatively large noise removal threshold value Thnp is set for a halftone dot image having a high line number of 150 lines or more in order to remove the halftone dot structure and improve the graininess.
[0087]
By setting the parameters as described above, it is possible to perform sharpness control that achieves both image quality on the photographic paper pattern area and the halftone dot pattern area.
[0088]
As shown in FIG. 21, the data from the sharpness control means 8 is input to the band synthesizing means 9 and inversely converted into a real space image. The band synthesizing means 9 is the same as in the second and third embodiments.
[0089]
(Example 5)
In the above-described embodiment 2-4, the wavelet transform is assumed to be sub-sampling performed in normal compression processing or the like, but in the embodiment 5, the wavelet transform is sub-sampling performed in normal compression processing or the like. A configuration in which (pixel thinning) is not performed is adopted.
[0090]
The overall configuration of Example 5 is FIG. 1 as in Example 2-4. In the filter processing means 3 in FIGS. 5 and 21, the band dividing means 7 and the band synthesizing means 9 are different from those in the embodiment 2-4. In other words, the fifth embodiment is obtained by replacing the band dividing unit 7 and the band synthesizing unit 9 of the embodiment 2-4 with the following contents.
[0091]
As shown in FIG. 35, the wavelet transform that performs sub-sampling is performed by performing processing using a high-pass filter and a low-pass filter, and then performing processing for thinning one pixel out of two pixels (for example, processing for thinning out odd pixels) And In inverse transformation, upsampling is performed, and inverse transformation is performed by an inverse transformation filter.
[0092]
In the wavelet transform of this embodiment, as shown in FIG. 36, downsampling is not performed during forward transform. Therefore, as shown in FIG. 36, the image size of the coefficient signal in each layer and in each direction is the same size as the input image Org. At the time of inverse conversion, as shown in FIG. 36, up-sampling is performed for each even and odd pixel group and an inverse conversion filter is applied. Since an inverse transformation result from the even pixel group and an inverse transformation result from the odd pixel group are obtained for one original image pixel, these are averaged to obtain image data after the inverse transformation.
[0093]
By the processing without performing the sub-sampling as described above, it is possible to calculate the image feature amount with high accuracy and to perform high-quality filter processing without emphasis / smoothness unevenness. This will be described with reference to FIGS.
[0094]
Each of FIGS. 37 to 39 is a signal in which the original image is the same and the density is repeated in a cycle of 4 pixels. FIGS. 37 and 38 show examples in the case of performing sub-sampling, and FIG. 39 shows the system of this embodiment in which sub-amplification is not performed. Further, FIG. 37 and FIG. 38 show an example in which the pixel for sub-sampling is shifted by one pixel.
[0095]
In the case of FIG. 37, it is an example in which the wavelet coefficient signals performed on the pixel pairs d1 and d2 and the pixel pairs d3 and d4 are thinned out. As a result, the pixel pairs d0 and d1 and the pixel pairs d2 and d3 are obtained. The coefficient signal remains. For example, when the high-frequency component is multiplied by a double enhancement coefficient and inversely transformed for enhancement filter processing, the high-frequency component 50 of d0 and d1 is amplified by a factor of two, and the d0 ′ and d1 ′ data after inverse transformation is amplified. The difference is doubled, indicating that the desired enhancement processing is being performed.
[0096]
On the other hand, when the sub-sampling is shifted by one pixel as shown in FIG. 38, the high-frequency component obtained by the pixel pair of d1 and d2 is 0, and the high-frequency component is not amplified even when multiplied by the enhancement coefficient, as shown in FIG. Thus, it can be seen that the desired enhancement processing has not been performed. In such a conversion system that performs sub-sampling, there is a case where frequency characteristics cannot be corrected correctly depending on the sampling position.
[0097]
The wavelet transform that does not perform sub-sampling in this embodiment solves this problem. As shown in FIG. 39, the results of FIGS. 37 and 38 are averaged, and the frequency characteristics can be corrected without omission. Further, since the signal is not subjected to sub-sampling when calculating the feature amount of the image as well as the enhancement process, the feature amount can be extracted with high accuracy.
[0098]
In Embodiment 2-5 described above, the Haar type wavelet is taken as an example of the wavelet basis function, but other basis functions can be similarly realized. Further, not only wavelet transformation but also subband transformation, Fourier transformation, Hadamard transformation, Laplacian pyramid, etc. that divides an image into a plurality of frequency bands can be realized in the same manner.
[0099]
As described above, the present invention may naturally be implemented by dedicated hardware, but may be implemented by software using a general-purpose computer system. When implemented by software, a program that realizes the image processing functions (filter processing, γ conversion, halftone processing, etc.) and processing procedures of the present invention is recorded on a recording medium and the like. The image processing function of the present invention is implemented by the program being read into the computer system and executed by the CPU. The image data is, for example, original image data read from a scanner or the like, image data prepared in advance on a hard disk or the like, or image data acquired via a network. The processing result is output to a printer or written to a hard disk. Alternatively, the data is output to an external device (such as a printer) via a network.
[0100]
【The invention's effect】
As described above, according to the present invention, the following effects can be obtained.
(1) Extract high-frequency components and low-frequency components from input image data in the vertical and horizontal diagonal directions, and apply a filter to each component, so that the enhancement filter is applied only to the band and direction to be emphasized. Filter processing is realized. Therefore, it is possible to simultaneously realize the sharpness of characters, the moire suppression of halftone dots, and the noise removal of the entire image.
(2) The image is decomposed into a plurality of frequency bands and coefficient signals in the vertical and horizontal directions in each band, and the emphasis or smoothing control is individually performed for each coefficient signal, so that the vertical and horizontal coefficients are stronger than those in the diagonal direction. When the coefficient signal is smaller than a certain threshold value, it is converted to 0 or a small constant to suppress the noise component, and further, when the coefficient signal is suddenly set to 0 below the above threshold value for noise component suppression. When image degradation is conspicuous at the boundary near the threshold value, two threshold values are provided so that the continuity of the relationship between the coefficient value before control and the coefficient value after control is maintained. Therefore, the sharpness of the characters is improved, the noise of the entire image is removed, and the moire of the dot pattern is removed.
(3) Using the coefficient signal, the image area is separated into the character and the picture, the switching of the coefficient is controlled so that the character area is kept sharp and the picture area is not moire, and the frequency conversion is performed for each coefficient. If the later values are the same coefficient, control is performed so that the character is not larger than the case of the pattern, and in particular, the coefficient signal value of the diagonal component of the pattern is a small value after the conversion. Further, the sharpness of the characters is improved, the noise of the entire image is removed, and the moire of the halftone dot pattern is removed.
(4) The image signal is separated into character, halftone dot pattern and photographic paper pattern using the coefficient signal. If the coefficient is the same before conversion, the coefficient after conversion of the photographic paper pattern is equal to or greater than the coefficient after conversion of the halftone pattern. Furthermore, since the absolute value of the noise removal threshold for photographic paper is smaller than the noise removal threshold for halftone patterns, the sharpness of characters, noise removal, moire removal, and continuous tone image Sharpness can be realized at the same time.
(5) Even if the resolution of the input image signal changes, the sharpness of characters is maintained and the moire of the halftone dot pattern is suppressed.
(6) Since the coefficients of the pixels in the vicinity of the target pixel are also used when performing the band synthesis, the signal value after the inverse transformation is prevented from changing greatly depending on the position where the inverse transformation is started, and stable filter processing is performed. Can be realized.
[Brief description of the drawings]
FIG. 1 shows a configuration of Example 1-5 of the present invention.
FIG. 2 shows a configuration of filter processing means according to the first embodiment.
FIG. 3 shows an example of a spatial filter used in the first embodiment.
FIG. 4 illustrates an example of input / output characteristics of the correction unit according to the first embodiment.
FIG. 5 shows a configuration of filter processing means according to the second embodiment.
FIG. 6 shows a configuration of band dividing means.
FIG. 7 shows a Haar wavelet.
FIG. 8 is a diagram for explaining Haar wavelet transform;
FIG. 9 shows wavelet coefficient signals up to two layers.
FIG. 10 shows a configuration of sharpness control means according to the second embodiment.
FIG. 11 shows a first example of correction means.
FIG. 12 shows a second example of correction means.
FIG. 13 shows a setting example of correction means according to the second embodiment.
FIG. 14 shows a third example of correcting means.
15 shows a setting example of correction means according to Embodiment 2. FIG.
FIG. 16 shows a fourth example of the correcting means.
FIG. 17 shows a fifth example of the correcting means.
FIG. 18 shows a sixth example of the correcting means.
FIG. 19 shows a seventh example of the correcting means.
FIG. 20 shows a configuration of band synthesizing means.
FIG. 21 shows a configuration of filter processing means according to the third embodiment.
FIG. 22 shows a configuration of an image area separation unit according to the third embodiment.
FIG. 23 shows a configuration of sharpness control means according to the third embodiment.
24 shows a setting example of correction means according to the third embodiment. FIG.
FIG. 25 shows an example of switching an emphasis coefficient and a noise removal threshold for characters and pictures.
FIG. 26 shows an example of images with different resolutions.
FIG. 27 shows the frequency response of coefficient signals with different resolutions.
FIG. 28 shows wavelet coefficient signals up to three layers.
FIG. 29 shows a setting example of correction means according to the resolution.
FIG. 30 shows a setting example of correction means according to the resolution.
FIG. 31 shows a setting example of correction means according to the resolution.
FIG. 32 shows a configuration of an image area separation unit according to the fourth embodiment.
FIG. 33 shows a configuration of sharpness control means according to the fourth embodiment.
FIG. 34 shows a setting example of correction means according to the fourth embodiment.
FIG. 35 shows the configuration of a wavelet transform that performs subsampling.
FIG. 36 shows a configuration of a wavelet transform according to the fifth embodiment.
FIG. 37 is a diagram for explaining wavelet transform for performing sub-sampling.
FIG. 38 is a diagram for describing wavelet transform for performing sub-sampling.
FIG. 39 is a diagram illustrating wavelet transform according to the fifth embodiment in which subsampling is not performed.
[Explanation of symbols]
1 Image input means
2 Scanner γ processing means
3 Filter processing means
4 γ conversion means
5 Halftone processing means
6 Image output means

Claims (6)

所定画像を複数の周波数帯域毎に複数の方向の係数に変換する帯域分割手段と、前記帯域分割手段にて変換された係数を文字と絵柄に像域分離する手段と、前記像域分離された結果に応じて前記帯域毎の各係数を補正する補正手段と、前記補正後の各係数を実空間の画像に逆変換する帯域合成手段とを備え、前記分離結果が文字であるとき、前記補正手段は、前記係数の絶対値が所定のしきい値未満のとき、前記係数を0に補正し、前記係数の絶対値が所定のしきい値以上のとき、前記係数に所定の定数を乗算することにより補正し、前記分離結果が絵柄であるとき、前記補正手段は、所定の第1の正のしきい値と前記第1のしきい値より大きい所定の第2の正のしきい値を有し、前記係数の絶対値が所定の第1のしきい値未満のとき、前記係数を0に補正し、前記係数の絶対値が前記第2のしきい値以上のとき、前記係数に所定の定数を乗算し、前記係数の絶対値が前記第1のしきい値以上でかつ前記第2のしきい値未満のとき、前記第1のしきい値と前記第2のしきい値の間で、前記係数が連続となるように補正することを特徴とする画像処理装置。Band dividing means for converting a predetermined image into coefficients in a plurality of directions for each of a plurality of frequency bands, means for separating an image area of the coefficients converted by the band dividing means into characters and pictures, and the image area separation A correction unit that corrects each coefficient for each band according to a result; and a band synthesizing unit that reversely converts each coefficient after correction into an image in real space, and the correction is performed when the separation result is a character. The means corrects the coefficient to 0 when the absolute value of the coefficient is less than a predetermined threshold value, and multiplies the coefficient by a predetermined constant when the absolute value of the coefficient is equal to or greater than the predetermined threshold value. When the separation result is a pattern, the correction means sets a predetermined first positive threshold value and a predetermined second positive threshold value greater than the first threshold value. And when the absolute value of the coefficient is less than a predetermined first threshold value, When the absolute value of the coefficient is equal to or greater than the second threshold, the coefficient is multiplied by a predetermined constant, and the absolute value of the coefficient is equal to or greater than the first threshold; An image processing apparatus that corrects the coefficient so as to be continuous between the first threshold value and the second threshold value when less than the second threshold value . 前記画像の画像サイズと、前記帯域分割手段にて変換された各帯域における各方向の係数の画像サイズとが同サイズであること特徴とする請求項1記載の画像処理装置。The image processing apparatus according to claim 1, wherein the image size of the image and the image size of the coefficient in each direction in each band converted by the band dividing unit are the same size. 所定画像を複数の周波数帯域毎に複数の方向の係数に変換する帯域分割工程と、前記帯域分割工程にて変換された係数を文字と絵柄に像域分離する工程と、前記像域分離された結果に応じて前記帯域毎の各係数を補正する補正工程と、前記補正後の各係数を実空間の画像に逆変換する帯域合成工程とを備え、前記分離結果が文字であるとき、前記補正工程は、前記係数の絶対値が所定のしきい値未満のとき、前記係数を0に補正し、前記係数の絶対値が所定のしきい値以上のとき、前記係数に所定の定数を乗算することにより補正し、前記分離結果が絵柄であるとき、前記補正工程は、所定の第1の正のしきい値と前記第1のしきい値より大きい所定の第2の正のしきい値を有し、前記係数の絶対値が所定の第1のしきい値未満のとき、前記係数を0に補正し、前記係数の絶対値が前記第2のしきい値以上のとき、前記係数に所定の定数を乗算し、前記係数の絶対値が前記第1のしきい値以上でかつ前記第2のしきい値未満のとき、前記第1のしきい値と前記第2のしきい値の間で、前記係数が連続となるように補正することを特徴とする画像処理方法。A band dividing step of converting a predetermined image into coefficients in a plurality of directions for each of a plurality of frequency bands, a step of separating an image area of the coefficient converted in the band dividing step into a character and a pattern, and the image area separation A correction step for correcting each coefficient for each band according to the result; and a band synthesis step for inversely converting each corrected coefficient into an image in real space, and the correction is performed when the separation result is a character. The step corrects the coefficient to 0 when the absolute value of the coefficient is less than a predetermined threshold, and multiplies the coefficient by a predetermined constant when the absolute value of the coefficient is equal to or greater than the predetermined threshold. When the separation result is a pattern, the correction step includes a predetermined first positive threshold value and a predetermined second positive threshold value greater than the first threshold value. And when the absolute value of the coefficient is less than a predetermined first threshold value, When the absolute value of the coefficient is equal to or greater than the second threshold, the coefficient is multiplied by a predetermined constant, and the absolute value of the coefficient is equal to or greater than the first threshold; An image processing method comprising: correcting the coefficient so as to be continuous between the first threshold value and the second threshold value when less than the second threshold value . 前記画像の画像サイズと、前記帯域分割工程にて変換された各帯域における各方向の係数の画像サイズとが同サイズであること特徴とする請求項記載の画像処理方法。4. The image processing method according to claim 3 , wherein the image size of the image and the image size of the coefficient in each direction in each band converted in the band dividing step are the same size. 請求項3または4記載の画像処理方法をコンピュータに実行させるためのプログラム。A program for causing a computer to execute the image processing method according to claim 3 or 4 . 請求項3または4記載の画像処理方法をコンピュータに実行させるためのプログラムを記録したコンピュータ読み取り可能な記録媒体。A computer-readable recording medium on which a program for causing a computer to execute the image processing method according to claim 3 or 4 is recorded.
JP2001042897A 2001-02-20 2001-02-20 Image processing apparatus, image processing method, program for executing the method, and recording medium storing the program Expired - Fee Related JP4187134B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2001042897A JP4187134B2 (en) 2001-02-20 2001-02-20 Image processing apparatus, image processing method, program for executing the method, and recording medium storing the program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2001042897A JP4187134B2 (en) 2001-02-20 2001-02-20 Image processing apparatus, image processing method, program for executing the method, and recording medium storing the program

Publications (2)

Publication Number Publication Date
JP2002245450A JP2002245450A (en) 2002-08-30
JP4187134B2 true JP4187134B2 (en) 2008-11-26

Family

ID=18905141

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2001042897A Expired - Fee Related JP4187134B2 (en) 2001-02-20 2001-02-20 Image processing apparatus, image processing method, program for executing the method, and recording medium storing the program

Country Status (1)

Country Link
JP (1) JP4187134B2 (en)

Families Citing this family (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP3874113B2 (en) * 2003-04-16 2007-01-31 株式会社三重ティーエルオー Medical image processing method
US7373011B2 (en) * 2004-10-07 2008-05-13 Polaroid Corporation Density-dependent sharpening
JP2006287636A (en) * 2005-03-31 2006-10-19 Pioneer Electronic Corp Image quality adjustment apparatus, image quality adjustment method, and display apparatus
US7668387B2 (en) * 2005-06-20 2010-02-23 Intel Corporation Selective local transient improvement and peaking for video sharpness enhancement
JP2008199367A (en) * 2007-02-14 2008-08-28 Kyocera Mita Corp Original read image processor and computer program
RU2628481C2 (en) * 2012-05-14 2017-08-17 Нэшнл Инститьют Оф Джапэн Сайнс Энд Текнолоджи Эйдженси Image processing device, image processing method, program, print media and recording media
JPWO2014102876A1 (en) * 2012-12-27 2017-01-12 パナソニックIpマネジメント株式会社 Image processing apparatus and image processing method
JP2015099043A (en) * 2013-11-18 2015-05-28 Ntn株式会社 Eddy current test device

Also Published As

Publication number Publication date
JP2002245450A (en) 2002-08-30

Similar Documents

Publication Publication Date Title
JP4502303B2 (en) Image processing device
US7423781B2 (en) Image processor and image processing method for image enhancement using edge detection
JP3359390B2 (en) Spatial filter device
JP4509415B2 (en) Image processing device
JP3489796B2 (en) Image signal processing device
JP6648580B2 (en) Document type recognition device, image forming device, document type recognition method and program
JP2004112603A (en) Apparatus and method for image processing, and program to be executed by computer
JP4187134B2 (en) Image processing apparatus, image processing method, program for executing the method, and recording medium storing the program
JP6705237B2 (en) Image compression apparatus, image forming apparatus, image compression method and program
JP4141712B2 (en) Image processing device
JP2002077623A (en) Image processing apparatus
JP2003101774A (en) Image processor
US6665447B1 (en) Method for enhancing image data by sharpening
JP3804906B2 (en) Line image processing method and recording medium
JP2777202B2 (en) Image processing device
JP3813362B2 (en) Image processing apparatus and image processing method
JP2003281529A (en) Image processor and image processing method
US7024047B2 (en) Apparatus, method, and computer program product for image processing
JP2790604B2 (en) Image processing device
JP2004282511A (en) Image processor
JP4011494B2 (en) Image processing apparatus, image processing method, program, and recording medium
JP2002158872A (en) Image processing method, image processor and recording medium
JP3965647B2 (en) Image processing apparatus, image processing method, program for executing the method, and recording medium storing the program
JP2003101780A (en) Image processor
JP3990103B2 (en) Image processing apparatus and image processing method

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20041224

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20071219

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20080218

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20080604

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20080728

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20080903

A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20080904

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20110919

Year of fee payment: 3

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20120919

Year of fee payment: 4

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20130919

Year of fee payment: 5

LAPS Cancellation because of no payment of annual fees