JP3951732B2 - Image processing method, image processing apparatus, image processing program, and recording medium - Google Patents
Image processing method, image processing apparatus, image processing program, and recording medium Download PDFInfo
- Publication number
- JP3951732B2 JP3951732B2 JP2002032480A JP2002032480A JP3951732B2 JP 3951732 B2 JP3951732 B2 JP 3951732B2 JP 2002032480 A JP2002032480 A JP 2002032480A JP 2002032480 A JP2002032480 A JP 2002032480A JP 3951732 B2 JP3951732 B2 JP 3951732B2
- Authority
- JP
- Japan
- Prior art keywords
- pixels
- tile
- tiles
- contour line
- image processing
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Expired - Fee Related
Links
Images
Landscapes
- Image Analysis (AREA)
Description
【0001】
【発明の属する技術分野】
本発明は、画像の中から所望の領域を抽出するための画像処理方法、画像処理装置、画像処理プログラムおよび記録媒体に関する。
【0002】
【従来の技術】
一般に、画像の中から物体や人物などのような領域を取り出す(抽出する)技術としては、例えば、特開昭63−115279号公報や、特開平10−63855号公報に記載の技術が挙げられる。このうち、前者公報に記載された技術は、画像に含まれる物体の輪郭線を求めるとともに、当該輪郭線で区切られる領域の各面積をそれぞれ算出して、最大面積値となる領域を背景として処理する技術であり、また、後者公報に記載された技術は、画像を、近似する色の画素を有する領域に分割するとともに、これらの領域のうち、抽出すべき領域をユーザに指定させ、当該指定領域に近似する色の領域も併せて抽出する技術である。
【0003】
【発明が解決しようとする課題】
しかしながら、前者公報の技術では、最大面積となる領域が背景とはならない画像(例えば、クロースアップ画像)を領域抽出することができないし、また、後者公報の技術では、抽出された領域の境界があいまいとなる、といった欠点があった。このように、画像の中から領域を抽出する技術としては、なおも改良の余地がある、と言える。
本発明は、このような事情に鑑みてなされたものであり、その目的は、画像の中から所望の領域を、境界を鮮明に、かつ、細部の影響を少なくして、抽出することが可能な画像処理方法、画像処理装置、画像処理プログラムおよび記録媒体を提供することにある。
【0004】
【課題を解決するための手段】
上記目的を達成するために、本発明に係る画像処理方法は、入力画像において隣接する画素の輝度差がしきい値を超える画素の間を結んだ線を輪郭線として検出する検出過程と、前記輪郭線を含まないように、前記入力画像における画素を複数個毎にまとめて輝度を所定値としたタイルにするタイル化過程と、前記輪郭線を挟んで対向するタイル同士の輝度の差がしきい値以内であるか否かを判別する判別過程と、前記判別の結果が肯定的であるとき、前記輪郭線を挟んで対向するタイル同士と、当該タイル同士の各々によって挟まれる画素をタイルにまとめて、このまとめたタイルとを、互いに同一領域であると関連付ける一方、前記判別の結果が否定的であるとき、前記輪郭線を挟んで対向するタイル同士を互いに異なる領域であると関連付けるとともに、当該タイル同士のうち、一方のタイルに隣接する画素から前記輪郭線で区切られる画素までを、前記一方のタイルと同一領域であると関連付け、当該タイル同士のうち、他方のタイルに隣接する画素から前記輪郭線で区切られる画素までを、前記他方のタイルと同一領域であると関連付ける関連付け過程とを有することを特徴とする。
本発明によれば、画像の輪郭線が検出されると、当該輪郭線を含まないように画素がタイル化されるとともに、輪郭線によって区切られるタイル同士は、その画素値がしきい値以内であれば、同一領域として関連付けられる。ここで、当該タイル同士によって挟まれる画素のうち、タイルに隣接する周縁画素から輪郭線の直前画素までが、当該タイルに関連付けられるので、領域の同士の境界部分が粗くなることはない。さらに、輪郭線以外の部分では、複数の画素がまとめられてタイル化されるので、ゴミなどの細部の影響が減少する。
【0005】
本発明において、前記関連付け過程では、さらに、前記判別の結果が否定的となるタイル同士によって挟まれる画素の輝度を、近接するタイルの輝度から推定して変更することが好ましい。これによって、当該画素の各々が近接するタイルの色に近くなるので、輪郭近傍をより細かく表現することが可能となる。
【0006】
本発明において、前記判別の結果が否定的であっても、ユーザの指定があれば、輪郭線を挟んで対向するタイル同士を互いに同一領域であると関連付けし直す過程を、前記関連付け過程の後に有することが好ましい。例えば、画像における円錐の底面と側面との境界は、輪郭線として検出されるが、反射の程度が相違すると、同一領域として関連付けられない場合がある。このような場合であっても、底面と側面とを同一の円錐として抽出することが可能となる。
【0007】
本発明において、タイルの輝度は、タイルとしてまとめられる複数の画素の輝度を平均した値とすることが好ましい。また、ユーザの意図を処理後の画像に反映させるため、タイル同士の輝度の差をユーザが予め設定する過程を、少なくとも前記判別過程よりも前に有する態様や、1タイルにまとめる画素サイズをユーザが予め設定する過程を、少なくとも前記タイル化過程よりも前に有する態様が好ましい。
【0008】
本発明は、上述した画像処理方法のほか、画像処理装置としても、また、コンピュータに当該画像処理装置としての手段として機能させるための画像処理プログラムとしても、さらには、当該プログラムを記録した記録媒体とすることもでき、いずれにおいても、画像の中から所望の領域を、境界を鮮明に、かつ、細部の影響を少なくして、抽出することが可能となる。
【0009】
【発明の実施の形態】
以下、本発明の実施の形態について図面を参照して説明する。
【0010】
<全体構成>
図1は、実施形態に係る画像処理装置の全体構成を示す図である。この図に示されるように、画像処理装置100は、パーソナルコンピュータ(PC)102、ディスプレイ104、キーボード106、マウス108、プリンタ110等から構成される。
このうち、PC102は、後述する画像処理プログラムの実行主体であり、内蔵モデムやLANカードによってネットワーク50に接続されて、サーバ60等とデータの授受が可能となっている。ディスプレイ104は、PC102における表示画面の出力部として機能し、キーボード106およびマウス108は、それぞれPC102に対する入力部として機能する。また、プリンタ110は、PC102により処理された画像を紙等に印刷する出力部として機能する。
【0011】
図2は、PC102が画像処理プログラムを実行したときに構築される機能構成を示すブロック図である。なお、この画像処理プログラムは、例えばネットワーク50を介してサーバ60からダウンロードしてPC102にインストールされても良いし、磁気ディスクや、光ディスク、光磁気ディスクなどの媒体を介してPC102にインストールされても良い。
【0012】
図2において、入力部150は、図1におけるキーボード106、マウス108に相当し、処理対象となる画像の指定や、画像処理の操作・設定などのために用いられる。入力画像記憶部152は、処理対象となり得る画像データを記憶する。ここで、処理対象としては、フラットベッドスキャナ(図示省略)により読み込んだ画像や、サーバ60からダウンロードした画像、光磁気ディスクなどの各種媒体に記憶された画像などが挙げられる。
【0013】
画像抽出部154は、画像処理プログラムの実行によって構築されて、処理対象となった画像を領域に分解・抽出する。なお、この画像領域の分解・抽出の詳細については後述する。
抽出画像記憶部156は、画像抽出部154によって抽出された画像領域や、これらの領域の関連付け等を記憶する。なお、入力画像記憶部152および抽出画像記憶部156は、PC102に内蔵されたストレージユニット(例えばハードディスク)に相当するが、このような機能を、ネットワーク50を介した他の装置(例えばサーバ60)に負担させる構成(ネットワークドライブ)としても良い。
出力部158は、ディスプレイ104やプリンタ110に相当し、抽出画像記憶部156に記憶された画像領域や、互いに同一として関連付けられた画像領域のうち、ユーザによって指定されたものを出力する。
【0014】
<画像処理の内容>
次に、PC102において実行される画像処理プログラムの処理内容について説明する。図3は、この画像処理プログラムの詳細を示すフローチャートである。まず、ユーザによって画像処理プログラムが起動された直後において、PC102は、例えば、ディスプレイ104に、処理対象となり得る画像の一覧を表示させるとともに、処理すべき画像の選択を促す画面を表示させる。そして、実際にユーザよって処理すべき画像が選択されると、ステップS11において、PC102は、当該画像に対応する画像データを読み込む。
なお、ロードすべき画像データがPDL(Page Description Language)で記述された形式やベクトル形式などであれば、PC102は、当該画像データを、画素の集合で示されるラスター(ビットマップ)形式に変換する。
【0015】
ステップS12において、PC102(画像抽出部154)は、ラスター形式の画像データをそのまま保持した状態で、当該画像に含まれる物体(人を含む)の輪郭を検出する。この輪郭の検出は、例えば次のようなアルゴリズムにて実行される。すなわち、着目画素における画素値とこれに隣接する画素の画素値との差が、予め設定されたしきい値を越えるとき、当該着目画素と隣接画素との間が物体の輪郭であると判別する。なお、ここでいう画素値とは、画素の色を各種の色空間において規定する座標値だけではなく、輝度を示す値なども含まれる。
【0016】
ここで、ラスター画像上において輪郭が図4(a)に示されるように検出されたとき、図4(b)に示されるように、当該輪郭線を右下方向に半画素分だけシフトさせた線(白太破線)を想定して、当該線上に位置する画素を輪郭画素として例えば黒色表示する。
なお、図4(a)および図4(b)では、説明のために画素の配置だけを示し、ここで説明する黒色以外は、画素が本来的に有する色についての情報を省略している(図5、図6においても同様)。また、ラスター形式の画像データは、輪郭の表示とは別に、そのまま保持されているので、輪郭画素が黒色化されているからといって、元の色に関する情報が失われている訳ではない。
【0017】
次に、ステップS13において、PC102はタイル化を実行する。このタイル化は、第1に、図5(a)に示されるように、保持されたラスター画像を3画素×3画素毎に1ブロックとして考え、第2に、図5(b)に示されるように、ブロックが輪郭画素を含む場合には、当該ブロックを放置する一方、ブロックが輪郭画素を含まない場合には、当該ブロックを構成する9個の画素をまとめて1タイルとする、という処理である。
9個の画素をまとめて1タイルとする方式として、本実施形態では、画素における画素値を、当該タイルを構成する9個分だけ平均化した値を求め、その平均値を当該9個の画素における新たな画素値にセットし直すこととしている。これにより、当該9個の画素は互いに同色となるので、当該9個の画素を新たな1画素に置き換える処理と実質的に等しいことになる。
【0018】
なお、細かい領域を抽出する場合には、1タイルのサイズを小とする方が望ましいし、細かい部分を包むような大きな領域を抽出する場合には、1タイルのサイズを大とする方が望ましい。したがって、輪郭検出後、タイル化前に、PC102は、ユーザに対して抽出すべき領域の選択を促す画面をディスプレイ104に表示させるとともに、指定された領域の性格を解析して、当該タイルサイズを自動で最適値に設定しても良いし、少なくともタイル化前にユーザが設定して、当該設定値のサイズにしたがってタイル化を実行するようにしても良い。
【0019】
タイル化の後、ステップS14において、PC102は、隣接するタイル同士、および、輪郭画素を挟んで対向するタイル同士の画素値を比較して、当該タイル同士を関連付けるか否かを、すべてのタイル同士について判断する処理(タイルの結合処理)を実行する。
ここで、PC102は、隣接するタイル同士については、それらの画素値を比較して、その差がしきい値以内である場合、当該タイル同士を、同一の領域であると関連付ける一方、画素値の差がしきい値を越える場合、当該タイル同士を、互いに異なる領域であると関連付ける。
また、PC102は、輪郭画素を挟んで対向するタイル同士については、それらの画素値を比較して、その差がしきい値以内である場合、当該タイル同士を同一の領域であると関連付けるとともに、当該タイルによって挟まれる画素についてもタイル化して、当該タイル同士に関連付けられた領域と同一であると関連付ける一方、画素値の差がしきい値を越える場合、当該タイル同士を、互いに異なる領域であると関連付けるとともに、当該タイルによって挟まれる画素についてはタイル化しないで放置する。
【0020】
同一の領域であるか、異なる領域であるかの関連付けは、例えば、タイルまたは(タイル化されなかった)画素の各々に対して、領域を個別に識別するための識別子を付与することで行われる。すなわち、同一領域を表示するタイルまたは画素に対しては同一の識別子を、異なる領域を表示するタイルまたは画素に対しては異なる識別子を、それぞれ付与するのである。
なおここでは、隣接するタイル同士、および、輪郭画素を挟んで対向するタイル同士の画素値を比較して、当該タイル同士を関連付けるか否かを判別しているが、すでにステップS12において物体の輪郭を検出しているので、画素値同士を比較することなく(または、画素値同士の比較結果も考慮して)、検出した輪郭によって閉じた領域を同一領域とする一方、ある一つの輪郭によって区切られた2つの領域を互い異なる領域として、関連付けても良い。
【0021】
次に、ステップS15において、PC102は、タイル化しなかった画素の補間・関連付け処理を実行する。すなわち、この処理は、ブロック化の際に、輪郭を表示する画素を含んでいたためにタイル化されなかった画素であって、当該画素を挟んで対向するタイル同士の画素値がしきい値を越えていたために放置された画素(非タイル画素)についての補間処理、および、領域に関連付ける処理である。
詳細には、PC102は、第1に、輪郭を表示する画素の取り決めから輪郭線を逆算して求め、第2に、非タイル画素を、当該輪郭線によってどの領域に関連付けるかを定めるとともに、関連付けられた領域のタイルの画素値から補間する。
【0022】
例えば、図6(a)に示されるようにタイル化された場合に、その一部の領域Aの部分拡大図は、図6(b)に示される通りである。図6(b)において、輪郭画素はハッチングで示されているが、輪郭画素の取り決めから逆算すると、輪郭線Bは破線で示される。すなわち、輪郭線を右下方向に半画素分だけシフトさせた線上に位置する画素が輪郭画素であるから、逆に輪郭画素の中心同士を結ぶ線を、左上方向に半画素分だけシフトさせたものが輪郭線Bとなる。すでにタイルについては、いずれかの領域について関連付けられているので、ここでは、あるタイルに隣接する周縁画素から輪郭線Bの直前画素までが、当該タイルと同一領域であると関連付けられる。
【0023】
したがって、図6(b)において、輪郭線Bの外側に位置するタイルが領域cに、輪郭線Bの内側に位置するタイルが領域dに、それぞれ関連付けられているとき、非タイル画素については、輪郭線Bの外側に位置する画素については領域cに、輪郭線Bの内側に位置する画素については領域dに、それぞれ関連付けられることになる。さらに、関連付けられる画素の画素値が、近接タイルの画素値を考慮して補間して求められる。このため、タイル化された部分から、より細かい非タイル画素の画素値が算出されるので、境界部分の精細さが確保されることになる。なお、補間に際しては、既に補間した画素の画素値を考慮しても良い。
【0024】
次に、ステップS16において、PC102は、タイルおよび画素を関連付けた状態で画像データを暫定的に保存する。
そして、ステップS17において、PC102は、少なくとも2つ以上の領域を同一領域に結合する旨の指定があったか否かを判別する。ここで判別する理由は、例えば、入力画像に立体が存在する場合、当該立体における各辺は、ステップS12によって輪郭として検出されるので、当該立体の各面は、同一立体であっても画素値が相違していると、互いに異なる領域であると関連付けられる場合があるからであり、このような場合でも、ユーザは、当該立体の各面を個別に抽出するのではなく、当該立体を1つの領域として抽出したいと望むときがあり、ユーザの意図がある程度反映される余地を残す必要があるためである。
【0025】
この判別結果が肯定的であるとき、PC102は、ステップS18において、指定された領域同士を同一領域と関連付ける。詳細には、PC102は、指定された一つの領域を構成するタイルおよび画素の識別子に、指定された他の領域を構成するタイルおよび画素の識別子を変更する。これによって、指定された領域は互いに同一領域であると関連付けし直されることになる。
この後、PC102は、処理手順を再びステップS16に戻して、変更した関連付けの状態で画像データを上書きする。
一方、ステップS17において、ユーザによる領域の結合指定がないとき、この画像処理は終了する。
【0026】
<画像処理の具体例>
次に、この画像処理プログラムによる画像処理の具体例について説明する。まず、図7に示されるように、三角錐P1、円柱P2および直方体P3を含む画像が読み込まれて処理の対象となったとき(ステップS11)、図8に示されるように、当該画像の輪郭が検出される(ステップS12)。
続いて、処理対象となった画像に対し、画素がブロック化されるとともに、輪郭画素を含まないブロックがタイル化される一方、輪郭画素を含まないブロックが放置され(ステップ13)、さらに、タイル同士等の画素値が比較されて、しきい値以内であるもの同士が同一領域として関連付けられる(ステップS14)。この結果、図9に示されるように、三角錐P1の各面、円柱P2の各面、直方体P3の各面、および、これらの背景は、それぞれ互いに異なる領域として関連付けられる。なお、図9において、小矩形がタイルであり、画素についてはそれよりも微小なので図示としては省略している。またここでは、輪郭が表示されているが、輪郭を表示しなくても良い。
【0027】
タイルについての関連付けがなされると、非タイル画素の補間・関連付けがなされる(ステップS15)。詳細については上述した通りであって、当該ブロックの周縁画素から輪郭線手前までの画素が、当該周縁画素に隣接するタイルに関連付けられた領域に関連付けられるとともに、その画素値が補間される。これにより、図10に示されるように、非タイル画素が隣接タイルの画素値によって補間された状態となる。この状態で画像データが保存された(ステップS16)後に、ユーザによる領域の結合指定の有無が判別される(ステップS17)。
【0028】
この保存状態の画像データにおいて、三角錐P1の各面、円柱P2の各面、直方体P3の各面、および、これらの背景は、互いに異なる領域に関連付けられているが、ユーザは、例えば三角錐P1の各面を別々に抽出するのではなく、これらの各面により構成される三角錐P1を一体として抽出したいと考える場合もある。このような場合、ユーザは、三角錐P1の各面を結合するように指示する。この指示によって、三角錐P1の各面を構成するタイルおよび画素の識別子が同一となるように変更されて(ステップS18)、当該変更状態での画像データが上書きされる(ステップS16)。
さらにユーザが、直方体P3を一体として抽出したいと考えて、直方体P3の各面を結合するように指示したとき、直方体P3の各面を構成するタイルおよび画素の識別子が同一となるように変更されて(ステップS18)、当該変更状態での画像データが上書きされる(ステップS16)。
【0029】
このように、領域の結合指定がなされる毎に、処理手順がステップS16、S17およびS18を循環する一方、領域の結合指定されないとき(または、以降領域指定をしない旨が確認されたとき)、この画像処理が終了する。このため、最後に上書きされた状態で画像データが保存されることになる。
保存された画像データで示される画像のなかから、ユーザが所望する領域を抽出したいと考えるとき、当該画像を構成するすべてのタイルおよび画素のなかから、当該領域に関連付けられた識別子が付与されたタイルおよび画素だけを抽出すれば良い。
したがって、この画像処理の終了後に、別のアプリケーション(例えば印刷プログラム)を起動し、関連付けがなされた処理済みの画像データを開いて、ユーザに対して所望する領域を指定するように促す画面を表示させるとともに、指定された領域に関連付けられた識別子が付与されたタイルおよび画素を抽出することによって、当該領域だけをディスプレイ104に表示したり、プリンタ110に印刷したりすることが可能となる。
例えば、上述の画像の例においてユーザが三角推P1および直方体P3だけを抽出したいと考えるとき、当該三角推P1の各面に対応する識別子が付与されたタイルおよび画素と、当該直方体P3の各面に対応する識別子が付与されたタイルおよび画素とをそれぞれ抽出する処理を実行することによって、図11に示されるように所望の領域だけが抽出された画像を得ることが可能となる。
【0030】
本実施形態による画像処理装置によれば、画像に含まれる物体の輪郭として検出された画素を含まないように画素がタイル化される。このタイル化によって、ゴミやノイズなどによる影響が目立たなくなる。さらに、タイル化されない輪郭近傍の画素は、周縁画素から輪郭線手前までの画素が、当該周縁画素に隣接するタイルに関連付けられた領域に関連付けられるので、輪郭部分が鮮明になる上、その画素値が補間されるので、輪郭が見掛け上明確でない場合でも、細かく領域を抽出することが可能となる。
【0031】
なお、上述した実施形態では、検出した輪郭線を右下方向に半画素分だけシフトさせた線上に位置する画素を輪郭として表示させたが、検出した輪郭線によって区切られる領域のすぐ内側または外側に位置する画素を輪郭画素として表示する一方、周縁画素から輪郭線手前までの画素を、当該周縁画素に隣接するタイルに関連付けられた領域に関連付けられるとしたが、検出した輪郭線と、これを表示する画素との関係については、なんらかの取り決めがあれば、この取り決めにしたがう、としても良い。例えば、輪郭線によって区切られた領域のうち、最も外側または最も内側に位置する画素を輪郭画素としても良い。そもそも、輪郭画素については、いずれの領域に属するかが曖昧となりやすいので、当該輪郭画素については切り捨て、他の非タイル画素についてのみ領域への関連付ける・補間する、というオプションを選択可能としても良い。
また、非タイル画素の補間については、処理前の画素の画素値をそのまま残しても良いし、その画素値を、タイルの画素値とともに、処理前の画素の画素値を考慮して修正する、としても良い。
【0032】
【発明の効果】
以上説明したように本発明によれば、画像の中から所望の領域を、境界を鮮明に、かつ、細部の影響を少なくして、抽出することが可能となる。
【図面の簡単な説明】
【図1】 本発明の実施形態に係る画像処理装置の構成を示す図である。
【図2】 同画像処理装置の機能構成を示すブロック図である。
【図3】 同画像処理装置における画像処理の動作を示すフローチャートである。
【図4】 (a)および(b)は、それぞれ同画像処理装置における輪郭検出を説明するための図である。
【図5】 (a)および(b)は、それぞれ同画像処理装置におけるタイル化を説明するための図である。
【図6】 (a)および(b)は、それぞれ同画像処理装置における非タイル画素の補間を説明するための図である。
【図7】 同画像処理による画像を説明するための図である。
【図8】 同画像処理による画像を説明するための図である。
【図9】 同画像処理による画像を説明するための図である。
【図10】 同画像処理による画像を説明するための図である。
【図11】 同画像処理による画像を説明するための図である。
【符号の説明】
100…画像処理装置
102…PC
104…ディスプレイ
110…プリンタ
150…入力部
152…入力画像記憶部
154…画像抽出部
156…抽出画像記憶部
158…出力部[0001]
BACKGROUND OF THE INVENTION
The present invention relates to an image processing method, an image processing apparatus, an image processing program, and a recording medium for extracting a desired region from an image.
[0002]
[Prior art]
In general, as the (extracted) technique such taking out areas such as object or a person from the image, for example, 63-115279 Patent and Publication Sho include techniques disclosed in JP-A-10 -63855 . Among them, the technique described in the former publication calculates the contour of the object included in the image, calculates each area of the region delimited by the contour, and processes the region having the maximum area value as the background. The technique described in the latter publication divides an image into areas having pixels of similar colors, and allows the user to specify an area to be extracted from among these areas, and This technique also extracts a color region that approximates the region.
[0003]
[Problems to be solved by the invention]
However, in the technique of the former publication, it is not possible to extract an image (for example, a close-up image) in which the area having the maximum area is not the background, and in the technique of the latter publication, the boundary of the extracted area is not There was a drawback of being ambiguous. Thus, it can be said that there is still room for improvement as a technique for extracting a region from an image.
The present invention has been made in view of such circumstances, and an object of the present invention is to extract a desired region from an image with a clear boundary and less influence of details. An image processing method, an image processing apparatus, an image processing program, and a recording medium are provided.
[0004]
[Means for Solving the Problems]
In order to achieve the above object, an image processing method according to the present invention includes a detection step of luminance difference of pixels adjacent in the input image to detect a line connecting between the pixel exceeding the threshold value as a contour, the There is a difference in luminance between tiles that are tiled with a plurality of pixels in the input image that have a predetermined brightness so as not to include a contour line and between tiles that face each other across the contour line. When a determination process for determining whether or not the value is within the threshold value and the result of the determination is affirmative, tiles facing each other across the outline and pixels sandwiched between the tiles are defined as tiles. collectively, and the combined tile, while associated with the same area with each other, and when the determination result is negative, a different region of the facing tiles to each other across the contour Seki Together give, among among the tiles, from pixels adjacent to one of the tiles to the pixel that are separated by the contour associated with the which is one tile in the same region, among each other the tile, adjacent the other tiles And an associating process for associating the pixels from the pixel to the pixels delimited by the contour line with the same area as the other tile .
According to the present invention, the outline of the image is detected, along with the pixel to be free of the contour line is tiled, the tile between delimited by contours, the pixel value is within the threshold If there are, they are associated as the same region. Here, among the pixels sandwiched between the tiles, the peripheral pixels adjacent to the tiles to the pixels immediately before the contour line are associated with the tiles, so that the boundary portion between the regions does not become rough. Furthermore, in the portion other than the contour lines, a plurality of pixels are tiled gathered, it reduces the effect of details such as dust.
[0005]
In the present invention, in the associating process, it is preferable that the luminance of a pixel sandwiched between tiles for which the determination result is negative is estimated and changed from the luminance of adjacent tiles . Accordingly, each of the pixels is close to the color of the adjacent tile, so that the vicinity of the contour can be expressed more finely.
[0006]
In the present invention, even if the result of the determination is negative, if the user designates, the process of re-associating tiles facing each other across the contour line with each other as the same region is performed after the association process. It is preferable to have. For example, the boundary between the bottom surface and the side surface of the cone in the image is detected as a contour line , but if the degree of reflection is different, it may not be associated as the same region. Even in such a case, the bottom surface and the side surface can be extracted as the same cone.
[0007]
In the present invention, the luminance of the tile is preferably a value obtained by averaging the luminances of a plurality of pixels collected as a tile. In addition, in order to reflect the user's intention in the processed image, the user has a mode in which the user presets the luminance difference between the tiles at least before the determination step, and the pixel size to be combined in one tile is determined by the user. Is preferable to have a preset process at least before the tiling process.
[0008]
In addition to the above-described image processing method, the present invention is an image processing apparatus, an image processing program for causing a computer to function as the means as the image processing apparatus, and a recording medium on which the program is recorded In any case, a desired region can be extracted from an image with clear boundaries and less influence of details.
[0009]
DETAILED DESCRIPTION OF THE INVENTION
Hereinafter, embodiments of the present invention will be described with reference to the drawings.
[0010]
<Overall configuration>
FIG. 1 is a diagram illustrating an overall configuration of an image processing apparatus according to an embodiment. As shown in this figure, the
Among these, the PC 102 is an execution subject of an image processing program to be described later, and is connected to the
[0011]
FIG. 2 is a block diagram showing a functional configuration constructed when the PC 102 executes the image processing program. The image processing program may be downloaded from the
[0012]
In FIG. 2, an
[0013]
The
The extracted
The
[0014]
<Contents of image processing>
Next, processing contents of the image processing program executed in the PC 102 will be described. FIG. 3 is a flowchart showing details of the image processing program. First, immediately after the user starts the image processing program, for example, the
If the image data to be loaded is a format described in PDL (Page Description Language) or a vector format, the
[0015]
In step S <b> 12, the PC 102 (image extraction unit 154) detects the outline of an object (including a person) included in the image while retaining the raster format image data as it is. This contour detection is executed by the following algorithm, for example. That is, when the difference between the pixel value of the target pixel and the pixel value of the adjacent pixel exceeds a preset threshold value, it is determined that the object contour is between the target pixel and the adjacent pixel. . Here, the pixel value includes not only a coordinate value that defines the color of the pixel in various color spaces but also a value indicating luminance.
[0016]
Here, when the contour is detected on the raster image as shown in FIG. 4A, the contour line is shifted by half a pixel in the lower right direction as shown in FIG. 4B. Assuming a line (white thick broken line), pixels located on the line are displayed as, for example, black as contour pixels.
4 (a) and 4 (b), only the arrangement of the pixels is shown for the sake of explanation, and information on the colors inherent to the pixels is omitted except for the black color described here ( The same applies to FIGS. 5 and 6). Further, since the raster format image data is held as it is separately from the display of the contour, just because the contour pixel is blackened, the information about the original color is not lost.
[0017]
Next, in step S13, the
In the present embodiment, as a method of combining nine pixels into one tile, in this embodiment, a value obtained by averaging the pixel values of the pixels for the nine pixels constituting the tile is obtained, and the average value is calculated as the nine pixels. It is supposed to reset to a new pixel value. As a result, the nine pixels have the same color, which is substantially the same as the process of replacing the nine pixels with one new pixel.
[0018]
When extracting a fine region, it is desirable to reduce the size of one tile, and when extracting a large region that wraps a fine portion, it is desirable to increase the size of one tile. . Therefore, after detecting the outline and before tiling, the
[0019]
After the tiling, in step S14, the
Here, the
Further, the
[0020]
The association between the same region and the different region is performed by, for example, assigning an identifier for individually identifying the region to each of the tile or the pixel (not tiled). . That is, the same identifier is assigned to tiles or pixels that display the same area, and different identifiers are assigned to tiles or pixels that display different areas.
Here, the pixel values of adjacent tiles and the tiles facing each other across the contour pixel are compared to determine whether or not the tiles are associated with each other. Therefore, without comparing pixel values (or considering the comparison result between pixel values), the region closed by the detected contour is set as the same region, but is separated by a certain contour. These two regions may be associated as different regions.
[0021]
Next, in step S15, the
Specifically, the
[0022]
For example, when tiled as shown in FIG. 6A, a partially enlarged view of a partial region A is as shown in FIG. 6B. In FIG. 6B, the contour pixel is indicated by hatching, but the contour line B is indicated by a broken line when calculated backward from the contour pixel arrangement. That is, since the pixel located on the line obtained by shifting the contour line by a half pixel in the lower right direction is the contour pixel, the line connecting the centers of the contour pixels is shifted by the half pixel in the upper left direction. Things become the contour line B. Since the tile has already been associated with any region, here, the peripheral pixels adjacent to a certain tile to the pixel immediately before the contour line B are associated with the same region as the tile.
[0023]
Therefore, in FIG. 6B, when the tile located outside the contour line B is associated with the region c and the tile located inside the contour line B is associated with the region d, Pixels located outside the contour line B are associated with the region c, and pixels located inside the contour line B are associated with the region d. Further, the pixel value of the associated pixel is obtained by interpolation in consideration of the pixel value of the adjacent tile. For this reason, since the finer pixel value of the non-tile pixel is calculated from the tiled portion, the fineness of the boundary portion is ensured. In the interpolation, the pixel value of the already interpolated pixel may be taken into consideration.
[0024]
Next, in step S16, the
In step S <b> 17, the
[0025]
If the determination result is affirmative, the
Thereafter, the
On the other hand, when there is no area combination designation by the user in step S17, the image processing is ended.
[0026]
<Specific examples of image processing>
Next, a specific example of image processing by this image processing program will be described. First, as shown in FIG. 7, when an image including a triangular pyramid P1, a cylinder P2, and a rectangular parallelepiped P3 is read and processed (step S11), as shown in FIG. Is detected (step S12).
Subsequently, for the image to be processed, pixels are blocked and blocks that do not include contour pixels are tiled, while blocks that do not include contour pixels are left alone (step 13). Pixel values such as each other are compared, and those within the threshold value are associated as the same region (step S14). As a result, as shown in FIG. 9, each surface of the triangular pyramid P1, each surface of the cylinder P2, each surface of the rectangular parallelepiped P3, and their backgrounds are associated with each other as different regions. In FIG. 9, the small rectangle is a tile, and the pixel is much smaller than that, and is not shown in the figure. Here, the outline is displayed, but the outline may not be displayed.
[0027]
When the association is made for the tile, the non-tile pixel is interpolated / associated (step S15). The details are as described above. The pixels from the peripheral pixel of the block to the front of the contour line are associated with the region associated with the tile adjacent to the peripheral pixel, and the pixel value is interpolated. As a result, as shown in FIG. 10, the non-tile pixel is interpolated by the pixel value of the adjacent tile. After the image data is stored in this state (step S16), it is determined whether or not the user has designated to combine the regions (step S17).
[0028]
In this stored image data, each face of the triangular pyramid P1, each face of the cylinder P2, each face of the rectangular parallelepiped P3, and their backgrounds are associated with different regions. In some cases, instead of extracting each surface of P1 separately, it may be desirable to extract the triangular pyramid P1 formed by these surfaces as a unit. In such a case, the user instructs to join the faces of the triangular pyramid P1. By this instruction, the tiles and pixels constituting each face of the triangular pyramid P1 are changed to have the same identifier (step S18), and the image data in the changed state is overwritten (step S16).
Furthermore, when the user wants to extract the rectangular parallelepiped P3 as one body and instructs to combine the faces of the rectangular parallelepiped P3, the identifiers of tiles and pixels constituting each face of the rectangular parallelepiped P3 are changed to be the same. (Step S18), the image data in the changed state is overwritten (step S16).
[0029]
In this way, each time a region combination is designated, the processing procedure circulates through steps S16, S17, and S18. On the other hand, when region combination is not designated (or when it is confirmed that no region designation is performed thereafter), This image processing ends. For this reason, the image data is stored in the state of being overwritten last.
When the user wants to extract a desired area from the image indicated by the stored image data, an identifier associated with the area is given from all the tiles and pixels constituting the image. Only tiles and pixels need to be extracted.
Therefore, after this image processing is completed, another application (for example, a printing program) is started, the processed image data that has been associated is opened, and a screen that prompts the user to specify a desired area is displayed. In addition, by extracting the tiles and pixels to which the identifiers associated with the designated area are extracted, only the area can be displayed on the
For example, when the user wants to extract only the triangular guess P1 and the rectangular parallelepiped P3 in the above-described image example, tiles and pixels to which identifiers corresponding to the faces of the triangular guess P1 are assigned, and the faces of the rectangular parallelepiped P3. By executing the process of extracting each of the tile and the pixel assigned the identifier corresponding to, it is possible to obtain an image in which only a desired region is extracted as shown in FIG.
[0030]
According to the image processing apparatus according to the present embodiment, the pixels are tiled so as not to include the pixels detected as the contour of the object included in the image. This tiling makes the effects of dust and noise less noticeable. Furthermore, the pixels near the contour that are not tiled are related to the region associated with the tile adjacent to the peripheral pixel from the peripheral pixel to the pixel in front of the contour line. Are interpolated, so that even if the contour is not clearly apparent, it is possible to extract a region finely.
[0031]
In the above-described embodiment, the pixels positioned on the line obtained by shifting the detected contour line by a half pixel in the lower right direction are displayed as the contour. However, the inner side or the outer side of the region delimited by the detected contour line The pixels from the peripheral pixel to the front of the contour line are associated with the region associated with the tile adjacent to the peripheral pixel. With respect to the relationship with the pixels to be displayed, if there is any agreement, it is possible to follow this agreement. For example, a pixel located on the outermost side or the innermost side in the region divided by the contour line may be used as the contour pixel. In the first place, since it is ambiguous which region the contour pixel belongs to, it may be possible to select an option of discarding the contour pixel and associating / interpolating only other non-tile pixels with the region.
For interpolation of non-tile pixels, the pixel value of the pixel before processing may be left as it is, and the pixel value is corrected in consideration of the pixel value of the pixel before processing together with the pixel value of the tile. It is also good.
[0032]
【The invention's effect】
As described above, according to the present invention, it is possible to extract a desired region from an image with clear boundaries and less influence of details.
[Brief description of the drawings]
FIG. 1 is a diagram illustrating a configuration of an image processing apparatus according to an embodiment of the present invention.
FIG. 2 is a block diagram showing a functional configuration of the image processing apparatus.
FIG. 3 is a flowchart showing an image processing operation in the image processing apparatus.
4A and 4B are diagrams for explaining contour detection in the image processing apparatus, respectively. FIG.
FIGS. 5A and 5B are diagrams for explaining tiling in the image processing apparatus. FIG.
FIGS. 6A and 6B are diagrams for explaining interpolation of non-tile pixels in the image processing apparatus, respectively.
FIG. 7 is a diagram for explaining an image by the image processing.
FIG. 8 is a diagram for explaining an image by the image processing.
FIG. 9 is a diagram for explaining an image by the image processing.
FIG. 10 is a diagram for explaining an image by the image processing.
FIG. 11 is a diagram for explaining an image by the image processing.
[Explanation of symbols]
100: Image processing apparatus 102: PC
104 ... Display 110 ...
Claims (9)
前記輪郭線を含まないように、前記入力画像における画素を複数個毎にまとめて輝度を所定値としたタイルにするタイル化過程と、
前記輪郭線を挟んで対向するタイル同士の輝度の差がしきい値以内であるか否かを判別する判別過程と、
前記判別の結果が肯定的であるとき、前記輪郭線を挟んで対向するタイル同士と、当該タイル同士の各々によって挟まれる画素をタイルにまとめて、このまとめたタイルとを、互いに同一領域であると関連付ける一方、
前記判別の結果が否定的であるとき、前記輪郭線を挟んで対向するタイル同士を互いに異なる領域であると関連付けるとともに、当該タイル同士のうち、一方のタイルに隣接する画素から前記輪郭線で区切られる画素までを、前記一方のタイルと同一領域であると関連付け、当該タイル同士のうち、他方のタイルに隣接する画素から前記輪郭線で区切られる画素までを、前記他方のタイルと同一領域であると関連付ける関連付け過程と
を有することを特徴とする画像処理方法。A detection process for detecting a line connecting pixels whose luminance difference between adjacent pixels exceeds a threshold in the input image as a contour line ;
A tiling process to make a tile having a predetermined brightness by collecting a plurality of pixels in the input image so as not to include the contour line ;
A discriminating process for discriminating whether or not a difference in luminance between tiles facing each other across the outline is within a threshold value;
When the judgment result is affirmative, the tiles facing each other across the contour, collectively pixels sandwiched by each among the tiles to the tile, and the combined tile is identical areas from each other While associating with
When the determination result is negative, the tiles facing each other across the contour line are associated with different regions, and the tiles are separated from the pixels adjacent to one tile by the contour line. Are associated with the same area as the one tile, and among the tiles, pixels adjacent to the other tile to pixels separated by the contour line are the same area as the other tile. And an associating process for associating with the image processing method.
ことを特徴とする請求項1に記載の画像処理方法。2. The image processing according to claim 1, wherein in the associating process, the luminance of a pixel sandwiched between tiles for which the determination result is negative is estimated and changed from the luminance of adjacent tiles. Method.
ことを特徴とする請求項1に記載の画像処理方法。Even if the result of the determination is negative, if specified by the user, a process of re-associating tiles facing each other across the contour line with each other as the same area is included after the association process. The image processing method according to claim 1, wherein:
ことを特徴とする請求項1に記載の画像処理方法。The image processing method according to claim 1, wherein the luminance of the tile is a value obtained by averaging the luminances of a plurality of pixels collected as a tile.
ことを特徴とする請求項1に記載の画像処理方法。The image processing method according to claim 1, further comprising: a step in which the user presets the threshold value at least before the determination step.
ことを特徴とする請求項1に記載の画像処理方法。The image processing method according to claim 1, further comprising: a step in which a user presets pixel sizes to be combined into one tile at least before the tiling step.
前記輪郭線を含まないように、前記入力画像における画素を複数個毎にまとめて輝度を所定値としたタイルにするタイル化手段と、
前記輪郭線を挟んで対向するタイル同士の輝度の差がしきい値以内であるか否かを判別する判別手段と、
前記判別の結果が肯定的であるとき、前記輪郭線を挟んで対向するタイル同士と、当該タイル同士の各々によって挟まれる画素をタイルにまとめて、このまとめたタイルとを、互いに同一領域であると関連付ける一方、
前記判別の結果が否定的であるとき、前記輪郭線を挟んで対向するタイル同士を互いに異なる領域であると関連付けるとともに、当該タイル同士のうち、一方のタイルに隣接する画素から前記輪郭線で区切られる画素までを、前記一方のタイルと同一領域であると関連付け、当該タイル同士のうち、他方のタイルに隣接する画素から前記輪郭線で区切られる画素までを、前記他方のタイルと同一領域であると関連付ける関連付け手段と
を有することを特徴とする画像処理装置。Detecting means for detecting, as an outline, a line connecting pixels whose luminance difference between adjacent pixels exceeds a threshold in the input image;
Tiling means that tiles the pixels in the input image into a plurality of pixels with a predetermined brightness so as not to include the contour line ; and
A discriminating means for discriminating whether or not a difference in luminance between tiles facing each other across the outline is within a threshold value;
When the judgment result is affirmative, the tiles facing each other across the contour, collectively pixels sandwiched by each among the tiles to the tile, and the combined tile is identical areas from each other While associating with
When the determination result is negative, the tiles facing each other across the contour line are associated with different regions, and the tiles are separated from the pixels adjacent to one tile by the contour line. Are associated with the same area as the one tile, and among the tiles, pixels adjacent to the other tile to pixels separated by the contour line are the same area as the other tile. And an associating means for associating with the image processing apparatus.
入力画像において隣接する画素の輝度差がしきい値を超える画素の間を結んだ線を輪郭線として検出する検出手段、
前記輪郭線を含まないように、前記入力画像における画素を複数個毎にまとめて輝度を所定値としたタイルにするタイル化手段と、
前記輪郭線を挟んで対向するタイル同士の輝度の差がしきい値以内であるか否かを判別する判別手段、および、
前記判別の結果が肯定的であるとき、前記輪郭線を挟んで対向するタイル同士と、当該タイル同士の各々によって挟まれる画素をタイルにまとめて、このまとめたタイルとを、互いに同一領域であると関連付ける一方、
前記判別の結果が否定的であるとき、前記輪郭線を挟んで対向するタイル同士を互いに異なる領域であると関連付けるとともに、当該タイル同士のうち、一方のタイルに隣接する画素から前記輪郭線で区切られる画素までを、前記一方のタイルと同一領域であると関連付け、当該タイル同士のうち、他方のタイルに隣接する画素から前記輪郭線で区切られる画素までを、前記他方のタイルと同一領域であると関連付ける関連付け手段
として機能させるための画像処理プログラム。Computer
Detecting means for detecting, as an outline, a line connecting pixels whose luminance difference between adjacent pixels exceeds a threshold in the input image;
Tiling means that tiles the pixels in the input image into a plurality of pixels with a predetermined brightness so as not to include the contour line ; and
A discriminating means for discriminating whether or not a difference in luminance between tiles facing each other across the contour line is within a threshold value; and
When the judgment result is affirmative, the tiles facing each other across the contour, collectively pixels sandwiched by each among the tiles to the tile, and the combined tile is identical areas from each other While associating with
When the determination result is negative, the tiles facing each other across the contour line are associated with different regions, and the tiles are separated from the pixels adjacent to one tile by the contour line. Are associated with the same area as the one tile, and among the tiles, pixels adjacent to the other tile to pixels separated by the contour line are the same area as the other tile. the image processing program for functioning as an association means for associating with.
入力画像において隣接する画素の輝度差がしきい値を超える画素の間を結んだ線を輪郭線として検出する検出手段、
前記輪郭線を含まないように、前記入力画像における画素を複数個毎にまとめて輝度を所定値としたタイルにするタイル化手段と、
前記輪郭線を挟んで対向するタイル同士の輝度の差がしきい値以内であるか否かを判別する判別手段、および、
前記判別の結果が肯定的であるとき、前記輪郭線を挟んで対向するタイル同士と、当該タイル同士の各々によって挟まれる画素をタイルにまとめて、このまとめたタイルとを、互いに同一領域であると関連付ける一方、
前記判別の結果が否定的であるとき、前記輪郭線を挟んで対向するタイル同士を互いに異なる領域であると関連付けるとともに、当該タイル同士のうち、一方のタイルに隣接する画素から前記輪郭線で区切られる画素までを、前記一方のタイルと同一領域であると関連付け、当該タイル同士のうち、他方のタイルに隣接する画素から前記輪郭線で区切られる画素までを、前記他方のタイルと同一領域であると関連付ける関連付け手段
として機能させるための画像処理プログラムを記録したコンピュータ読み取り可能な記録媒体。Computer
Detecting means for detecting, as an outline, a line connecting pixels whose luminance difference between adjacent pixels exceeds a threshold in the input image;
Tiling means that tiles the pixels in the input image into a plurality of pixels with a predetermined brightness so as not to include the contour line ; and
A discriminating means for discriminating whether or not a difference in luminance between tiles facing each other across the contour line is within a threshold value; and
When the judgment result is affirmative, the tiles facing each other across the contour, collectively pixels sandwiched by each among the tiles to the tile, and the combined tile is identical areas from each other While associating with
When the determination result is negative, the tiles facing each other across the contour line are associated with different regions, and the tiles are separated from the pixels adjacent to one tile by the contour line. Are associated with the same area as the one tile, and among the tiles, pixels adjacent to the other tile to pixels separated by the contour line are the same area as the other tile. The computer-readable recording medium which recorded the image processing program for functioning as a correlation means linked | related with.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2002032480A JP3951732B2 (en) | 2002-02-08 | 2002-02-08 | Image processing method, image processing apparatus, image processing program, and recording medium |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2002032480A JP3951732B2 (en) | 2002-02-08 | 2002-02-08 | Image processing method, image processing apparatus, image processing program, and recording medium |
Publications (3)
Publication Number | Publication Date |
---|---|
JP2003233819A JP2003233819A (en) | 2003-08-22 |
JP2003233819A5 JP2003233819A5 (en) | 2005-06-30 |
JP3951732B2 true JP3951732B2 (en) | 2007-08-01 |
Family
ID=27775589
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2002032480A Expired - Fee Related JP3951732B2 (en) | 2002-02-08 | 2002-02-08 | Image processing method, image processing apparatus, image processing program, and recording medium |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP3951732B2 (en) |
Families Citing this family (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US8417033B2 (en) * | 2007-04-27 | 2013-04-09 | Hewlett-Packard Development Company, L.P. | Gradient based background segmentation and enhancement of images |
Family Cites Families (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPH0830787A (en) * | 1994-05-10 | 1996-02-02 | Fuji Xerox Co Ltd | Image area dividing method and image area integrating method |
JPH1051770A (en) * | 1996-08-05 | 1998-02-20 | N T T Data Tsushin Kk | Image coding system and method, and image division system |
JP3189870B2 (en) * | 1996-12-24 | 2001-07-16 | シャープ株式会社 | Image processing device |
JP3918141B2 (en) * | 1999-08-18 | 2007-05-23 | 富士フイルム株式会社 | Image processing apparatus and image processing method |
-
2002
- 2002-02-08 JP JP2002032480A patent/JP3951732B2/en not_active Expired - Fee Related
Also Published As
Publication number | Publication date |
---|---|
JP2003233819A (en) | 2003-08-22 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP4491129B2 (en) | Color gamut mapping method and apparatus using local area information | |
JP4042563B2 (en) | Image noise reduction | |
TWI467495B (en) | Edge mapping using panchromatic pixels | |
TWI430184B (en) | Edge mapping incorporating panchromatic pixels | |
US9053556B2 (en) | Image processing apparatus for panoramic synthesis of a plurality of sub-images | |
JP4431949B2 (en) | Red-eye correction method and apparatus for carrying out this method | |
JP4539318B2 (en) | Image information evaluation method, image information evaluation program, and image information evaluation apparatus | |
JP2005310068A (en) | Method for correcting white of eye, and device for executing the method | |
JP4529888B2 (en) | Image processing apparatus, image processing method, and image processing program | |
JP2006025139A (en) | Image processor, image processing method and program | |
US20050226503A1 (en) | Scanned image content analysis | |
JP4900175B2 (en) | Image processing apparatus and method, and program | |
JP3951732B2 (en) | Image processing method, image processing apparatus, image processing program, and recording medium | |
JP3820751B2 (en) | Image processing apparatus and method, and recording medium on which image processing program is recorded | |
JP4304846B2 (en) | Image processing method and recording medium recording image processing program | |
JP2001307109A (en) | Method and device for processing image and recording medium | |
JP2000013596A (en) | Device and method for processing image and recording medium with image processing program recorded there | |
JP2003219180A (en) | Image processing method, image processing device, recording medium capable of reading computer and computer program | |
JP2006113658A (en) | Image processing apparatus and method, and storage medium with program recorded thereon | |
JP4189654B2 (en) | Image processing device | |
JP4219577B2 (en) | Image processing apparatus, image output apparatus, image processing method, and storage medium | |
JP2003274180A (en) | Image processor, image processing method, printer driver, computer readable storage medium and computer program | |
JP4084537B2 (en) | Image processing apparatus, image processing method, recording medium, and image forming apparatus | |
US20080266611A1 (en) | Image Processing Device and Image Processing Method | |
JP2000013612A (en) | Device and method for image processing and recording medium recorded with image processing program |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A521 | Written amendment |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20041020 |
|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20041020 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20070109 |
|
A521 | Written amendment |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20070309 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20070403 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20070416 |
|
R150 | Certificate of patent or registration of utility model |
Free format text: JAPANESE INTERMEDIATE CODE: R150 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20110511 Year of fee payment: 4 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20120511 Year of fee payment: 5 |
|
LAPS | Cancellation because of no payment of annual fees |