JP2004021374A - Image processing method, image processing device, program, and storage medium - Google Patents
Image processing method, image processing device, program, and storage medium Download PDFInfo
- Publication number
- JP2004021374A JP2004021374A JP2002172343A JP2002172343A JP2004021374A JP 2004021374 A JP2004021374 A JP 2004021374A JP 2002172343 A JP2002172343 A JP 2002172343A JP 2002172343 A JP2002172343 A JP 2002172343A JP 2004021374 A JP2004021374 A JP 2004021374A
- Authority
- JP
- Japan
- Prior art keywords
- image
- correction
- image quality
- corrected
- interest
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
Images
Landscapes
- Image Processing (AREA)
- Picture Signal Circuits (AREA)
- Facsimile Image Signal Circuits (AREA)
Abstract
Description
【0001】
【発明の属する技術分野】
本発明は、デジタルカメラなどで撮影された画像あるいはネガフィルムなどをフィルムスキャナなどで入力した画像などのデジタル処理にて取得した画像(以下デジタル画像という)に対して、より好ましい画質となるように補正処理を施す方法および装置、並びにプログラムおよび当該プログラムを格納したコンピュータ読取り可能な記憶媒体に関する。
【0002】
【従来の技術】
デジタル処理にて取得したデジタル画像に対して、たとえば画像の明るさやコントラスト状況あるいはカラーバランスなどの特徴量を解析し、それら特徴量の偏りをたとえば撮影時の不具合と判断し、画像全体が標準的な特徴量分布を持つように補正する技術がある。また、被写体が人物中心であるとか、風景などであるといった撮影シーンに応じた画像補正処理を実現するために、画像内から主要オブジェクトの有無や主要オブジェクトの領域を検出し、主要オブジェクトとそれ以外を区別した補正方法を適用したり、主要オブジェクトに基づいてパラメータを変更した画像処理を行なう補正方法もある。このように、従来より、デジタル画像に対して、より好ましい画質となるように補正処理を施す技術が広く知られている。
【0003】
【発明が解決しようとする課題】
画像全体が標準的な特徴量分布を持つように補正する技術は、たとえば、画像全体の画素の明るさの平均が50/100(“0”が暗く“100”が明るいとする)であると想定し、入力画像の分布平均が“30/100”などと解析できた場合に、結果的に“50/100”に近づくように階調変換などの画処理を施すというような補正方法である。
【0004】
しかしながらこの方法は、全体画像の特徴をもとに全体の画像を補正するものであり、全体に一様な補正を施すことになるので、画像の主要部分である注目オブジェクトが必ずしも好適とならないことがある。たとえば、撮影時の極端な露出不足やカラーバランスの偏りなどの不具合を想定して補正できる効果は高いが、撮影シーンや主要被写体の背景の状態に影響されて注目オブジェクト部分の補正がうまくいかない場合がある。
【0005】
また、画像内から主要オブジェクトの有無や主要オブジェクトの領域を検出して処理を施す補正方法は、画像内で人間がもっとも注視する注目オブジェクトを中心に補正するということでより効果的であるが、主要オブジェクトだけに注目して補正してしまうことで、主要被写体は適正な補正であるもの、全体画像がその補正に影響を受けて背景画像が不適当な補正になる場合がある。たとえば顔領域や肌領域などを抽出し、該領域をもとに補正パラメータを決定し、全体画像を補正すると、顔領域や肌領域は好適に補正されるが顔以外は不適正になる。
【0006】
また、全体画像の特徴をもとに全体の画像を補正した後、さらに主要オブジェクトの領域を検出して該当領域のみに補正処理を施す方法もあるが、主要オブジェクトの領域を検出して該当領域のみ補正をかけると主要オブジェクトだけが強調され、全体の絵としてのバランスが崩れて違和感のある画像となってしまうことがある。たとえば、写真画像に対して全体補正を施した後に、顔部分を認識し、顔中心の補正パラメータを算出し、さらに顔部記憶色補正を組み合わせて補正する手法が写真プリンタで確立されている。この方法の補正処理自体は理想的であるが、領域認識した個所としない個所との補正ギャップが大きく、境界部での補正の連続性が劣るという問題や認識精度が求められるなどの不具合がある。
【0007】
また、デジタルカメラで撮影された画像に対する画質補正処理の一手法として、注目オブジェクトの中心ほど補正効果が高い固定マスク(中央中心)を用いた補正の手法もある。この方法は、注目オブジェクトとこの注目オブジェクトを除く部分との境界部での補正の連続性は比較的良好であるが、注目オブジェクト中心やその近傍のみが補正され背景部などには補正が施されないので、全体としては必ずしも好適な補正とならない。
【0008】
つまり従来技術では、デジタル画像中の注目オブジェクトとそれ以外の部分の双方を好適に補正するとともに、注目オブジェクトとそれ以外の部分との境界部分に補正ギャップが生じないようにすることはできていない。
【0009】
本発明は、上記事情に鑑みてなされたものであり、注目オブジェクトやこの注目オブジェクトを除く部分を好適に補正するとともに、注目オブジェクトとこの注目オブジェクトを除く部分との境界部での補正の連続性も良好となる画像処理方法および装置を提供することを目的とする。また本発明は、画像処理方法や装置を、電子計算機を用いてソフトウェアで実現するために好適なプログラムおよび当該プログラムを格納したコンピュータ読取り可能な記憶媒体を提供することを目的とする。
【0010】
【課題を解決するための手段】
すなわち、本発明に係る画像処理方法は、画像に含まれる注目オブジェクトに対して所望の画質補正処理を施すとともに注目オブジェクトを除く部分に対しても所望の画質補正処理を施す画像処理方法において、先ず、注目オブジェクトの特徴に基づいて当該注目オブジェクトに合致した画質補正処理のための画質パラメータの注目オブジェクトに対する参照度合いを示す分布であって、注目オブジェクトの中心ほど参照度合いが強い補正適用強度分布を決定する。
【0011】
そして、注目オブジェクトの特徴に基づいて当該注目オブジェクトに合致した画質補正処理のための画質パラメータを決定し、この決定した画質パラメータを補正適用強度分布に基づいて調整し、この調整した画質パラメータに従って注目オブジェクトに対して前記画質補正処理を施して補正済の第1の画像を取得する。さらに、補正済の第1の画像とは異なる画像であって、少なくとも注目オブジェクトを除く部分に対して所望の画質補正処理を施して補正済の第2の画像を取得し、補正済の第1の画像と補正済の第2の画像とを合成して補正済の全体画像を取得する。
【0012】
本発明に係る画像処理装置は、前記本発明に係る画像処理方法を実施する装置であって、目オブジェクトの特徴に基づいて、当該注目オブジェクトに合致した画質補正処理のための画質パラメータの注目オブジェクトに対する参照度合いを示す分布であって、注目オブジェクトの中心ほど参照度合いが強い第1の補正適用強度分布を決定する補正適用強度分布生成部と、注目オブジェクトの特徴に基づいて当該注目オブジェクトに合致した画質補正処理のための画質パラメータを決定し、この決定した画質パラメータを補正適用強度分布生成部が決定した第1の補正適用強度分布に基づいて調整し、この調整した画質パラメータに従って少なくとも注目オブジェクトに対して画質補正処理を施して第1の補正済画像を取得する第1補正部を備えた。また画像処理装置は、第1補正部が生成した第1の補正済画像とは異なる画像であって、少なくとも注目オブジェクトを除く部分に対して所望の画質補正処理を施して第2の補正済画像を取得する第2補正部と、第1補正部が生成した第1の補正済画像と第2補正部が生成した第2の補正済画像とを合成して補正済の全体画像を取得する合成処理部とを備えた。
【0013】
また従属項に記載された発明は、本発明に係る画像処理装置のさらなる有利な具体例を規定する。さらに、本発明に係るプログラムは、本発明に係る画像処理装置を、電子計算機(コンピュータ)を用いてソフトウェアで実現するために好適なものである。なお、プログラムは、コンピュータ読取り可能な記憶媒体に格納されて提供されてもよいし、有線あるいは無線による通信手段を介して配信されてもよい。
【0014】
【作用】
上記構成において、補正適用強度分布生成部は、画像中の注目オブジェクトの特徴を解析して注目オブジェクトに合致した補正適用強度分布を作成する。第1補正部は、注目オブジェクトに合致した画質パラメータを決定し、この決定した画質パラメータを補正適用強度分布生成部が決定した補正適用強度分布に基づいて調整し、この調整後の補正パラメータに従って注目オブジェクトを中心として画質補正処理を施すことで、第1の補正済画像を取得する。
【0015】
一方、第2補正部は、第1補正部が生成した第1の補正済画像とは異なる画像であって、少なくとも注目オブジェクトを除く部分に対して所望の画質補正処理を施して第2の補正済画像を取得する。そして、合成処理部は、第1および第2の補正済画像を合成して補正済の全体画像を取得することで、主要な被写体を中心とした画像補正と背景などの全体の画像補正とのバランスのとれた効果的な画像補正とを実現する。
【0016】
【発明の実施の形態】
以下、図面を参照して本発明の実施の形態について詳細に説明する。
【0017】
図1は、本発明に係る画像処理装置の第1実施形態の構成例を示すブロック図である。なお以下の説明では、デジタルカメラでの撮影画像の想定で、注目オブジェクトとして1人の人物が主要被写体として撮影された画像であって、全体にややアンダーな露出で且つ人物の顔領域も逆光状態で暗くなっている画像を入力画像Ginとして取り扱う例で説明する。
【0018】
第1実施形態の画像処理装置1は、入力画像Ginを取り込む画像入力部3と、予め記憶用意されている識別対象物オブジェクトや領域情報に基づいて注目オブジェクトを自動認識をし、そのオブジェクト領域を抽出するオブジェクト領域認識抽出部10とを備える。本実施形態では、人物の顔領域を認識対象オブジェクトとしているため、オブジェクト領域認識抽出部10は、顔領域の中心座標とその大きさなどの範囲を示す情報などを取得する。なお、このオブジェクト領域認識抽出部10によるオブジェクトの自動認識機能は、たとえば特開平9−138470号などに記載の公知の方法を用いるとよい。
【0019】
画像入力部3としては、デジタルカメラで使用される記憶媒体(たとえばフラッシュメモリなど)から撮影済みのデジタル画像を取り込む仕組みの構成要素が使用される。たとえば、デジタルカメラとUSB(Universal Serial Bus)ケーブルで直接に接続する構成とし、デジタルカメラ内の記憶媒体からデジタル画像を吸い出す構成のものであってもよい。勿論、デジタルカメラで取得された画像を写真プリントにし、この写真プリントをスキャナで読み取ることで入力画像Ginを取得するものであってもよい。さらには、デジタルカメラではなく、従来からある写真フィルムを使用するアナログカメラを利用する場合には、写真プリントをスキャナで読み取る構成や、ネガフィルムもしくはポジフィルムをフィルムスキャナで読み取る構成としてもよい。
【0020】
また画像処理装置1は、オブジェクト領域認識抽出部10で認識されたオブジェクト領域の画像特徴を解析して該オブジェクト領域を中心とした好適な画像補正を実施するオブジェクト中心部分補正部20と、入力画像Ginの全体の画像特徴や主に認識されたオブジェクト以外の領域(背景という)の画像特徴を解析して該背景を中心とした画像補正を実施するオブジェクト除外部分補正部30とを備える。オブジェクト中心部分補正部20は、本発明に係る第1補正部の一例であり、オブジェクト除外部分補正部30は、本発明に係る第2補正部の一例である。
【0021】
オブジェクト部分補正部24や背景部分補正部34における補正処理としては、入力画像Ginに含まれる注目オブジェクトの明度や色情報が適正となり、且つ、注目オブジェクトを除く背景部分の明度や色情報も適正となる補正とする。たとえば写真画像であれば、注目オブジェクトと背景部分の双方がそれぞれ見栄えがよくなるような補正を施す。具体的には、高周波数成分抽出処理、ノイズ抑制シャープネス強調処理、階調変換(ガンマ変換)処理、あるいは色調補正処理などの画質補正処理である。なお、たとえば逆光補正や赤目補正などもこの補正処理に含む。本実施形態では、デジタルカメラで撮影された入力画像Ginが、注目オブジェクトとしての主要被写体である人物を含み、全体にややアンダーな露出で且つ人物の顔領域も逆光状態で暗くなっているので、背景部分も含む全体の濃度をやや明るめに補正する、主に濃度(階調)についての補正処理が実行されることになる。
【0022】
さらに画像処理装置1は、オブジェクト中心部分補正部20やオブジェクト除外部分補正部30における補正処理にて使用される種々のパラメータを生成する多値マスク生成部60、およびオブジェクト中心部分補正部20により補正されたオブジェクト中心画像とオブジェクト除外部分補正部30により補正されたオブジェクト除外画像とを50%対50%で合成することで出力画像Gout を生成する合成処理部70を備える。
【0023】
多値マスク生成部60は、入力画像Ginの注目オブジェクトを中心とした階調を有するマスクパターン(多値マスク)を作成し、このマスクパターンをオブジェクト中心部分補正部20やオブジェクト除外部分補正部30に設定する。このため、本実施形態の多値マスク生成部60は、オブジェクト中心部分補正部20用の補正適用強度分布を生成するとともに、これとはほぼ逆特性を呈する、オブジェクト除外部分補正部30用の補正適用強度分布を生成する強度補正適用強度分布生成部62と、オブジェクト部分補正部24から出力される補正済みのオブジェクト中心画像を表す画像データの強度分布を生成するとともに、これとはほぼ逆特性を呈する、オブジェクト除外部分補正部30から出力される補正済みのオブジェクト除外画像を表す画像データの強度分布を生成する画像出力強度分布生成部66とを有する。
【0024】
本実施形態では、人物の顔領域を認識対象オブジェクトとしているため、補正適用強度分布生成部62や画像出力強度分布生成部66は、顔領域の中心座標とその大きさなどの範囲を示すオブジェクト領域認識抽出部10により取得された情報に基づいて、オブジェクトを中心として漸次その強度が変化する特性を呈する補正適用強度分布や画像データ強度分布を決定する。たとえば、オブジェクト部分補正部24から合成処理部70に入力されるオブジェクト中心画像としては、オブジェクトの中心が一番強く残り、徐々に画像データがなくなる(データで“0”となる)ような強度分布にする。
【0025】
そしてこれとは逆に、背景部分補正部34から合成処理部70に入力されるオブジェクト除外画像としては、オブジェクトの中心が殆ど残らずに(データで“0”となるように)、且つ背景部分に近くなるにつれて徐々に画像データが現れるような強度分布にする。あるいは、オブジェクト部分と背景部分のそれぞれにおいて異なる強度を呈するとともに、各部分では、場所によらず均一な強度分布を呈するものとしてもよい。
【0026】
オブジェクト中心部分補正部20は、注目オブジェクトに適した補正パラメータを生成するとともに、この生成した補正パラメータを補正適用強度分布生成部62により生成されたオブジェクト中心部分補正部20用の補正適用強度分布に従って変更(修正)するパラメータ生成部22と、このパラメータ生成部22により生成された補正パラメータに従って入力画像Ginに対して補正を施すオブジェクト部分補正部24とを有する。オブジェクト部分補正部24から出力される画質補正済みの画像であるオブジェクト中心画像は、本発明に係る第1の補正済画像の一例である。
【0027】
同様に、オブジェクト除外部分補正部30は、背景部分に適した補正パラメータを生成するとともに、生成した補正パラメータを補正適用強度分布生成部62により生成されたオブジェクト除外部分補正部30用の補正適用強度分布に従って変更(修正)するパラメータ生成部32と、このパラメータ生成部32により生成された補正パラメータに従って、入力画像Ginに対して補正を施す背景部分補正部34とを有する。背景部分補正部34から出力される画質補正済みの画像であるオブジェクト除外画像は、本発明に係る第2の補正済画像のうちの一方の補正済画像の一例である。
【0028】
オブジェクト部分補正部24は、画質補正済みの画像であるオブジェクト中心画像を表す画像データを合成処理部70に出力するに際し、高周波数成分抽出処理、ノイズ抑制シャープネス強調処理、階調変換処理、あるいは色調補正処理などの画質補正処理が施された画像に対してさらに、画像出力強度分布生成部66にて生成されたオブジェクト部分補正部24用の強度分布に従って画像データの強度(すなわち個々の画素データのレベル)を補正し、この強度補正後のオブジェクト中心画像を合成処理部70に入力する。
【0029】
同様に、背景部分補正部34は、画質補正済みの画像であるオブジェクト除外画像を表す画像データを合成処理部70に出力するに際し、高周波数成分抽出処理、ノイズ抑制シャープネス強調処理、階調変換処理、あるいは色調補正処理などの画質補正処理が施された画像に対してさらに、画像出力強度分布生成部66にて生成された背景部分補正部34用の強度分布に従って画像データの強度(すなわち個々の画素データのレベル)を補正し、この強度補正後のオブジェクト除外画像を合成処理部70に入力する。
【0030】
図2は、多値マスク生成部60の補正適用強度分布生成部62が決定する補正適用強度分布の一例と、画像出力強度分布生成部66が決定する画素データに対する画像出力強度分布の一例を示す図である。
【0031】
図2(A)は、オブジェクト中心部分補正部20(詳しくはパラメータ生成部22)用の補正適用強度分布の一例であり、ここでは、オブジェクトの中心が一番強く補正され、徐々に補正が弱くなるような強度分布にしている。図2(B)は、オブジェクト除外部分補正部30(詳しくはパラメータ生成部32)用の補正適用強度分布の一例であり、ここでは、図2(A)とは逆に、オブジェクトの中心では補正が殆どされずに且つ背景部分に近くなるにつれて徐々に補正が強くなり、背景部分では一番強く(均一)補正されるような強度分布にしている。つまり、パラメータ生成部22用の第1の補正適用強度分布とパラメータ生成部32用の第2の補正適用強度分布とがほぼ逆特性となるように、それぞれの分布を決定している。
【0032】
図2(C)は、オブジェクト中心部分補正部20(詳しくはオブジェクト部分補正部24)用の強度分布の一例であり、ここでは、図2(A)と同様の分布を呈し、オブジェクトの中心が一番強く残り、徐々に画像データがなくなるような強度分布にしている。図2(D)は、オブジェクト除外部分補正部30(詳しくは背景部分補正部34)用の強度分布の一例であり、ここでは、図2(B)と同様の分布を呈し、オブジェクトの中心では画素データが殆ど残らずに且つ背景部分に近くなるにつれて徐々に画素データが現れる(画像が現れる)ような強度分布にしている。つまり、オブジェクト部分補正部24用の第1の画像出力強度分布と背景部分補正部34用の第2の画像出力強度分布とがほぼ逆特性となるように、それぞれの分布を決定している。
【0033】
図2(E)は、オブジェクト中心部分補正部20(詳しくはオブジェクト部分補正部24)用の強度分布の他の例であり、オブジェクト部分では場所(画素位置)によらず均一な強度分布を呈し、且つ背景部分では画素データが殆ど残らないような強度分布にしている。図2(F)は、オブジェクト除外部分補正部30(詳しくは背景部分補正部34)用の強度分布の他の例であり、背景部分では場所(画素位置)によらず均一な強度分布を呈し、且つオブジェクト部分では画素データが殆ど残らないような強度分布にしている。この場合においても、オブジェクト部分補正部24用の第1の画像出力強度分布と背景部分補正部34用の第2の画像出力強度分布とがほぼ逆特性となるようにそれぞれの分布を決定していることになる。
【0034】
なお、オブジェクト中心部分補正部20やオブジェクト除外部分補正部30用の補正適用強度分布についても、図2(E)や図2(F)のように、注目オブジェクトや背景の各主要部分では均一な補正が施され、他方の部分では殆ど補正が施されないような強度分布にしてもよい。
【0035】
なお、この図2に示した各強度分布は、2次元的に投影した概念図を示すものであるが、その強度分布は3次元的な分布を有するものである。また、その決定方法は、前述の例に限らず、たとえばそれらオブジェクトが画像中に占める大きさや位置、あるいは予め定められているオブジェクトの重みなどから決定するように構成するなど、可変であってもよい。勿論、ユーザによる調整を受け付ける構成としてもよい。また、第1および第2の補正適用強度分布や、第1および第2の画像出力強度分布は、必ずしも互いに逆特性となるものでなくてもよい。
【0036】
図3は、オブジェクト部分補正部24や背景部分補正部34における画質補正処理の機能を説明するブロック図である。図示した補正処理の例では、入力画像Ginを低周波成分と高周波成分とに分け、それぞれの周波数成分にたいして画質補正処理を施す機能部分として、低周波数成分抽出補正処理部200、高周波数成分抽出補正処理部210、および加算回路220を備えている。
【0037】
低周波数成分抽出補正処理部200は、たとえば抽出した低周波成分に対して、ノイズ抑制処理、レンジ圧縮処理、階調変換処理、あるいは色調補正処理を施す。このため、低周波数成分抽出補正処理部200は、補正マスク(補正フィルタ)として3×3のローパスフィルタ(LPF;Low Pass Filter )202と、画質調整部204とを有する。
【0038】
また高周波数成分抽出補正処理部210は、抽出した高周波成分に対して、たとえばノイズ抑制シャープネス強調処理を施す。このため高周波数成分抽出補正処理部210は、補正マスク(補正フィルタ)として10×10のローパスフィルタ(LPF)212と、ルックアップテーブル(LUT;Look Up Table )を用いて補正処理を施すLUT補正部214と、入力画像GinとLUT補正部214からの画像との差の画像(差分画像)を生成する減算回路216とを有する。
【0039】
加算回路220は、減算回路216から出力された差分画像と、画質調整部204から出力された補正済みの低周波成分の画像とを合成することで、補正済みの画像を生成する。
【0040】
図4は、上記第1実施形態の画像処理装置1における処理手順の概略を示したフローチャートである。先ず、画像入力部3は、デジタルカメラで撮影された入力画像Ginを取り込み、この入力画像Ginをオブジェクト領域認識抽出部10やオブジェクト除外部分補正部30に渡す(S100)。オブジェクト領域認識抽出部10は、予め記憶用意されている識別対象物オブジェクトや領域情報を基に領域認識することで、注目オブジェクトの領域を抽出する(S102)。ここでは、人物の顔領域を認識対象オブジェクトとしているため、顔領域の中心座標とその大きさなどの範囲を示す情報(以下オブジェクト情報という)がオブジェクト領域認識抽出部10から出力され、このオブジェクト情報が、パラメータ生成部22、パラメータ生成部32、および補正適用強度分布生成部62に入力される。
【0041】
次に、補正適用強度分布生成部62は、オブジェクト領域認識抽出部10にて取得されたオブジェクト情報に基づいて、所定の強度分布を呈する補正適用強度分布を決定し、この決定した補正適用強度分布をパラメータ生成部22やパラメータ生成部32に設定する(S104)。また、補正適用強度分布生成部62は、決定した補正適用強度分布を画像出力強度分布生成部66にも入力する。画像出力強度分布生成部66は、補正適用強度分布生成部62から入力された補正強度分布を参照することで、注目オブジェクトの中心や大きさあるいは画質補正処理における補正強度に応じて合成処理部70に出力するべき画像範囲や画素データの強度を示す強度分布を決定し、この決定した強度分布をオブジェクト部分補正部24や背景部分補正部34に設定する(S106)。
【0042】
パラメータ生成部22は、オブジェクト領域認識抽出部10により取得されたオブジェクト情報を参照してオブジェクト領域の画像特徴を解析し、注目オブジェクトの一例である人物の顔画像をより適切な画像とするための画質補正用のパラメータを生成する(S110)。そして、補正適用強度分布生成部62により設定された画質補正用の補正適用強度分布に従って、注目オブジェクトに対する画質補正用のパラメータを画素位置に応じて修正し、この修正後の補正パラメータをオブジェクト部分補正部24に設定する(S112)。
【0043】
オブジェクト部分補正部24は、パラメータ生成部22により設定された補正パラメータ(補正適用強度分布に従った修正済みのもの)に従って、階調変換処理や色調補正処理などの画質補正処理を入力画像Ginに施す(S114)。また、オブジェクト部分補正部24は、画質補正処理を施した画像に対してさらに、画像出力強度分布生成部66にて生成されたオブジェクト部分補正部24用の強度分布に従って個々の画素データのレベルを補正(強度補正)することでオブジェクト中心画像を生成し、この強度補正後のオブジェクト中心画像を合成処理部70に入力する(S116)。
【0044】
つまり、オブジェクト中心部分補正部20は、オブジェクト領域認識抽出部10で認識されたオブジェクト領域の画像特徴を解析し、該オブジェクト領域を中心とした好適な画像補正を入力画像Ginに施す。また、オブジェクト中心部分補正部20は、画像出力強度分布生成部66からの強度分布を参照することで、たとえば、オブジェクトの中心が一番強く残り徐々に画像データがなくなるような補正済みのオブジェクト中心画像を合成処理部70に入力する。
【0045】
パラメータ生成部32は、オブジェクト領域認識抽出部10により取得されたオブジェクト情報と画像入力部3から入力された入力画像Ginとを参照してオブジェクト領域を除く背景部分の画像特徴を解析し、注目オブジェクトの一例である人物部分を除く背景部分の画像(背景画像)をより適切な画像とするための画質補正用のパラメータを生成する(S120)。また、補正適用強度分布生成部62により設定された画質補正用の補正適用強度分布に従って、背景画像に対する画質補正用のパラメータを画素位置に応じて修正し、この修正後の補正パラメータを背景部分補正部34に設定する(S122)。
【0046】
背景部分補正部34は、パラメータ生成部32により設定された補正パラメータ(補正適用強度分布に従った修正済みのもの)に従って、階調変換処理や色調補正処理などの画質補正処理を入力画像Ginに施す(S124)。また、背景部分補正部34は、画質補正処理を施した画像に対してさらに、画像出力強度分布生成部66にて生成された背景部分補正部34用の強度分布に従って個々の画素データのレベルを補正(強度補正)することでオブジェクト除外画像を生成し、この強度補正後のオブジェクト除外画像である背景画像を合成処理部70に入力する(S126)。
【0047】
つまり、オブジェクト除外部分補正部30は、入力画像Ginの全体の画像特徴や主にオブジェクト領域認識抽出部10で認識されたオブジェクト領域を除く背景部分の画像特徴を解析し、背景部分を中心とした好適な画像補正を入力画像Ginに施す。また、オブジェクト除外部分補正部30は、画像出力強度分布生成部66からの強度分布を参照することで、たとえば、オブジェクトの中心から徐々に画像データが再現されるような補正画像を合成処理部70に入力する。
【0048】
合成処理部70は、オブジェクト中心部分補正部20から入力された画質補正済み(オブジェクトに適した)のオブジェクト中心画像と、オブジェクト除外部分補正部30から入力された画質補正済み(背景部分に適した)の背景画像(オブジェクト除外画像)とを合成することで、入力画像Ginの全体を表す出力画像Gout を生成する(S130)。
【0049】
以上説明したように、オブジェクト中心部分補正部20とオブジェクト除外部分補正部30とで、それぞれに応じた適正な画質補正処理を施した画像を、合成処理部70において合成することで、注目オブジェクトと背景部分のそれぞれに対して、各々好適に画像補正した出力画像を合成することができる。また、補正適用強度分布生成部62により補正の適用具合が注目オブジェクトを中心として漸次変化する補正適用強度分布を補正パラメータとして適用するので、注目オブジェクトと背景の境界部分での補正の具合が連続するようにすることができる。加えて、画像出力強度分布生成部66により個々の画素値が注目オブジェクトを中心として漸次変化する強度補正を施すことで、注目オブジェクトと背景の境界部分での画素値の連続性(階調の連続性)もある程度維持することができ、注目オブジェクトと背景の各々好適に画像補正した画像を連続的に合成することができる。
【0050】
つまり、上記第1実施形態によれば、デジタル画像から注目オブジェクト(領域あるいは物体)を認識するとともに、該認識された注目オブジェクト(領域あるいは物体)や当該注目オブジェクトを除く部分の各特徴に基づいて補正適用強度分布を作成して画像を補正する。たとえば、顔領域や肌領域などを認識し、画質補正用の多値マスクを生成する。そして、この多値マスクを使用して、注目オブジェクトとこの注目オブジェクトを除く部分のそれぞれの特徴を有する補正処理を施した複数の画像を得、これら複数の補正画像を合成する。すなわち、それぞれの目的に適した複数の補正画像を作成し、多値マスクを使用した画像の合成(すかし)などを組み合わせることで、全体の補正を行なう。
【0051】
これにより、主要な被写体(前例の注目オブジェクト)を中心とした画像補正と背景(前例の注目オブジェクトを除く部分)などの画像補正とのバランスのとれた効果的な画像補正を実現することができる。たとえば、主要被写体を中心に補正するが、背景などの見栄えをそこそこに補正することができ、特に人物の逆光やアンダー画像の補正など、失敗画像を人物中心に好ましく補正するのに好適である。加えて、補正適用強度分布に基づいて補正パラメータを調整しているので、注目オブジェクトとこの注目オブジェクトを除く部分との補正の連続性がよい全体画像を得ることができる。
【0052】
図5は、本発明に係る画像処理装置の第2実施形態の構成例を示すブロック図である。第1実施形態の構成に加えて、注目オブジェクトに合わせた全体補正を施すオブジェクト中心全体補正部40と、このオブジェクト中心全体補正部40にて補正した画像と合成処理部70からの合成画像とを合成する合成処理部72とを備えている点が異なる。オブジェクト中心全体補正部40は、本発明に係る第2補正部の他の一例である。そして、このオブジェクト中心全体補正部40が出力する画質補正済の画像であるオブジェクト中心全体画像は、本発明に係る第2の補正済画像のうちの他方の補正済画像の一例である。
【0053】
オブジェクト中心全体補正部40は、注目オブジェクトに適した補正パラメータを生成するパラメータ生成部42と、このパラメータ生成部42により生成された補正パラメータに従って入力画像Ginの全体に対して補正を施し、この補正済みの全体画像を合成処理部72に出力するオブジェクト全体補正部44とを有する。このオブジェクト中心全体補正部40は、オブジェクト領域認識抽出部10で認識されたオブジェクト領域の画像特徴を解析し、該オブジェクト領域を中心とした好適な画像補正を入力画像Ginの全体に対して実施する。
【0054】
オブジェクト中心部分補正部20との違いは、補正適用強度分布を用いずに入力画像Ginの全体に対して、注目オブジェクトに適した補正パラメータを使用して画質補正処理を実施する点、並びに画素データに対する画像出力強度分布を用いずに画質補正済みの全体画像を出力する点にある。なお、オブジェクト全体補正部44における画質補正処理自体は、オブジェクト中心部分補正部20における画質補正処理と異なっていてもかまわない。たとえばオブジェクト中心は逆光補正することで顔画像を明るくし且つ背景部は暈かし処理することで、逆光状態で撮影されたポートレート画像を見やすい画像にするなどである。
【0055】
合成処理部72は、合成処理部70で合成された画像とオブジェクト中心全体補正部40で画質補正された画像とを50%対50%で合成処理(すかし合成)する。この処理により、オブジェクト部の画像はあまり変化させず、オブジェクトと背景処理との連続性(補正および階調の双方ともに)をさらにスムーズに見せることができ、オブジェクト部と背景部と大きく補正処理の傾向が異なっている場合などに、好適な処理となる。
【0056】
図6は、第2実施形態の画像処理装置1における画質補正処理の仕組みを説明する図(ポンチ絵)である。ここでは、説明のため、図6(A)に示すように、人物部(顔領域Aと胴体部B)と背景部Cで構成された入力画像Gin(撮影画像)を取り扱う。
【0057】
オブジェクト領域認識抽出部10は、入力画像Ginから顔領域Aを認識する。そして、オブジェクト中心部分補正部20は、顔領域Aを解析し、図6(B)に示すように、入力画像Ginの顔領域Aに対応する顔領域A1を中心に画質補正処理を施す。またオブジェクト中心部分補正部20は、画像出力強度分布生成部66からの画像出力強度分布を参照することで補正済みの画像を出力するので、図6(B)に示すように、補正強度分布による処理により顔領域A(オブジェクト)を中心として好適な補正が施されたほぼ顔領域Aのみの部分画像A1(オブジェクト中心画像)が出力される。
【0058】
オブジェクト除外部分補正部30は、顔領域Aを除く部分である胴体部Bおよび背景部Cの特徴を解析し、図6(C)に示すように、入力画像Ginの胴体部Bおよび背景部Cに対応する胴体部B1および背景部C1を中心に画質補正処理を施す。またオブジェクト除外部分補正部30は、画像出力強度分布生成部66からの画像出力強度分布を参照することで補正済みの画像を出力するので、図6(C)に示すように、補正強度分布による処理により顔領域A(オブジェクト)以外(特に背景部C)を中心として補正されたほぼ胴体部Bおよび背景部Cのみの部分画像(オブジェクト除外画像:胴体部Bに対応する部分画像B1および背景部Cに対応する部分画像C1)が出力される。
【0059】
図6(D)に示す合成画像は、オブジェクト中心部分補正部20による補正済みのオブジェクト中心画像とオブジェクト除外部分補正部30による補正済みのオブジェクト除外画像とを合成した補正画像であり、オブジェクト部と背景部がそれぞれ好適に補正強度分布に基づいて補正され、且つ画素データに対する強度分布に基づいて合成されたものである。
【0060】
オブジェクト中心全体補正部40は、入力画像Ginから顔領域Aを認識する。そして、オブジェクト中心全体補正部40は、顔領域Aを解析して入力画像Ginの顔領域Aに対応する顔領域A2を中心に顔領域Aに適した画質補正処理を施す。またオブジェクト中心全体補正部40は画像出力強度分布を参照することなく、補正済みの画像を出力するので、図6(E)に示すように、補正強度分布による処理により顔領域Aについて好適な画質補正が施された顔領域A2、胴体部B2、および背景部C2を含む全体画像が出力される。顔領域Aについて好適な画質補正が施されているので、胴体部B2および背景部C2については必ずしも好適な補正がなされているとは限らない。
【0061】
なお、オブジェクト中心部分補正部20とオブジェクト中心全体補正部40の補正処理内容およびその補正パラメータが同じであれば、オブジェクト中心ではほぼ同じ特性の画像が得られる(すなわち顔領域A1≒顔領域A2)。勿論、顔領域部の補正は、オブジェクト中心部分補正部20とオブジェクトにあわせたオブジェクト中心全体補正部40とで同様の画質補正処理を施すことに限らず、種々の条件にあわせて適した処理を選択してもよい。
【0062】
合成処理部72は、注目オブジェクトである顔領域Aおよび背景部Cの各々について各別に好適な補正処理が施された補正済みの合成画像(=全体画像;図6(D))と、注目オブジェクトである顔領域Aに着目して好適な補正処理が施された全体画像(図6(E))とをすかし合成することで、図6(F)に示す全体画像を得る。この全体画像の注目オブジェクトである顔領域A3は、図6(D)に示した補正済みの合成画像(=全体画像)の顔領域A1および図6(E)に示した補正済みの全体画像の顔領域A2の何れにおいても好適な補正が施されているので、図6(F)に示した補正済みの全体画像においても好適な画質補正処理(図中“○”で示す)が施された顔領域A3が得られる。
【0063】
なお、オブジェクト中心部分補正部20とオブジェクト中心全体補正部40の補正処理内容およびその補正パラメータが同じであれば、オブジェクト中心ではほぼ同じ特性の画像が得られる(すなわち顔領域A1≒顔領域A2≒顔領域A3)。また、図6(E)に示す全体画像では、胴体部B2および背景部C2(特に背景部C2)については必ずしも好適な画質補正処理がなされているとは限らないが(図中胴体部B2は“△”、背景部C2は“×”で示す)、図6(D)に示す合成画像では胴体部B2および背景部C2(特に背景部C2)について好適な画質補正処理が施されているので、図6(F)に示す全体画像においては、胴体部B3および背景部C3の何れも、概ね良好な画質補正処理(図中“△”で示す)が施された画像を得ることができる。
【0064】
ただし、オブジェクト中心部分補正部20で顔領域Aを補正し、オブジェクト除外部分補正部30で、たとえば顔領域A以外を解析し補正し、それぞれをぴったりと合成すれば、図6(D)に示す合成画像としては、最適な補正済みの全体画像が得られそうであるが、その場合は、補正処理の異なりから、注目オブジェクトと背景部との画像の繋がりの悪い補正画像が得られてしまい、うまくいかないことも起こり得る。たとえば人物の顔領域が逆光状態で暗く写った写真画像の場合、顔領域は明るめで背景部は暗めになるような補正処理を施すことになり、その補正特性が逆特性となるので、顔領域と背景部との境界部で階調の段差が生じてしまう虞れがある。また、オブジェクト領域認識抽出部10による自動認識では注目オブジェクトを必ずしもうまく切り出せない場合が多く、認識領域の違いにより補正が逆効果となり認識領域にくっきりとした輪郭が現れてしまう不具合が生じることも起こり得る。
【0065】
しかしながら、上記実施形態の画像処理装置1によれば、オブジェクト中心部分補正部20にて主要被写体(注目オブジェクト)を中心とした補正適用強度分布を用いて補正処理し、且つオブジェクト除外部分補正部30にて主要被写体を除く部分である主に背景部分を中心とした補正適用強度分布を用いて補正処理している。このため、図6(D)に示す合成画像においては、補正の連続性が維持されるような効果を享受することができる。加えて、画質補正済みの画素データに対して強度分布を用いることで注目オブジェクトや背景部のみを抽出するようにしている。このため、図6(D)に示す合成画像においては、階調の連続性も維持されるような効果を享受することができる。
【0066】
また、オブジェクト中心全体補正部40による画質補正処理によれば、背景部Cに関してはオブジェクト部(本例では顔領域A)に合わせた補正が適用されるため、補正済の全体画像(図6(E))の背景部C2においては第1実施形態に比べて補正効果が劣化する場合がある。しかし、オブジェクト部(本例では顔領域A2)との画質補正としての連続性は高くなるので、図6(D)に示した補正済みの合成画像とすかし合成することで得られた図6(F)に示す合成画像においては、背景画像とオブジェクト画像との補正の繋がりを一層よくする効果を享受することができる。
【0067】
図7は、第2実施形態の画像処理装置1における画質補正処理の仕組みを纏めたブロック図である。図示するように、オブジェクト中心部分補正部20、オブジェクト除外部分補正部30、および合成処理部70を備えた部分補正部7から出力される合成画像(図6(D)相当)としては、注目オブジェクト(人物部)および注目オブジェクト以外(背景部)のそれぞれにおいては好適な画質補正処理が施されるが、多値マスク生成部60を適用しなければ、補正や階調の連続性は必ずしも好ましいものとならない虞れがある。
【0068】
また、オブジェクト中心全体補正部40を備えた全体補正部8によれば、注目オブジェクト(人物部)においては好適な画質補正処理が施されるが、注目オブジェクト以外(背景部)においては好ましい画質補正処理が施されるとは限らない。しかしながら、その出力画像(図6(E)相当)の補正や階調の連続性は、部分補正部7から出力される合成画像に比べて、格段にも好ましいものとなる。
【0069】
よって、部分補正部7から出力された合成画像(全体画像)と全体補正部8から出力された全体画像とを合成処理部72にて合成すれば、注目オブジェクト(人物部)においては好適な画質補正処理が施され、注目オブジェクト以外(背景部)においてはほぼ好適な画質補正処理が施され、しかも、補正や階調の連続性もほぼ好適な、バランスの良好な全体画像(図6(F)相当)が出力画像Gout として得られる。
【0070】
そして、オブジェクト中心の部分補正、オブジェクト除外の部分補正、あるいはオブジェクト中心の全体補正といった複数の補正画像を得、これら複数の補正画像を合成することで、主要な被写体を中心とした画像補正と背景などの全体補正のそれぞれが持つ不具合を緩和させて両補正のよいところだけ引き出すことで、主要な被写体を中心とした画像補正と背景などの画像補正とのバランスが一層とれた効果的な画像補正を実現することができる。
【0071】
図8は、本発明に係る画像処理装置の第3実施形態の構成例を示すブロック図である。第1実施形態の構成に加えて、本発明に係る合成比率算出部の一例であるギャップ補正演算部80を備えている点が異なる。上記第1実施形態では、合成処理部70における合成処理時には、注目オブジェクト(前例では顔領域A)を表す画質補正済のオブジェクト中心の部分画像と、それ以外(前例では胴体部部および背景部C)を表すオブジェクト除外の部分画像とを50%対50%の重み付けで合成していたが、この第3実施形態のギャップ補正演算部80は、この合成時の重み、すなわち2つの画像の加算比率(合成の割合)を調整する。
【0072】
図9は、第3実施形態の画像処理装置1におけるギャップ補正演算部80の作用を説明する図である。たとえば、ギャップ補正演算部80は、合成するためのそれぞれの画像データ、すなわちオブジェクト中心に画質補正が施された部分画像と背景部を中心に画質補正が施されたオブジェクイト除外の部分画像とを参照し、過度な合成を補正するに適した重みを算出することができる。ギャップ補正演算部80は、算出した重みに基づいて、オブジェクト中心部分補正画像とオブジェクト除外部分補正画像の対応画素の明度(あるいは輝度)を参照して明度の差分に応じて合成比を変更する。たとえば、図9(A)に示すようにして重みを算出する。
【0073】
これにより、合成処理部70による合成後の画像においては、たとえば、オブジェクト中心部分補正画像とオブジュクト除外部分補正画像の対応画素の明度差が大きい場合に、50%対50%の加算の場合には特にオブジェクト輪郭周辺の明度変化が大きく違和感が生じる虞れがあるのに対して、オブジェクト中心の部分画像の合成比を40%にし、オブジェクト除外の部分画像を60%とした加算とすることで合成後の画像の繋がりが滑らかになる(図9(B)を参照)。
【0074】
この場合、どちらの画像の比率を高くするかは、たとえば対象画像の面積が大きい方の比率を高くする、あるいはオブジェクト中心部分補正画像の比率を高くする、といった選択が考えられる。
【0075】
また、参照する特徴は、明度以外にも、図9(C)に示すように、色相や彩度など種々の特徴量を参照することで、過度な合成を抑制することができる。
【0076】
図10は、本発明に係る画像処理装置の第4実施形態の構成例を示すブロック図である。第2実施形態の構成に加えて、本発明に係る合成比率算出部の一例であるギャップ補正演算部80および本発明に係る合成比率算出部の他の一例であるギャップ補正演算部82を備えている点が異なる。図示するように、ギャップ補正演算部80は、第3実施形態と同様の構成および作用のものである。
【0077】
一方、ギャップ補正演算部82は、合成処理部72における合成時の重みを調整する。すなわち、第2実施形態では、合成処理部72における合成処理時には、合成処理部70からの合成画像とオブジェクト中心全体補正部40からのオブジェクト中心に画質補正が施された全体画像とを50%対50%の重み付けで合成していたが、この第4実施形態のギャップ補正演算部82は、この合成時の重み、すなわち2つの画像の加算比を調整する。
【0078】
図11は、第4実施形態の画像処理装置1におけるギャップ補正演算部82の作用を説明する図である。たとえば、ギャップ補正演算部82は、合成するためのそれぞれの画像データ、すなわちオブジェクト中心に画質補正が施された全体画像と合成処理部70からの合成済画像(全体画像)とを参照し、適した重みを算出することができる。たとえばギャップ補正演算部80は、主に背景部Cの特徴を参照して重みを算出する。
【0079】
オブジェクト中心全体補正部40による画質補正処理では主に注目オブジェクトを中心として画質補正処理を施すので、オブジェクト中心部と背景部の適正補正量の差が大きい場合、背景部は必ずしも好ましい補正がなされるとは限らないので、合成処理部72による合成処理時には、オブジェクト中心全体補正部40からの出力画像における背景部の参照度合いが低くなるようにする方が好ましいことが多いと考えられる。
【0080】
よって、合成処理部72による合成後の画像においては、たとえば図11(C)に示すように50%対50%の加算の場合には背景部が必ずしも好適とならない虜れがあるのに対して、図11(D)に示すようにオブジェクト中心全体補正部40からのオブジェクト中心全体画像の重みを低くすることで背景部をより好適にすることができる。たとえばギャップ補正演算部82は、合成済画像とオブジェクト中心に画質補正が施された全体画像の対応画素の明度(あるいは輝度)を参照して明度の差分に応じて合成比を変更する。たとえば、ギャップ補正演算部80について説明した図9(A)に示すようにして重みを算出する。
【0081】
これにより、合成処理部72による合成後の画像においては、たとえば、合成済画像とオブジェクト中心に画質補正が施された全体画像の対応画素の明度差が大きい場合に、50%対50%の加算の場合には、背景部の補正がオブジェクト中心に画質補正が施された全体画像の背景部の補正により過ぎの状態であるのに対して、合成済画像の合成比を55%にし、オブジェクト中心に画質補正が施された全体画像を45%とした加算とすることで合成後の背景画像をより好適にすることができる(図11(E)参照)。
【0082】
なお、ギャップ補正演算部80の場合と同様に、参照する特徴は、明度以外にも、色相や彩度など種々の特徴量を参照することで、過度な合成を抑制することができる(図9(C)参照)。また、ギャップ補正演算部82でオブジェクトと背景の補正バランスを考慮する場合、ギャップ補正演算部80での調整量は相対的に小さくするなど、ギャップ補正のバランスを変更してもよい。
【0083】
以上第3あるいは第4実施形態のように、ギャップ補正演算部80,82を設け、合成比率を調整することで、実質的に多値マスクの与え方を調整することができる。そして、この多値マスクの与え方を調整することで、補正効果の増減を制御することができる。
【0084】
図12は、本発明に係る画像処理装置の第5実施形態の構成例を示すブロック図である。この第5実施形態の画像処理装置1は、オブジェクトの認識を1箇所に限らず複数とする場合の構成例を示したものである。なお、この第5実施形態の構成は、第4実施形態の構成に適用する例で示しているが、これに限らず、第1〜第3実施形態の構成に適用することもできる。
【0085】
第5実施形態の画像処理装置1は、基本的な構成は第4実施形態の画像処理装置1と同じであるが、オブジェクト領域認識抽出部10、オブジェクト中心部分補正部20、およびオブジェクト中心全体補正部40の各機能部分に、それぞれ複数のオブジェクトを認識するのに応じた変更を加えている点が異なる。
【0086】
たとえば、オブジェクト領域認識抽出部10で複数のオブジェクト領域(たとえばオブジェクト1,…N)を認識したことに対応して、多値マスク生成部60においてもそれぞれの注目オブジェクトに応じた(たとえば注目オブジェクトの中心ほど参照度合いが強い)各別の補正適用強度分布を決定する。
【0087】
パラメータ生成部22は、複数の注目オブジェクトについて、それぞれの注目オブジェクトの特徴に基づいてその注目オブジェクトに合致した画質パラメータをそれぞれ決定し、この決定した画質パラメータを補正適用強度分布生成部62が決定したそれぞれの注目オブジェクトに対応する補正適用強度分布に基づいて調整する。
【0088】
そして、オブジェクト部分補正部24は、この調整された画質パラメータに従って少なくとも対応する注目オブジェクトに対してそれぞれ画質補正処理を施すことで、複数の第1の補正済画像として、複数のオブジェクト中心部分画像を取得するとよい。よって、オブジェクト中心部分補正部20は、個々の注目オブジェクトに応じた補正済のオブジェクト中心の部分画像を各別に生成することになる。
【0089】
また多値マスク生成部60の補正適用強度分布生成部62は、複数の注目オブジェクトを除く部分(主に背景部)の特徴に基づいて、この複数の注目オブジェクトを除く部分に合致した画質パラメータの複数の注目オブジェクトを除く部分(主に背景部)に対する参照度合いを示す分布であって、注目オブジェクトの中心ほど参照度合いが弱い補正適用強度分布を決定する。
【0090】
そして、本発明に係る第2補正部の一例であるオブジェクト除外部分補正部30のパラメータ生成部32は、補正適用強度分布生成部62にて決定された補正適用強度分布に基づいて補正パラメータを調整する。背景部分補正部34は、この調整済の補正パラメータに従って少なくとも複数の注目オブジェクトを全て除く補正済の部分画像を1つだけ生成すればよい。
【0091】
同様に、注目オブジェクトにあわせて全体画像に補正を施す本発明に係る第2補正部の他の一例であるオブジェクト中心全体補正部40は、複数の注目オブジェクトに応じた各別の補正パラメータで補正処理を施せばよい。すなわちオブジェクト中心全体補正部40は、複数の注目オブジェクトについて、それぞれの特徴に基づいて当該注目オブジェクトに合致した画質パラメータを決定し、この決定した画質パラメータに従って注目オブジェクトおよびその注目オブジェクトを除く部分(すなわち画像の略全体)に対して画質補正処理を施して画像の略全体を含む補正済画像であるオブジェクト中心全体画像をそれぞれ取得するとよい。よって、オブジェクト中心全体補正部40は、個々の注目オブジェクトに応じた補正済のオブジェクト中心の全体画像を各別に生成することになる。
【0092】
合成処理部70は、本発明に係る第1補正部の一例であるオブジェクト中心部分補正部20にて各別に生成された個々の注目オブジェクトに応じた補正済のオブジェクト中心の部分画像(たとえばオブジェクト1,…Nの分だけ)と、本発明に係る第2補正部の一例であるオブジェクト除外部分補正部30にて生成された複数の注目オブジェクトを全て除く1枚分の補正済部分画像とを合成すればよい。
【0093】
合成処理部72は、本発明に係る第2補正部の他の一例であるオブジェクト中心全体補正部40にて各別に生成された個々の注目オブジェクトに応じた補正済のオブジェクト中心の全体画像(たとえばオブジェクト1,…Nの分だけ)と、合成処理部70にて合成された画像(補正済の全体画像)とをさらに合成処理すればよい。
【0094】
この第5実施形態によれば、複数の注目オブジェクトそれぞれについて、上記第1実施形態で説明した効果を享受することができる。よって、画像全体としても、上記第1実施形態で説明した効果を享受することができ、主要な複数の被写体を中心とした画像補正と背景などの画像補正とのバランスのとれた効果的な画像補正を実現することができる。
【0095】
図13は、本発明に係る画像処理装置の他の実施形態(変形例)を説明する図である。参考例として、従来技術および上記で説明した第1および第2実施形態も図示している。
【0096】
画像全体の特徴を解析して画像全体を補正する従来例1の場合、全体が一様に補正されるので、補正効果は不十分である。また、オブジェクトの特徴を解析してそのオブジェクトを中心として画像全体に補正を施す従来例2の場合、補正ギャップは小さく連続性はほぼ良好であるがオブジェクト以外は不適正になる。また画像全体の特徴を解析して画像全体を補正した後に、オブジェクトの特徴を解析してそのオブジェクトを中心としてそのオブジェクトのみに補正を施す従来例3の場合、補正の効果は高いが補正ギャップが大きく連続性の劣化が著しい。
【0097】
これに対して、オブジェクトの特徴を解析してそのオブジェクトを中心として補正適用強度分布を利用して補正を施してオブジェクト中心の部分補正画像を取得し、さらにオブジェクト以外の特徴を解析してそのオブジェクト以外(特に背景部)を中心として補正適用強度分布を利用して補正を施してオブジェクト除外の部分補正画像を取得し、さらにオブジェクト中心の部分補正画像とオブジェクト除外の部分補正画像とを合成処理して全体画像を生成する第1実施形態の構成によれば、オブジェクトおよびオブジェクト以外の双方が好適に補正処理され且つ補正ギャップが小さく連続性が良好である画像が得られる。
【0098】
また、オブジェクトの特徴を解析してそのオブジェクトを中心として補正適用強度分布を利用することなく画像全体に補正を施して補正画像を取得し、この全体画像と第1実施形態の構成にて取得された合成画像とをさらに合成する第2実施形態の構成によれば、第1実施形態に比べて、オブジェクト以外の画質補正効果がやや劣化するが、補正ギャップが一層小さくなり連続性がより良好である画像が得られる。
【0099】
なお、上記実施形態のオブジェクト中心部分補正部20やオブジェクト除外部分補正部30においては、多値マスク生成部60の画像出力強度分布生成部66にて生成された画素データに対する画像出力強度分布を利用することで、それぞれの部分補正画像を生成することとしていたが、画像処理装置1は、オブジェクトを中心とした画質補正処理時に少なくとも補正適用強度分布を利用して補正パラメータを調整して補正画像を取得し、他の観点から所望の画質補正処理が施された画像と合成するものであればよい。たとえば、オブジェクト除外部分補正部30においては補正適用強度分布を必ずしも利用するものである必要はない。またオブジェクト中心部分補正部20およびオブジェクト除外部分補正部30の何れについても、画素データに対する画像出力強度分布については必ずしも利用する必要はなく、補正済の全体画像を合成処理部70に出力してもよい。
【0100】
たとえば、オブジェクトの特徴を解析してそのオブジェクトを中心として補正適用強度分布を利用しオブジェクトに合わせた補正を施した全体画像を取得し、さらにオブジェクト以外(特に背景部)の特徴を解析してそのオブジェクト以外を中心として補正適用強度分布を利用しオブジェクト以外に合わせた補正を施した全体画像を取得し、さらにオブジェクト中心に補正された全体画像とオブジェクト以外を中心に補正された全体画像とを合成処理して全体画像を生成する変形例1の構成としてもよい。
【0101】
この場合、オブジェクト中心に補正された全体画像の背景部は実質的に補正が何ら施されていない画像が残り、オブジェクト以外を中心に補正された全体画像のオブジェクトは実質的に補正が何ら施されていない画像が残るが、何れの補正済の全体画像においても補正ギャップが極小さく補正の連続性は良好である。よって、その2つの補正済の全体画像を合成すれば、第1実施形態に比べ、オブジェクトやオブジェクト以外の画質補正効果がやや劣化するが、補正ギャップが一層小さくなり連続性が一層良好である画像が得られる。
【0102】
また第1実施形態と変形例1とを組み合わせた構成としてもよい。たとえば、オブジェクトの特徴を解析してそのオブジェクトを中心として補正適用強度分布を利用して補正を施してオブジェクト中心の部分補正画像を取得し、さらにオブジェクト以外(特に背景部)の特徴を解析してそのオブジェクト以外を中心として補正適用強度分布を利用しオブジェクト以外に合わせた補正を施した全体画像を取得し、さらにオブジェクト中心に補正された部分補正画像とオブジェクト以外を中心に補正された全体画像とを合成処理して全体画像を生成する変形例2の構成としてもよい。
【0103】
この場合、オブジェクト中心に補正された部分補正画像には背景部が存在しないので合成時に加算比率の調整をする必要が生じ得るものの、第1実施形態に比べて、オブジェクトの画質補正効果がやや劣化するが、オブジェクト以外の画質補正効果はほぼ同等であり、加えて、補正ギャップが小さく連続性が良好である画像が得られる。
【0104】
また図では示さないが、オブジェクトの特徴を解析してそのオブジェクトを中心として補正適用強度分布を利用しオブジェクトに合わせた補正を施した全体画像と、第3実施形態の構成において示したオブジェクト中心全体補正部40からの全体画像とを合成する構成としてもよい。また、第4あるいは第5実施形態で示したように、ギャップ補正演算部80,82と組み合わせてもよい。
【0105】
なお、上記の実施形態は、オブジェクト中心部分補正部20、オブジェクト除外部分補正部30、オブジェクト中心全体補正部40、多値マスク生成部60、合成処理部70,72、あるいはギャップ補正演算部80,82の機能部分をハードウェアにて構成するものとして説明したが、これに限らず、マイコンなどのCPU(中央演算処理装置)やパソコンなどの、いわゆる電子計算装置を利用し、ソフトウェアにて、上記の処理機能を実現することもできる。
【0106】
この場合、マイコンやパソコンなどの電子計算装置は、前述のオブジェクト中心部分補正部20やオブジェクト除外部分補正部30あるいは好合成処理部70などの各機能部分をソフトウェアとして備える。すなわち、前述のオブジェクト中心部分補正部20やオブジェクト除外部分補正部30あるいは合成処理部70などの各機能部分を実現するソフトウェアのプログラムコードを記録した記憶媒体(たとえば図示しないRAMなど)から、装置のコンピュータ(またはCPUやMPU)がプログラムコードを読出し実行することによって、前述の実施形態で述べた効果が達成される。この場合、記憶媒体から読み出されたプログラムコード自体が前述の実施形態の機能を実現することになる。なお、プログラムは、記憶媒体を介して提供されるものに限らず、有線あるいは無線による通信手段を介して配信されるプログラムデータをダウンロードしたものであってもよい。
【0107】
また、コンピュータが読み出したプログラムコードを実行することで各機能が実現されるだけでなく、そのプログラムコードの指示に基づき、コンピュータ上で稼働しているOS(オペレーティングシステム)などが実際の処理の一部または全部を行ない、その処理によって各機能が実現される場合であってもよい。さらに、記憶媒体から読み出されたプログラムコードが、コンピュータに挿入された機能拡張カードやコンピュータに接続された機能拡張ユニットに備わるメモリに書き込まれた後、そのプログラムコードの指示に基づき、機能拡張カードや機能拡張ユニットに備わるCPUなどが実際の処理の一部または全部を行ない、その処理によって前述の実施形態の各機能が実現される場合であってもよい。
【0108】
以上、本発明を実施形態を用いて説明したが、本発明の技術的範囲は上記実施形態に記載の範囲には限定されない。発明の要旨を逸脱しない範囲で上記実施形態に多様な変更または改良を加えることができ、そのような変更または改良を加えた形態も本発明の技術的範囲に含まれる。
【0109】
また、上記の実施形態は、クレーム(請求項)にかかる発明を限定するものではなく、また実施形態の中で説明されている特徴の組合せの全てが発明の解決手段に必須であるとは限らない。前述した実施形態には種々の段階の発明が含まれており、開示される複数の構成要件における適宜の組み合わせにより種々の発明を抽出できる。実施形態に示される全構成要件から幾つかの構成要件が削除されても、効果が得られる限りにおいて、この幾つかの構成要件が削除された構成が発明として抽出され得る。
【0110】
【発明の効果】
以上のように、本発明によれば、先ず、画像中の注目オブジェクトの特徴を解析して注目オブジェクトに合致した補正適用強度分布を作成する。そして、注目オブジェクトに合致した画質パラメータを決定し、この決定した画質パラメータを前記補正適用強度分布に基づいて調整し、この調整後の補正パラメータに従って注目オブジェクトを中心として画質補正処理を施すことで第1の補正済画像を取得する。
【0111】
また、この第1の補正済画像とは別に、少なくとも注目オブジェクトを除く部分に対して所望の画質補正処理を施して第2の補正済画像を取得する。そして、各別にそれぞれ好ましい画質補正処理を施した補正済画像を合成することで、補正済の全体画像を取得する。
【0112】
これにより、対象とするデジタル画像に対し、主要被写体などの注目オブジェクトの画像補正を効果的に施すことができるとともに、背景などの注目オブジェクト以外の部分にも画像補正を効果的に施すことができる。加えて、注目オブジェクトとそれ以外の部分(たとえば背景部)との補正の連続性(補正の繋がり)がよい、画像としての違和感の少ない好ましい補正画像を得ることができる。
【図面の簡単な説明】
【図1】本発明に係る画像処理装置の第1実施形態の構成例を示すブロック図である。
【図2】補正適用強度分布と画像出力強度分布の一例を示す図である。
【図3】画質補正処理の機能を説明するブロック図である。
【図4】第1実施形態の画像処理装置における処理手順の概略を示したフローチャートである。
【図5】本発明に係る画像処理装置の第2実施形態の構成例を示すブロック図である。
【図6】第2実施形態の画像処理装置における画質補正処理の仕組みを説明するポンチ絵である。
【図7】第2実施形態の画像処理装置における画質補正処理の仕組みを纏めたブロック図である。
【図8】本発明に係る画像処理装置の第3実施形態の構成例を示すブロック図である。
【図9】第3実施形態の画像処理装置におけるギャップ補正演算部の作用を説明する図である。
【図10】本発明に係る画像処理装置の第4実施形態の構成例を示すブロック図である。
【図11】第4実施形態の画像処理装置におけるギャップ補正演算部の作用を説明する図である。
【図12】本発明に係る画像処理装置の第5実施形態の構成例を示すブロック図である。
【図13】本発明に係る画像処理装置の他の実施形態(変形例)を説明する図である。
【符号の説明】
1…画像処理装置、3…画像入力部、7…部分補正部、8…全体補正部、10…オブジェクト領域認識抽出部、20…オブジェクト中心部分補正部、22…パラメータ生成部、24…オブジェクト部分補正部、30…オブジェクト除外部分補正部、32…パラメータ生成部、34…背景部分補正部、40…オブジェクト中心全体補正部、42…パラメータ生成部、44…オブジェクト全体補正部、50…オブジェクト除外全体補正部、54…背景全体補正部、60…多値マスク生成部、62…補正適用強度分布生成部、66…画像出力強度分布生成部、70,72…合成処理部、80,82…ギャップ補正演算部[0001]
TECHNICAL FIELD OF THE INVENTION
The present invention is directed to an image obtained by digital processing such as an image photographed by a digital camera or an image obtained by inputting a negative film or the like by a film scanner (hereinafter referred to as a digital image) so as to have a more preferable image quality. The present invention relates to a method and an apparatus for performing a correction process, a program, and a computer-readable storage medium storing the program.
[0002]
[Prior art]
The digital image obtained by digital processing is analyzed for features such as brightness, contrast status, and color balance of the image, and the deviation of these features is determined to be a malfunction at the time of photographing, for example. There is a technique for performing correction so as to have a characteristic distribution. In addition, in order to realize image correction processing according to a shooting scene such as a subject being a person-centered or a landscape, the presence or absence of a main object and an area of a main object are detected from an image, and the main object and other objects are detected. There is also a correction method that applies a correction method that distinguishes between the two or performs image processing in which parameters are changed based on the main object. As described above, conventionally, a technique of performing a correction process on a digital image so as to obtain more preferable image quality is widely known.
[0003]
[Problems to be solved by the invention]
A technique for correcting the entire image to have a standard feature distribution is, for example, that the average brightness of the pixels of the entire image is 50/100 (“0” is dark and “100” is bright). Assuming that when the distribution average of the input image can be analyzed as "30/100" or the like, the correction method is such that image processing such as gradation conversion is performed so as to eventually approach "50/100". .
[0004]
However, this method corrects the entire image based on the features of the entire image, and performs a uniform correction on the entire image. Therefore, the object of interest, which is the main part of the image, is not always suitable. There is. For example, it is highly effective to make corrections assuming problems such as extreme underexposure and color balance deviation during shooting.However, there are cases where correction of the object of interest is not successful due to the effect of the shooting scene or the background of the main subject. is there.
[0005]
In addition, the correction method of detecting the presence or absence of a main object and the area of the main object from the image and performing processing is more effective in that the correction is performed centering on the object of interest that is most closely watched by a human in the image, By correcting only the main object, the main image may be properly corrected, but the whole image may be affected by the correction and the background image may be incorrectly corrected. For example, when a face area, a skin area, and the like are extracted, correction parameters are determined based on the area, and the entire image is corrected, the face area and the skin area are appropriately corrected, but the area other than the face becomes inappropriate.
[0006]
In addition, after correcting the entire image based on the characteristics of the entire image, there is a method of further detecting the area of the main object and performing correction processing only on the relevant area. When only the correction is performed, only the main object is emphasized, and the balance as the whole picture is lost, which may result in an unnatural image. For example, a method has been established in a photographic printer in which a face portion is recognized after performing a general correction on a photographic image, a correction parameter for the center of the face is calculated, and a correction is performed by combining a face memory color correction. Although the correction process itself in this method is ideal, there is a problem that the correction gap between a portion where the region is recognized and a portion where the region is not recognized is large, and the continuity of correction at the boundary portion is poor, and recognition accuracy is required. .
[0007]
Further, as one method of image quality correction processing for an image captured by a digital camera, there is a correction method using a fixed mask (center center) having a higher correction effect toward the center of the object of interest. In this method, the continuity of the correction at the boundary between the object of interest and the part excluding the object of interest is relatively good, but only the center of the object of interest and its vicinity are corrected, and no correction is made to the background and the like. Therefore, the correction is not always suitable as a whole.
[0008]
That is, in the related art, it is not possible to appropriately correct both the object of interest and the other part in the digital image and prevent a correction gap from occurring at the boundary between the object of interest and the other part. .
[0009]
The present invention has been made in view of the above circumstances, and appropriately corrects a target object and a portion excluding the target object, and performs continuity of correction at a boundary portion between the target object and a portion excluding the target object. It is another object of the present invention to provide an image processing method and apparatus which can improve the image quality. Another object of the present invention is to provide a program suitable for realizing the image processing method and apparatus by software using an electronic computer, and a computer-readable storage medium storing the program.
[0010]
[Means for Solving the Problems]
That is, the image processing method according to the present invention is an image processing method that performs a desired image quality correction process on a target object included in an image and also performs a desired image quality correction process on a portion excluding the target object. A distribution indicating the degree of reference of the image quality parameter for the image quality correction process matching the object of interest to the object of interest based on the feature of the object of interest, and determining the correction applied intensity distribution having a higher degree of reference toward the center of the object of interest. I do.
[0011]
Then, an image quality parameter for an image quality correction process that matches the object of interest is determined based on the characteristics of the object of interest, and the determined image quality parameter is adjusted based on the correction application intensity distribution. The image quality correction processing is performed on the object to obtain a corrected first image. Further, a desired image quality correction process is performed on at least a portion excluding the object of interest, which is different from the corrected first image, to obtain a corrected second image, and the corrected first image is obtained. And the corrected second image are combined to obtain a corrected entire image.
[0012]
An image processing apparatus according to the present invention is an apparatus that performs the image processing method according to the present invention, and includes a target object of an image quality parameter for an image quality correction process that matches the target object based on a feature of the eye object. A correction applied intensity distribution generation unit that determines a first corrected applied intensity distribution that has a higher reference degree toward the center of the object of interest, and matches the target object based on the characteristics of the object of interest. An image quality parameter for the image quality correction process is determined, and the determined image quality parameter is adjusted based on the first correction applied intensity distribution determined by the correction applied intensity distribution generation unit. A first correction unit that performs image quality correction processing on the image data to obtain a first corrected image. It was. Further, the image processing apparatus performs a desired image quality correction process on at least a portion other than the object of interest, the second image being a different image from the first corrected image generated by the first correction unit. A second correction unit that obtains a corrected overall image by combining the first corrected image generated by the first correction unit and the second corrected image generated by the second correction unit And a processing unit.
[0013]
The invention described in the dependent claims defines further advantageous specific examples of the image processing device according to the present invention. Furthermore, the program according to the present invention is suitable for realizing the image processing device according to the present invention by software using an electronic computer (computer). The program may be provided by being stored in a computer-readable storage medium, or may be distributed via a wired or wireless communication unit.
[0014]
[Action]
In the above configuration, the correction applied intensity distribution generating unit analyzes the feature of the target object in the image and creates a correction applied intensity distribution that matches the target object. The first correction unit determines an image quality parameter that matches the object of interest, adjusts the determined image quality parameter based on the correction applied intensity distribution determined by the correction applied intensity distribution generation unit, and adjusts the image quality parameter according to the adjusted correction parameter. A first corrected image is obtained by performing image quality correction processing centering on the object.
[0015]
On the other hand, the second correction unit performs the second correction by performing a desired image quality correction process on an image different from the first corrected image generated by the first correction unit and excluding at least a part other than the object of interest. Obtain a completed image. Then, the combining processing unit combines the first and second corrected images to obtain a corrected whole image, and thereby performs image correction centering on a main subject and overall image correction such as a background. A balanced and effective image correction is realized.
[0016]
BEST MODE FOR CARRYING OUT THE INVENTION
Hereinafter, embodiments of the present invention will be described in detail with reference to the drawings.
[0017]
FIG. 1 is a block diagram illustrating a configuration example of a first embodiment of an image processing apparatus according to the present invention. In the following description, assuming an image captured by a digital camera, an image in which one person is photographed as a main subject as a target object has a slightly underexposure overall and the face area of the person is in a backlight state. An example will be described in which an image that is darkened by is handled as an input image Gin.
[0018]
The
[0019]
As the
[0020]
Further, the
[0021]
As the correction processing in the object
[0022]
Further, the
[0023]
The multi-value
[0024]
In the present embodiment, since the face area of the person is set as the recognition target object, the correction application intensity
[0025]
On the contrary, as the object exclusion image input from the background
[0026]
The object
[0027]
Similarly, the object exclusion
[0028]
When outputting image data representing an object center image, which is an image whose image quality has been corrected, to the
[0029]
Similarly, when outputting the image data representing the object exclusion image, which is the image whose image quality has been corrected, to the
[0030]
FIG. 2 shows an example of the correction applied intensity distribution determined by the correction applied
[0031]
FIG. 2A is an example of a correction application intensity distribution for the object center portion correction unit 20 (specifically, the parameter generation unit 22). Here, the center of the object is corrected most strongly, and the correction is gradually weakened. The intensity distribution is as follows. FIG. 2B is an example of a correction application intensity distribution for the object exclusion portion correction unit 30 (specifically, the parameter generation unit 32). Here, contrary to FIG. 2A, correction is performed at the center of the object. Are hardly corrected and gradually become stronger as the position approaches the background portion, and the intensity distribution is such that the background portion is most strongly (uniformly) corrected. That is, the respective distributions are determined so that the first correction applied intensity distribution for the
[0032]
FIG. 2C is an example of an intensity distribution for the object center correction unit 20 (specifically, the object correction unit 24). Here, the distribution is similar to that of FIG. The intensity distribution is such that the strongest remains and the image data gradually disappears. FIG. 2D is an example of an intensity distribution for the object exclusion part correction unit 30 (specifically, the background part correction unit 34). Here, the distribution is similar to that of FIG. The intensity distribution is such that almost no pixel data remains and pixel data gradually appears (images appear) as the pixel data approaches the background. That is, the respective distributions are determined so that the first image output intensity distribution for the object
[0033]
FIG. 2E shows another example of the intensity distribution for the object central portion correcting section 20 (specifically, the object portion correcting section 24). The object portion exhibits a uniform intensity distribution irrespective of the location (pixel position). The intensity distribution is such that almost no pixel data remains in the background portion. FIG. 2F is another example of the intensity distribution for the object exclusion part correction unit 30 (specifically, the background part correction unit 34). In the background part, a uniform intensity distribution is exhibited regardless of the location (pixel position). The intensity distribution is such that almost no pixel data remains in the object portion. Also in this case, the respective distributions are determined so that the first image output intensity distribution for the object
[0034]
Note that the correction application intensity distribution for the object center
[0035]
Each of the intensity distributions shown in FIG. 2 is a conceptual diagram projected two-dimensionally, and the intensity distribution has a three-dimensional distribution. Further, the determination method is not limited to the above-described example, and may be variable, such as by determining the size or position occupied by an object in an image or a predetermined object weight. Good. Of course, a configuration in which adjustment by a user is received may be adopted. Further, the first and second correction applied intensity distributions and the first and second image output intensity distributions do not necessarily have to have the opposite characteristics.
[0036]
FIG. 3 is a block diagram illustrating the function of the image quality correction processing in the object
[0037]
The low frequency component extraction
[0038]
Further, the high frequency component extraction
[0039]
The
[0040]
FIG. 4 is a flowchart illustrating an outline of a processing procedure in the
[0041]
Next, the correction application intensity
[0042]
The
[0043]
The object
[0044]
That is, the object center
[0045]
The
[0046]
The background
[0047]
That is, the object exclusion
[0048]
The
[0049]
As described above, the image subjected to the appropriate image quality correction processing corresponding to each of the object center
[0050]
That is, according to the first embodiment, an object of interest (area or object) is recognized from the digital image, and based on the features of the recognized object of interest (area or object) and a portion excluding the object of interest. An image is corrected by creating a correction application intensity distribution. For example, a face area or a skin area is recognized, and a multi-value mask for image quality correction is generated. Then, using the multi-valued mask, a plurality of images that have been subjected to correction processing having the characteristics of the object of interest and a portion excluding the object of interest are obtained, and these corrected images are combined. That is, a plurality of corrected images suitable for each purpose are created, and the entire correction is performed by combining images (watermarks) using a multi-valued mask.
[0051]
As a result, it is possible to achieve an effective image correction in which the image correction centered on the main subject (the object of interest in the previous example) and the image correction of the background (the part excluding the object of interest in the previous example) are well balanced. . For example, the correction is performed mainly on the main subject, but the appearance of the background and the like can be corrected moderately, and it is particularly suitable for correcting the failed image preferably in the center of the person, such as correction of a backlight or under image of the person. In addition, since the correction parameters are adjusted based on the correction application intensity distribution, it is possible to obtain an entire image with good continuity of correction between the object of interest and a portion excluding the object of interest.
[0052]
FIG. 5 is a block diagram illustrating a configuration example of a second embodiment of the image processing apparatus according to the present invention. In addition to the configuration of the first embodiment, an entire object
[0053]
The entire object
[0054]
The difference from the object center
[0055]
The
[0056]
FIG. 6 is a diagram (punch picture) for explaining the mechanism of the image quality correction process in the
[0057]
The object area recognition and
[0058]
The object exclusion
[0059]
The composite image shown in FIG. 6D is a corrected image in which the object center image corrected by the object
[0060]
The object center
[0061]
If the correction processing contents and the correction parameters of the object center
[0062]
The synthesizing
[0063]
Note that if the correction processing contents and the correction parameters of the object center
[0064]
However, if the object
[0065]
However, according to the
[0066]
Further, according to the image quality correction processing by the entire object
[0067]
FIG. 7 is a block diagram summarizing the mechanism of image quality correction processing in the
[0068]
According to the overall correction unit 8 including the object center
[0069]
Therefore, if the combined image (whole image) output from the partial correction unit 7 and the whole image output from the whole correction unit 8 are combined by the combining
[0070]
Then, a plurality of corrected images such as a partial correction at the center of the object, a partial correction at the exclusion of the object, or a whole correction at the center of the object are obtained, and by combining these corrected images, the image correction centering on the main subject and the background are corrected. Efficient image correction that further balances the image correction of the main subject and the image correction of the background, etc. Can be realized.
[0071]
FIG. 8 is a block diagram showing a configuration example of the third embodiment of the image processing apparatus according to the present invention. The difference is that in addition to the configuration of the first embodiment, a gap
[0072]
FIG. 9 is a diagram illustrating the operation of the gap
[0073]
Thereby, in the image after the synthesis by the
[0074]
In this case, it is conceivable to select which image has a higher ratio, for example, to increase the ratio of the object image having a larger area or to increase the ratio of the object center portion corrected image.
[0075]
In addition, as for the feature to be referred to, as shown in FIG. 9C, by referring to various feature amounts such as hue and saturation, as shown in FIG. 9C, excessive synthesis can be suppressed.
[0076]
FIG. 10 is a block diagram illustrating a configuration example of a fourth embodiment of the image processing apparatus according to the present invention. In addition to the configuration of the second embodiment, a gap
[0077]
On the other hand, the gap
[0078]
FIG. 11 is a diagram illustrating the operation of the gap
[0079]
In the image quality correction processing performed by the entire object
[0080]
Therefore, in the image after the synthesis by the
[0081]
Thus, in the image after the synthesis by the
[0082]
As in the case of the gap
[0083]
As described above, by providing the gap
[0084]
FIG. 12 is a block diagram illustrating a configuration example of a fifth embodiment of the image processing apparatus according to the present invention. The
[0085]
The basic configuration of the
[0086]
For example, in response to the recognition of a plurality of object regions (for example, objects 1,... N) by the object region recognition and
[0087]
The
[0088]
Then, the object
[0089]
In addition, the correction applied intensity
[0090]
Then, the
[0091]
Similarly, the object-centered
[0092]
The
[0093]
The
[0094]
According to the fifth embodiment, the effects described in the first embodiment can be enjoyed for each of a plurality of objects of interest. Therefore, the effects described in the first embodiment can be enjoyed for the entire image as well, and an effective image in which image correction centering on a plurality of main subjects and image correction of a background and the like are well balanced is achieved. Correction can be realized.
[0095]
FIG. 13 is a diagram illustrating another embodiment (modification) of the image processing apparatus according to the present invention. As a reference example, the related art and the first and second embodiments described above are also illustrated.
[0096]
In the case of Conventional Example 1 in which the characteristics of the entire image are analyzed to correct the entire image, the entire image is uniformly corrected, and the correction effect is insufficient. In the case of Conventional Example 2 in which the characteristics of an object are analyzed and the entire image is corrected with the object as the center, the correction gap is small and the continuity is almost good, but other objects are inappropriate. Further, in the case of Conventional Example 3 in which the characteristics of an object are analyzed and the entire image is corrected, and then the characteristics of the object are analyzed and only the object is corrected centering on the object, the effect of the correction is high, but the correction gap is large. Significant deterioration of continuity.
[0097]
On the other hand, the feature of the object is analyzed, the correction is performed using the correction application intensity distribution centering on the object to obtain a partially corrected image at the center of the object, and the features other than the object are analyzed to obtain the object. (Particularly the background part) as a center to obtain a partially corrected image excluding the object by performing the correction using the intensity distribution of the correction application, and further synthesizes the partially corrected image excluding the object and the partially corrected image excluding the object. According to the configuration of the first embodiment in which the entire image is generated, both the object and the object other than the object are suitably corrected, and an image having a small correction gap and good continuity is obtained.
[0098]
In addition, the characteristics of the object are analyzed, and the whole image is corrected without using the correction applied intensity distribution around the object to obtain a corrected image, and the corrected image is obtained by using the whole image and the configuration of the first embodiment. According to the configuration of the second embodiment in which the combined image is further combined with the combined image, the image quality correction effect of the object other than the object is slightly deteriorated as compared with the first embodiment, but the correction gap is further reduced and the continuity is improved. An image is obtained.
[0099]
Note that the object center
[0100]
For example, the characteristics of an object are analyzed to obtain a whole image that has been corrected for the object by using the correction application intensity distribution centering on the object, and the characteristics of objects other than the object (particularly, the background portion) are analyzed to obtain the image. Acquires a whole image that has been corrected for objects other than objects using the correction application intensity distribution centering on objects other than the object, and then combines the whole image corrected for the center of the object with the whole image corrected for the center other than the object The configuration of
[0101]
In this case, a substantially uncorrected image remains in the background portion of the entire image corrected at the center of the object, and substantially no correction is performed on the object of the entire image corrected around the object. Uncorrected images remain, but the correction gap is extremely small in any corrected whole image, and the continuity of correction is good. Therefore, if the two corrected whole images are combined, the effect of correcting the image quality of the object or the object other than the object is slightly deteriorated as compared with the first embodiment, but the correction gap is further reduced and the continuity is further improved. Is obtained.
[0102]
Further, a configuration in which the first embodiment and the first modification are combined may be adopted. For example, the characteristics of an object are analyzed, and correction is performed using the correction application intensity distribution with the object as a center to obtain a partially corrected image at the center of the object. Using the correction applied intensity distribution around the object other than the object to obtain a whole image that has been corrected according to the object other than the object, a partial corrected image corrected at the object center and a whole image corrected around the object other than the object May be configured as a modification 2 in which the entire image is generated by performing a synthesis process.
[0103]
In this case, since the background portion does not exist in the partially corrected image corrected at the center of the object, it may be necessary to adjust the addition ratio at the time of synthesis, but the image quality correction effect of the object is slightly deteriorated compared to the first embodiment. However, the image quality correction effects of the objects other than the object are almost the same, and in addition, an image having a small correction gap and good continuity can be obtained.
[0104]
Although not shown in the figure, the whole image obtained by analyzing the characteristics of the object and performing correction in accordance with the object using the correction application intensity distribution with the object as the center, and the entire object center shown in the configuration of the third embodiment A configuration in which the entire image from the
[0105]
In the above embodiment, the object center
[0106]
In this case, an electronic computing device such as a microcomputer or a personal computer is provided with each functional part such as the above-described object central
[0107]
Each function is realized not only by executing the program code read out by the computer, but also by an OS (Operating System) running on the computer based on an instruction of the program code. It may be a case where all or some of the units are performed and each function is realized by the processing. Further, after the program code read from the storage medium is written in a memory provided in a function expansion card inserted into the computer or a function expansion unit connected to the computer, the function expansion card is written based on the instruction of the program code. Or a CPU or the like provided in the function expansion unit may perform part or all of the actual processing, and the processing may realize the functions of the above-described embodiments.
[0108]
As described above, the present invention has been described using the embodiment. However, the technical scope of the present invention is not limited to the scope described in the embodiment. Various changes or improvements can be made to the above-described embodiment without departing from the spirit of the invention, and embodiments with such changes or improvements are also included in the technical scope of the present invention.
[0109]
Further, the above embodiments do not limit the invention according to the claims (claims), and all combinations of the features described in the embodiments are not necessarily essential to the means for solving the invention. Absent. The embodiments described above include inventions at various stages, and various inventions can be extracted by appropriately combining a plurality of disclosed constituent elements. Even if some components are deleted from all the components shown in the embodiment, as long as the effect is obtained, a configuration from which some components are deleted can be extracted as an invention.
[0110]
【The invention's effect】
As described above, according to the present invention, first, the characteristics of the target object in the image are analyzed to create a correction applied intensity distribution that matches the target object. Then, an image quality parameter matching the object of interest is determined, the determined image quality parameter is adjusted based on the correction applied intensity distribution, and an image quality correction process is performed centering on the object of interest in accordance with the adjusted correction parameter. One corrected image is acquired.
[0111]
In addition, separately from the first corrected image, a desired image quality correction process is performed on at least a portion excluding the object of interest to obtain a second corrected image. Then, a corrected whole image is obtained by synthesizing the corrected images each having been subjected to the preferable image quality correction processing.
[0112]
This makes it possible to effectively perform image correction of a target object such as a main subject on a target digital image, and to effectively perform image correction on a portion other than the target object such as a background. . In addition, it is possible to obtain a preferable corrected image with good continuity of correction (connection of correction) between the object of interest and the other part (for example, the background part) and less discomfort as an image.
[Brief description of the drawings]
FIG. 1 is a block diagram illustrating a configuration example of a first embodiment of an image processing apparatus according to the present invention.
FIG. 2 is a diagram illustrating an example of a correction application intensity distribution and an image output intensity distribution.
FIG. 3 is a block diagram illustrating functions of an image quality correction process.
FIG. 4 is a flowchart illustrating an outline of a processing procedure in the image processing apparatus according to the first embodiment.
FIG. 5 is a block diagram illustrating a configuration example of a second embodiment of the image processing apparatus according to the present invention.
FIG. 6 is a punch picture illustrating a mechanism of an image quality correction process in the image processing apparatus according to the second embodiment.
FIG. 7 is a block diagram summarizing the mechanism of image quality correction processing in the image processing apparatus according to the second embodiment.
FIG. 8 is a block diagram illustrating a configuration example of a third embodiment of the image processing apparatus according to the present invention.
FIG. 9 is a diagram illustrating an operation of a gap correction calculation unit in the image processing device according to the third embodiment.
FIG. 10 is a block diagram illustrating a configuration example of a fourth embodiment of the image processing apparatus according to the present invention.
FIG. 11 is a diagram illustrating an operation of a gap correction calculation unit in an image processing device according to a fourth embodiment.
FIG. 12 is a block diagram illustrating a configuration example of an image processing apparatus according to a fifth embodiment of the present invention.
FIG. 13 is a diagram illustrating another embodiment (modification) of the image processing apparatus according to the present invention.
[Explanation of symbols]
DESCRIPTION OF
Claims (14)
前記注目オブジェクトの特徴に基づいて当該注目オブジェクトに合致した前記画質補正処理のための画質パラメータの前記注目オブジェクトに対する参照度合いを示す分布であって、前記注目オブジェクトの中心ほど参照度合いが強い補正適用強度分布を決定し、
前記注目オブジェクトの特徴に基づいて当該注目オブジェクトに合致した前記画質補正処理のための前記画質パラメータを決定し、この決定した画質パラメータを前記決定した補正適用強度分布に基づいて調整し、この調整した画質パラメータに従って少なくとも前記注目オブジェクトに対して前記画質補正処理を施して補正済の第1の画像を取得し、
前記補正済の第1の画像とは異なる画像であって、少なくとも前記注目オブジェクトを除く部分に対して所望の画質補正処理を施して補正済の第2の画像を取得し、
前記補正済の第1の画像と前記補正済の第2の画像とを合成して補正済の全体画像を取得することを特徴とする画像処理方法。An image processing method of performing a desired image quality correction process on an object of interest included in an image and performing a desired image quality correction process on a portion excluding the object of interest,
A distribution indicating the degree of reference to the object of interest of the image quality parameter for the image quality correction processing that matches the object of interest based on the feature of the object of interest, and the correction application strength at which the degree of reference is stronger toward the center of the object of interest Determine the distribution,
The image quality parameter for the image quality correction process that matches the object of interest is determined based on the feature of the object of interest, and the determined image quality parameter is adjusted based on the determined correction applied intensity distribution. Applying the image quality correction processing to at least the object of interest in accordance with an image quality parameter to obtain a corrected first image;
A second image that is different from the corrected first image and that is subjected to desired image quality correction processing on at least a portion excluding the object of interest to obtain a corrected second image;
An image processing method, comprising: synthesizing the corrected first image and the corrected second image to obtain a corrected entire image.
前記注目オブジェクトの特徴に基づいて、当該注目オブジェクトに合致した前記画質補正処理のための画質パラメータの前記注目オブジェクトに対する参照度合いを示す分布であって、前記注目オブジェクトの中心ほど参照度合いが強い第1の補正適用強度分布を決定する補正適用強度分布生成部と、
前記注目オブジェクトの特徴に基づいて当該注目オブジェクトに合致した前記画質補正処理のための前記画質パラメータを決定し、この決定した画質パラメータを前記補正適用強度分布生成部が決定した前記第1の補正適用強度分布に基づいて調整し、この調整した画質パラメータに従って少なくとも前記注目オブジェクトに対して前記画質補正処理を施して第1の補正済画像を取得する第1補正部と、
前記第1補正部が生成した前記第1の補正済画像とは異なる画像であって、少なくとも前記注目オブジェクトを除く部分に対して所望の画質補正処理を施して第2の補正済画像を取得する第2補正部と、
前記第1補正部が生成した前記第1の補正済画像と前記第2補正部が生成した前記第2の補正済画像とを合成して補正済の全体画像を取得する合成処理部と
を備えたことを特徴とする画像処理装置。An image processing apparatus that performs a desired image quality correction process on a target object included in an image and performs a desired image quality correction process on a portion excluding the target object,
A distribution indicating the degree of reference to the object of interest of an image quality parameter for the image quality correction process that matches the object of interest based on the feature of the object of interest. A correction application intensity distribution generation unit that determines a correction application intensity distribution of
Determining the image quality parameter for the image quality correction process that matches the object of interest based on the characteristics of the object of interest; and determining the determined image quality parameter by the first correction application determined by the correction application intensity distribution generation unit. A first correction unit that adjusts based on the intensity distribution, performs the image quality correction process on at least the object of interest in accordance with the adjusted image quality parameter, and obtains a first corrected image;
A desired image quality correction process is performed on at least a part other than the object of interest, which is different from the first corrected image generated by the first correction unit, to obtain a second corrected image. A second correction unit;
A combination processing unit that combines the first corrected image generated by the first correction unit and the second corrected image generated by the second correction unit to obtain a corrected entire image. An image processing apparatus characterized in that:
前記第2補正部は、前記注目オブジェクトを除く部分の特徴に基づいて当該注目オブジェクトを除く部分に合致した前記画質補正処理のための前記画質パラメータを決定し、この決定した画質パラメータを前記補正適用強度分布生成部が決定した前記第2の補正適用強度分布に基づいて調整し、この調整した画質パラメータに従って少なくとも前記注目オブジェクトを除く部分に対して前記画質補正処理を施して前記第2の補正済画像を取得することを特徴とする請求項2に記載の画像処理装置。The correction application intensity distribution generation unit determines a reference degree of an image quality parameter for the image quality correction process that matches the portion excluding the object of interest with respect to the part excluding the object of interest, based on characteristics of the part excluding the object of interest. A second correction applied intensity distribution having a lower reference degree toward the center of the object of interest.
The second correction unit determines the image quality parameter for the image quality correction process that matches the portion excluding the object of interest based on the characteristics of the portion except the object of interest, and applies the determined image quality parameter to the correction application An adjustment is performed based on the second correction applied intensity distribution determined by the intensity distribution generation unit, and the image quality correction processing is performed on at least a portion excluding the object of interest according to the adjusted image quality parameter to obtain the second corrected The image processing apparatus according to claim 2, wherein the apparatus acquires an image.
前記画像合成部は、前記第2補正部が生成した前記第2の補正済画像のうちの一方である、前記第2の補正適用強度分布に基づいて調整された画質パラメータに従って前記画質補正処理が施された補正済画像と前記第1補正部が生成した前記第1の補正済画像とを合成し、さらにこの合成した画像と前記第2補正部が生成した前記第2の補正済画像のうちの他方である前記画像の略全体を含む補正済画像とを合成する
ことを特徴とする請求項3から8のうちの何れか1項に記載の画像処理装置。The second correction unit determines the image quality parameter for the image quality correction process that matches the object of interest based on the feature of the object of interest, and excludes the object of interest and the object of interest in accordance with the determined image quality parameter. Performing the image quality correction process on the portion to obtain the second corrected image including substantially the entire image,
The image synthesizing unit performs the image quality correction process according to an image quality parameter adjusted based on the second correction applied intensity distribution, which is one of the second corrected images generated by the second correction unit. Combining the applied corrected image and the first corrected image generated by the first correction unit, and further combining the synthesized image with the second corrected image generated by the second correction unit. The image processing apparatus according to any one of claims 3 to 8, wherein the image processing apparatus synthesizes a corrected image including substantially the entirety of the other image.
前記第1補正部は、前記複数の注目オブジェクトについて、それぞれの前記注目オブジェクトの特徴に基づいて当該注目オブジェクトに合致した前記画質補正処理のための前記画質パラメータをそれぞれ決定し、この決定した画質パラメータを前記補正適用強度分布生成部が決定したそれぞれの前記注目オブジェクトに対応する前記第1の補正適用強度分布に基づいて調整し、この調整した画質パラメータに従って少なくとも対応する前記注目オブジェクトに対してそれぞれ前記画質補正処理を施すことで、複数の前記第1の補正済画像を取得し、
前記第2補正部は、前記第1補正部が生成した前記複数の第1の補正済画像のそれぞれとは異なる画像であって、少なくとも前記複数の注目オブジェクトを除く部分に対して所望の画質補正処理を施して1つの前記第2の補正済画像を取得し、
前記合成処理部は、前記第1補正部が生成した前記複数の第1の補正済画像と前記第2補正部が生成した前記1つの第2の補正済画像とを合成して前記補正済の全体画像を取得する
ことを特徴とする請求項2から9のうちの何れか1項に記載の画像処理装置。The correction application intensity distribution generating unit is a distribution indicating a reference degree of the image quality parameter for the image quality correction processing that matches each of the target objects, based on characteristics of the plurality of target objects, with respect to each of the target objects. And determining the first correction applied intensity distribution having a higher reference degree toward the center of the target object,
The first correction unit determines, for the plurality of target objects, the image quality parameters for the image quality correction process that match the target object based on the characteristics of the target objects, and determines the determined image quality parameter. Is adjusted based on the first correction applied intensity distribution corresponding to each of the target objects determined by the correction applied intensity distribution generation unit, and the at least corresponding target objects are respectively adjusted according to the adjusted image quality parameters. By performing image quality correction processing, a plurality of the first corrected images are obtained,
The second correction unit is configured to perform desired image quality correction on an image different from each of the plurality of first corrected images generated by the first correction unit and excluding at least a portion excluding the plurality of target objects. Processing to obtain one said second corrected image,
The combination processing unit combines the plurality of first corrected images generated by the first correction unit and the one second corrected image generated by the second correction unit, and sets the corrected The image processing apparatus according to claim 2, wherein an entire image is acquired.
前記第2補正部は、前記複数の注目オブジェクトを除く部分の特徴に基づいて当該複数の注目オブジェクトを除く部分に合致した前記画質補正処理のための前記画質パラメータを決定し、この決定した画質パラメータを前記補正適用強度分布生成部が決定した前記第2の補正適用強度分布に基づいて調整し、この調整した画質パラメータに従って少なくとも前記複数の注目オブジェクトを除く部分に対して前記画質補正処理を施して前記第2の補正済画像の一方である1つの補正済画像画像を取得するとともに、前記複数の注目オブジェクトについて、それぞれの前記注目オブジェクトの特徴に基づいて当該注目オブジェクトに合致した前記画質補正処理のための前記画質パラメータを決定し、この決定した画質パラメータに従って前記注目オブジェクトおよび当該注目オブジェクトを除く部分に対して前記画質補正処理を施して前記画像の略全体を含む前記第2の補正済画像の他方である補正済画像をそれぞれ取得し、
前記画像合成部は、前記第2補正部が生成した前記第2の補正済画像のうちの一方である、前記第2の補正適用強度分布に基づいて調整された画質パラメータに従って前記画質補正処理が施された1つの補正済画像と前記第1補正部が生成した前記複数の第1の補正済画像とを合成し、さらにこの合成した画像と前記第2補正部が生成した前記第2の補正済画像のうちの他方である複数の前記画像の略全体を含む補正済画像とを合成する
ことを特徴とする請求項10に記載の画像処理装置。The correction application intensity distribution generation unit may be configured to, based on a feature of a portion excluding the plurality of target objects, extract the plurality of target objects of the image quality parameter for the image quality correction process that matches the portion excluding the plurality of target objects. Determining a second correction applied intensity distribution, which is a distribution indicating a reference degree to a part to be excluded, the reference degree being lower toward the center of the object of interest;
The second correction unit determines the image quality parameter for the image quality correction processing that matches the portion excluding the plurality of target objects, based on characteristics of the portion excluding the plurality of target objects, and determines the determined image quality parameter. Is adjusted based on the second correction applied intensity distribution determined by the correction applied intensity distribution generator, and the image quality correction process is performed on at least a portion excluding the plurality of target objects according to the adjusted image quality parameter. While acquiring one corrected image image which is one of the second corrected images, the image quality correction processing for the plurality of target objects, which matches the target object based on the characteristics of each target object, is performed. And determining the image quality parameter according to the determined image quality parameter. Objects and the considered object excluding the portion the image quality correction processing said second containing substantially the entire of the image by performing relative to other in a modified image of the modified image respectively acquired,
The image synthesizing unit performs the image quality correction process according to an image quality parameter adjusted based on the second correction applied intensity distribution, which is one of the second corrected images generated by the second correction unit. One corrected image that has been applied is combined with the plurality of first corrected images generated by the first correction unit, and the combined image is combined with the second correction generated by the second correction unit. The image processing apparatus according to claim 10, wherein a corrected image including substantially the entirety of the plurality of images, which is the other of the processed images, is combined.
前記合成処理部は、前記合成比率算出部が算出した前記合成の割合に従って前記第1の補正済画像と前記第2の補正済画像とを合成する
ことを特徴とする請求項2から11のうちの何れか1項に記載の画像処理装置。A combining ratio for determining a combining ratio of the first corrected image and the second corrected image in the combining processing unit based on the first corrected image and the second corrected image. Equipped with a calculation unit,
12. The image processing apparatus according to claim 2, wherein the combination processing unit combines the first corrected image and the second corrected image in accordance with the combination ratio calculated by the combination ratio calculation unit. The image processing device according to any one of claims 1 to 4.
コンピュータを、
前記注目オブジェクトの特徴に基づいて、当該注目オブジェクトに合致した前記画質補正処理のための画質パラメータの前記注目オブジェクトに対する参照度合いを示す分布であって、前記注目オブジェクトの中心ほど参照度合いが強い第1の補正適用強度分布を決定する補正適用強度分布生成部と、
前記注目オブジェクトの特徴に基づいて当該注目オブジェクトに合致した前記画質補正処理のための前記画質パラメータを決定し、この決定した画質パラメータを前記補正適用強度分布生成部が決定した前記第1の補正適用強度分布に基づいて調整し、この調整した画質パラメータに従って少なくとも前記注目オブジェクトに対して前記画質補正処理を施して第1の補正済画像を取得する第1補正部と、
前記第1補正部が生成した前記第1の補正済画像とは異なる画像であって、少なくとも前記注目オブジェクトを除く部分に対して所望の画質補正処理を施して第2の補正済画像を取得する第2補正部と、
前記第1補正部が生成した前記第1の補正済画像と前記第2補正部が生成した前記第2の補正済画像とを合成して補正済の全体画像を取得する合成処理部と
して機能させることを特徴とするプログラム。A program for performing a desired image quality correction process on an object of interest included in an image and performing a desired image quality correction process on a portion excluding the object of interest,
Computer
A distribution indicating the degree of reference to the object of interest of an image quality parameter for the image quality correction process that matches the object of interest based on the feature of the object of interest. A correction application intensity distribution generation unit that determines a correction application intensity distribution of
Determining the image quality parameter for the image quality correction process that matches the object of interest based on the characteristics of the object of interest; and determining the determined image quality parameter by the first correction application determined by the correction application intensity distribution generation unit. A first correction unit that adjusts based on the intensity distribution, performs the image quality correction process on at least the object of interest in accordance with the adjusted image quality parameter, and obtains a first corrected image;
A desired image quality correction process is performed on at least a part other than the object of interest, which is different from the first corrected image generated by the first correction unit, to obtain a second corrected image. A second correction unit;
The first correction unit generates a corrected whole image by synthesizing the first corrected image generated by the first correction unit and the second corrected image generated by the second correction unit. A program characterized by the following.
コンピュータに、
前記注目オブジェクトの特徴に基づいて当該注目オブジェクトに合致した前記画質補正処理のための画質パラメータの前記注目オブジェクトに対する参照度合いを示す分布であって、前記注目オブジェクトの中心ほど参照度合いが強い補正適用強度分布を決定する手順と、
前記注目オブジェクトの特徴に基づいて当該注目オブジェクトに合致した前記画質補正処理のための前記画質パラメータを決定し、この決定した画質パラメータを前記決定した補正適用強度分布に基づいて調整し、この調整した画質パラメータに従って前記注目オブジェクトに対して前記画質補正処理を施して補正済の第1の画像を取得する手順と、
前記補正済の第1の画像とは異なる画像であって、少なくとも前記注目オブジェクトを除く部分に対して所望の画質補正処理を施して補正済の第2の画像を取得する手順と、
前記補正済の第1の画像と前記補正済の第2の画像とを合成して補正済の全体画像を取得する手順と
を実行させるプログラムを格納したことを特徴とする記憶媒体。A computer-readable storage medium storing a program for performing a desired image quality correction process on an object of interest included in an image and performing a desired image quality correction process on a portion excluding the object of interest,
On the computer,
A distribution indicating the degree of reference to the object of interest of the image quality parameter for the image quality correction processing that matches the object of interest based on the feature of the object of interest, and the correction application strength is such that the degree of reference is stronger toward the center of the object of interest. Determining the distribution;
The image quality parameter for the image quality correction process that matches the object of interest is determined based on the feature of the object of interest, and the determined image quality parameter is adjusted based on the determined correction applied intensity distribution. A step of performing the image quality correction process on the object of interest in accordance with an image quality parameter to obtain a corrected first image;
Performing a desired image quality correction process on at least a portion excluding the object of interest, which is an image different from the corrected first image, to obtain a corrected second image;
Storing a program for executing a procedure of combining the corrected first image and the corrected second image to obtain a corrected entire image.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2002172343A JP2004021374A (en) | 2002-06-13 | 2002-06-13 | Image processing method, image processing device, program, and storage medium |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2002172343A JP2004021374A (en) | 2002-06-13 | 2002-06-13 | Image processing method, image processing device, program, and storage medium |
Publications (1)
Publication Number | Publication Date |
---|---|
JP2004021374A true JP2004021374A (en) | 2004-01-22 |
Family
ID=31171937
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2002172343A Pending JP2004021374A (en) | 2002-06-13 | 2002-06-13 | Image processing method, image processing device, program, and storage medium |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP2004021374A (en) |
Cited By (18)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2006019930A (en) * | 2004-06-30 | 2006-01-19 | Canon Inc | Image processor and processing method |
JP2006179987A (en) * | 2004-12-20 | 2006-07-06 | Canon Inc | Image processing apparatus, image processing method, and program |
WO2006129601A1 (en) * | 2005-06-03 | 2006-12-07 | Nikon Corporation | Image processing device, image processing method, image processing program product, and imaging device |
JP2007274262A (en) * | 2006-03-31 | 2007-10-18 | Seiko Epson Corp | Device, method and program for processing image |
JP2007272477A (en) * | 2006-03-30 | 2007-10-18 | Denso It Laboratory Inc | Image correction method |
JP2008180756A (en) * | 2007-01-23 | 2008-08-07 | Matsushita Electric Ind Co Ltd | Video signal processing apparatus, video signal processing method, image signal processing program, integrated circuit, and video signal display device |
JP2009200900A (en) * | 2008-02-22 | 2009-09-03 | Nikon Corp | Imaging apparatus |
JP2009206583A (en) * | 2008-02-26 | 2009-09-10 | Nikon Corp | Imaging apparatus, and image processing program |
JP2009225422A (en) * | 2008-02-19 | 2009-10-01 | Canon Inc | Image encoding apparatus, image processing apparatus, and control method thereof |
JP2010015607A (en) * | 2003-11-05 | 2010-01-21 | Seiko Epson Corp | Image processing apparatus and image processing method |
JP2010521719A (en) * | 2007-03-14 | 2010-06-24 | オリンパス株式会社 | Image processing system and image processing program |
CN102170527A (en) * | 2010-02-16 | 2011-08-31 | 卡西欧计算机株式会社 | Image processing apparatus |
JP2012128881A (en) * | 2012-03-21 | 2012-07-05 | Olympus Corp | Image processing method |
JP2012216179A (en) * | 2011-03-31 | 2012-11-08 | Casio Comput Co Ltd | Image processing device, image processing method, and program |
US8547386B2 (en) | 2010-02-04 | 2013-10-01 | Casio Computer Co., Ltd. | Image processing device and non-transitory computer-readable storage medium |
JP2019070872A (en) * | 2017-10-05 | 2019-05-09 | カシオ計算機株式会社 | Image processing device, image processing method, and program |
JP2019212275A (en) * | 2018-06-07 | 2019-12-12 | 北京曠視科技有限公司Beijing Kuangshi Technology Co., Ltd. | Image processing method, image processing apparatus, and electronic device |
JP7534866B2 (en) | 2020-04-21 | 2024-08-15 | キヤノン株式会社 | Image processing device and method, program, and storage medium |
-
2002
- 2002-06-13 JP JP2002172343A patent/JP2004021374A/en active Pending
Cited By (27)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2010015607A (en) * | 2003-11-05 | 2010-01-21 | Seiko Epson Corp | Image processing apparatus and image processing method |
JP2006019930A (en) * | 2004-06-30 | 2006-01-19 | Canon Inc | Image processor and processing method |
JP2006179987A (en) * | 2004-12-20 | 2006-07-06 | Canon Inc | Image processing apparatus, image processing method, and program |
WO2006129601A1 (en) * | 2005-06-03 | 2006-12-07 | Nikon Corporation | Image processing device, image processing method, image processing program product, and imaging device |
US8150099B2 (en) | 2005-06-03 | 2012-04-03 | Nikon Corporation | Image processing device, image processing method, image processing program product, and imaging device |
JP4780104B2 (en) * | 2005-06-03 | 2011-09-28 | 株式会社ニコン | Image processing apparatus, image processing method, image processing program product, and imaging apparatus |
JPWO2006129601A1 (en) * | 2005-06-03 | 2009-01-08 | 株式会社ニコン | Image processing apparatus, image processing method, image processing program product, and imaging apparatus |
JP4632992B2 (en) * | 2006-03-30 | 2011-02-16 | 株式会社デンソーアイティーラボラトリ | Image correction method |
JP2007272477A (en) * | 2006-03-30 | 2007-10-18 | Denso It Laboratory Inc | Image correction method |
JP2007274262A (en) * | 2006-03-31 | 2007-10-18 | Seiko Epson Corp | Device, method and program for processing image |
JP2008180756A (en) * | 2007-01-23 | 2008-08-07 | Matsushita Electric Ind Co Ltd | Video signal processing apparatus, video signal processing method, image signal processing program, integrated circuit, and video signal display device |
US8463034B2 (en) | 2007-03-14 | 2013-06-11 | Olympus Corporation | Image processing system and computer-readable recording medium for recording image processing program |
JP2010521719A (en) * | 2007-03-14 | 2010-06-24 | オリンパス株式会社 | Image processing system and image processing program |
JP2009225422A (en) * | 2008-02-19 | 2009-10-01 | Canon Inc | Image encoding apparatus, image processing apparatus, and control method thereof |
JP2009200900A (en) * | 2008-02-22 | 2009-09-03 | Nikon Corp | Imaging apparatus |
JP2009206583A (en) * | 2008-02-26 | 2009-09-10 | Nikon Corp | Imaging apparatus, and image processing program |
US8547386B2 (en) | 2010-02-04 | 2013-10-01 | Casio Computer Co., Ltd. | Image processing device and non-transitory computer-readable storage medium |
CN102170527A (en) * | 2010-02-16 | 2011-08-31 | 卡西欧计算机株式会社 | Image processing apparatus |
US8736682B2 (en) | 2010-02-16 | 2014-05-27 | Casio Computer Co., Ltd. | Image processing apparatus |
JP2012216179A (en) * | 2011-03-31 | 2012-11-08 | Casio Comput Co Ltd | Image processing device, image processing method, and program |
CN102842140A (en) * | 2011-03-31 | 2012-12-26 | 卡西欧计算机株式会社 | Image processing apparatus and image processing method |
US9020255B2 (en) | 2011-03-31 | 2015-04-28 | Casio Computer Co., Ltd. | Image processing apparatus, image processing method, and storage medium |
JP2012128881A (en) * | 2012-03-21 | 2012-07-05 | Olympus Corp | Image processing method |
JP2019070872A (en) * | 2017-10-05 | 2019-05-09 | カシオ計算機株式会社 | Image processing device, image processing method, and program |
JP2019212275A (en) * | 2018-06-07 | 2019-12-12 | 北京曠視科技有限公司Beijing Kuangshi Technology Co., Ltd. | Image processing method, image processing apparatus, and electronic device |
US10949952B2 (en) | 2018-06-07 | 2021-03-16 | Beijing Kuangshi Technology Co., Ltd. | Performing detail enhancement on a target in a denoised image |
JP7534866B2 (en) | 2020-04-21 | 2024-08-15 | キヤノン株式会社 | Image processing device and method, program, and storage medium |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
EP2216988B1 (en) | Image processing device and method, program, and recording medium | |
US7013025B2 (en) | Image correction apparatus | |
JP4163353B2 (en) | Image processing device | |
JP2004021374A (en) | Image processing method, image processing device, program, and storage medium | |
US8385680B2 (en) | Image processing apparatus and image processing method | |
US6825884B1 (en) | Imaging processing apparatus for generating a wide dynamic range image | |
US7580566B2 (en) | Image processing device, image processing method, storage medium, and program | |
JP5901667B2 (en) | Image processing apparatus and method, image processing program, and imaging apparatus | |
CN111526279B (en) | Image processing apparatus, image processing method, and recording medium | |
JP7129520B2 (en) | Image processing device, image processing method, and program | |
WO2018154965A1 (en) | Image processing device and imaging apparatus | |
JP2011228807A (en) | Image processing program, image processing apparatus, and image processing method | |
JP2009065350A (en) | Image processor, image processing method, and storage medium | |
JP6904788B2 (en) | Image processing equipment, image processing methods, and programs | |
JP4013699B2 (en) | Image processing apparatus and image processing method | |
JP5932392B2 (en) | Image processing apparatus and image processing method | |
JP2002288650A (en) | Image processing device, digital camera, image processing method and recording medium | |
JP2007028088A (en) | Imaging apparatus and image processing method | |
JP2008305122A (en) | Image-processing apparatus, image processing method and program | |
JP2006217277A (en) | Imaging device | |
JP5381354B2 (en) | Image processing apparatus, image processing method, program, and storage medium | |
JP4539674B2 (en) | Image processing apparatus, image processing method, and processor used for image processing | |
JPH11196324A (en) | Method and device for outputting image | |
US20240078650A1 (en) | Image processing apparatus, image processing method and storage medium | |
JP2013127804A (en) | Image processing program, image processing device and image processing method |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20050523 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20080827 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20080909 |
|
A521 | Written amendment |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20081110 |
|
A521 | Written amendment |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20081225 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20090127 |
|
A02 | Decision of refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A02 Effective date: 20090526 |