Nothing Special   »   [go: up one dir, main page]

JP2016012901A - 画像処理装置、画像処理方法及び画像処理プログラム - Google Patents

画像処理装置、画像処理方法及び画像処理プログラム Download PDF

Info

Publication number
JP2016012901A
JP2016012901A JP2014135107A JP2014135107A JP2016012901A JP 2016012901 A JP2016012901 A JP 2016012901A JP 2014135107 A JP2014135107 A JP 2014135107A JP 2014135107 A JP2014135107 A JP 2014135107A JP 2016012901 A JP2016012901 A JP 2016012901A
Authority
JP
Japan
Prior art keywords
image
image processing
range
accumulated
relative position
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2014135107A
Other languages
English (en)
Other versions
JP6317635B2 (ja
Inventor
三島 直
Sunao Mishima
直 三島
三田 雄志
Takeshi Mita
雄志 三田
優介 森内
Yusuke Moriuchi
優介 森内
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Toshiba Corp
Original Assignee
Toshiba Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Toshiba Corp filed Critical Toshiba Corp
Priority to JP2014135107A priority Critical patent/JP6317635B2/ja
Priority to US14/746,952 priority patent/US9843711B2/en
Priority to CN201510369218.9A priority patent/CN105227826A/zh
Publication of JP2016012901A publication Critical patent/JP2016012901A/ja
Application granted granted Critical
Publication of JP6317635B2 publication Critical patent/JP6317635B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/60Control of cameras or camera modules
    • H04N23/67Focus control based on electronic image sensor signals
    • H04N23/676Bracketing for image capture at varying focusing conditions
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/70Circuitry for compensating brightness variation in the scene
    • H04N23/743Bracketing, i.e. taking a series of images with varying exposure conditions
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/80Camera processing pipelines; Components thereof
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/95Computational photography systems, e.g. light-field imaging systems
    • H04N23/951Computational photography systems, e.g. light-field imaging systems by using two or more images to influence resolution, frame rate or aspect ratio
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20212Image combination
    • G06T2207/20221Image fusion; Image merging
    • HELECTRICITY
    • H01ELECTRIC ELEMENTS
    • H01LSEMICONDUCTOR DEVICES NOT COVERED BY CLASS H10
    • H01L27/00Devices consisting of a plurality of semiconductor or other solid-state components formed in or on a common substrate
    • H01L27/14Devices consisting of a plurality of semiconductor or other solid-state components formed in or on a common substrate including semiconductor components sensitive to infrared radiation, light, electromagnetic radiation of shorter wavelength or corpuscular radiation and specially adapted either for the conversion of the energy of such radiation into electrical energy or for the control of electrical energy by such radiation
    • H01L27/144Devices controlled by radiation
    • H01L27/146Imager structures
    • H01L27/14601Structural or functional details thereof
    • H01L27/1462Coatings
    • H01L27/14621Colour filter arrangements
    • HELECTRICITY
    • H01ELECTRIC ELEMENTS
    • H01LSEMICONDUCTOR DEVICES NOT COVERED BY CLASS H10
    • H01L27/00Devices consisting of a plurality of semiconductor or other solid-state components formed in or on a common substrate
    • H01L27/14Devices consisting of a plurality of semiconductor or other solid-state components formed in or on a common substrate including semiconductor components sensitive to infrared radiation, light, electromagnetic radiation of shorter wavelength or corpuscular radiation and specially adapted either for the conversion of the energy of such radiation into electrical energy or for the control of electrical energy by such radiation
    • H01L27/144Devices controlled by radiation
    • H01L27/146Imager structures
    • H01L27/14601Structural or functional details thereof
    • H01L27/14625Optical elements or arrangements associated with the device
    • H01L27/14627Microlenses
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/50Constructional details
    • H04N23/55Optical parts specially adapted for electronic image sensors; Mounting thereof

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Computing Systems (AREA)
  • Theoretical Computer Science (AREA)
  • Studio Devices (AREA)
  • Image Processing (AREA)

Abstract

【課題】高画質な画像を提供する画像処理装置、画像処理方法及び画像処理プログラムを提供する。
【解決手段】実施形態によれば、撮像部と、画像処理部と、を含む画像処理装置が提供される。前記撮像部は、撮像素子と、前記撮像素子へ向かう光が通過するレンズと、を含む。前記撮像素子と前記レンズとの相対的位置は可変である。前記画像処理部は、前記相対的位置が第1範囲にあるときに前記撮像素子によって撮像された第1画像、及び、前記相対的位置が前記第1範囲とは異なる第2範囲にあるときに前記撮像素子によって撮像された第2画像を取得し、前記第1画像に少なくとも前記第2画像の一部が加算された第1蓄積画像を導出する。
【選択図】図1

Description

本発明の実施形態は、画像処理装置、画像処理方法及び画像処理プログラムに関する。
例えば、露光中に焦点(ピント)の位置を変化させて撮像した画像を処理することで全焦点画像を得る画像処理方法、画像処理装置及び画像処理プログラムがある。このような、複数のピントの位置に対応した画像において、高画質が望まれる。
特開2013−110700号公報
本発明の実施形態は、高画質な画像を提供する画像処理装置、画像処理方法及び画像処理プログラムを提供する。
本発明の実施形態によれば、撮像部と、画像処理部と、を含む画像処理装置が提供される。前記撮像部は、撮像素子と、前記撮像素子へ向かう光が通過するレンズと、を含む。前記撮像素子と前記レンズとの相対的位置は、可変である。前記画像処理部は、前記相対的位置が第1範囲にあるときに前記撮像素子によって撮像された第1画像、及び、前記相対的位置が前記第1範囲とは異なる第2範囲にあるときに前記撮像素子によって撮像された第2画像を取得し、前記第1画像に少なくとも前記第2画像の一部を加算して第1蓄積画像を導出する。
第1の実施形態に係る画像処理装置を示すブロック図である。 第1の実施形態に係る画像処理装置を示す模式的断面図である。 第1の実施形態に係る画像処理装置を示す模式図である。 第1の実施形態に係る画像処理装置の動作を示すフローチャートである。 PSFを示す模式図である。 PSFを示す模式図である。 PSFを示す模式図である。 PSFを示す模式図である。 参考例の画像処理装置の特性を示す模式図である。 第1の実施形態に係る画像処理装置の特性を示す模式図である。 第2の実施形態に係る画像処理装置を示すブロック図である。 第2の実施形態に係る画像処理装置の動作を示すフローチャートである。 第3の実施形態に係る画像処理装置を示すブロック図である。 図14(a)〜図14(e)は、第3の実施形態に係る画像処理装置の動作を示す模式図である。 第3の実施形態に係る画像処理装置の動作を示す模式図である。 第4の実施形態に係る画像処理装置を示すブロック図である。 実施形態に係る画像処理装置を示すブロック図である。
以下に、各実施の形態について図面を参照しつつ説明する。
なお、図面は模式的または概念的なものであり、各部分の厚みと幅との関係、部分間の大きさの比率などは、必ずしも現実のものと同一とは限らない。また、同じ部分を表す場合であっても、図面により互いの寸法や比率が異なって表される場合もある。
なお、本願明細書と各図において、既出の図に関して前述したものと同様の要素には同一の符号を付して詳細な説明は適宜省略する。
(第1の実施形態)
図1は、第1の実施形態に係る画像処理装置を例示するブロック図である。
図2は、第1の実施形態に係る画像処理装置を例示する模式的断面図である。
図1に表したように第1の実施形態に係る画像処理装置100は、フォーカス位置決定部10(位置決定部)と、撮像部20と、画像処理部30と、を含む。図2に表したように撮像部20は、レンズ22と、撮像素子25と、を含む。
レンズ22は、撮像素子25へ向かって入射した光を通過させる撮像レンズである。撮像素子25に対するレンズ22の相対的位置(フォーカス位置)は、可変である。撮像部20において、フォーカス位置を変更することで、被写体にピントを合わせたり、ピントをずらしたりすることができる。
撮像部20において、複数の画像が撮像される。撮像された複数の画像は、画像処理部30に時々刻々と入力される。画像処理部30は、入力された複数の画像を蓄積し、蓄積した複数の画像に基づいて出力画像を導出する。このように複数の画像を用いることで、例えばノイズを抑制した高画質な出力画像を得ることができる。
図1に表したフォーカス位置決定部10は、撮像素子25に対するレンズ22の相対的位置を決定する。撮像部20は、決定された位置にフォーカス位置を変更して画像を撮像(撮影)する。画像処理部30の蓄積部32は、撮像された画像を蓄積バッファに記憶された蓄積画像に蓄積する。さらに、撮像部20は、フォーカス位置決定部10によって決定された別の位置にフォーカス位置を変更して画像を撮像する。撮像された画像は、蓄積画像にさらに蓄積加算される。実施形態においては、このようにフォーカス位置の変更と撮像とを繰り返し、それらの画像を加算した蓄積画像を得る。
蓄積画像は、異なる複数のピントの位置に対応した情報を含み、画面内で暈けた画像となる。画像処理部30(復元部33)は、このような蓄積画像に対して暈け除去処理を施す。これにより、高画質な出力画像を得ることができる。撮像素子からの距離が互いに異なる被写体のそれぞれに合焦した画像(例えば全焦点画像)を得ることができる。
図2において、撮像素子25からレンズ22へ向かう方向をZ軸方向とする。
この例では、撮像素子25には、撮像領域21と、半導体基板24と、が設けられている。撮像領域21は、例えば、Z軸方向から見てレンズ22と重なる位置に配置される。
レンズ22は、レンズ保持部23によって保持されている。レンズ22の光軸がZ軸方向に沿うように配置される。例えば、レンズ保持部23に設けられた調整機構によって、フォーカス位置が調整される。
例えば、フォーカス位置決定部10及び画像処理部30は、半導体基板24に設けられる。フォーカス位置決定部10及び画像処理部30の少なくとも一部が、半導体基板24とは別に設けられてもよい。回路基板26がさらに設けられ、フォーカス位置決定部10及び画像処理部30の少なくとも一部が回路基板26に設けられてもよい。
撮像領域21には、例えば、フォトダイオード層21aと、マイクロレンズ層21bと、カラーフィルタ層21cと、が設けられる。カラーフィルタ層21cは、フォトダイオード層21aとマイクロレンズ層21bとの間に配置されている。
フォトダイオード層21aには、Z軸方向に対して垂直な平面内において並ぶ複数のフォトダイオードが設けられる。マイクロレンズ層21bには、Z軸方向に対して垂直な平面内において並ぶ複数のマイクロレンズが設けられる。カラーフィルタ層21cには、Z軸方向に対して垂直な平面内において並ぶ複数のカラーフィルタが設けられる。例えば、1つのフォトダイオードと1つのマイクロレンズとの間に、1つのカラーフィルタが設けられる。
なお、図2に示した構成は一例であり、実施形態において、フォーカス位置決定部10、撮像部20及び画像処理部30などは、上記の例に限られない。実施形態においては、種々の変形が可能である。例えば、撮像素子25には、CMOSイメージセンサやCCDイメージセンサなど一般的な撮像素子を用いることができる。フォーカス位置の変更において、撮像素子25を動かす機構を用いてもよい。
図3は、第1の実施形態に係る画像処理装置を例示する模式図である。
ここで、フォーカス位置(撮像素子25に対するレンズ22の相対的位置)をvと表す。この例では、フォーカス位置vは、レンズ22の位置である。なお、撮像素子25を動かす機構を用いた場合、フォーカス位置は、撮像素子25の位置である。
スイープ範囲Rsは、フォーカス位置vを変化(移動)させる範囲を表す。スイープ範囲Rsは、フォーカス位置vが変化可能な、予め設定された範囲である。スイープ範囲Rsが広いほど全焦点画像の奥行きも広がることになる。スイープ範囲Rsを以下のように定義する。
Figure 2016012901
すなわち、フォーカス位置vは、位置vから位置vの間において変化可能である。
図4は、第1の実施形態に係る画像処理装置の動作を例示するフローチャートである。 画像処理装置100における画像処理方法は、ステップS10〜ステップS17を含む。
ステップS10において、フォーカス位置決定部10によって撮像時におけるフォーカス位置が決定される。フォーカス位置決定部10は、フォーカス位置が第1位置であるときに撮像を行うことを決定する。そして、後述のステップS11〜S15を実施した後、再びステップS10において、フォーカス位置が第2位置であるときに撮像を行うことを決定する。第2位置は、第1位置とは異なるフォーカス位置である。
なお、図4に表したステップS10〜S15の繰り返し処理を、ステップS11〜S15の繰り返し処理としてもよい。この場合には、ステップS10において、フォーカス位置決定部10は、複数のフォーカス位置において、画像を撮像することを決定する。
フォーカス位置の決定には、色々なバリエーションを用いることができる。例えば、スイープ範囲Rs内でランダムに、フォーカス位置を決定しても良い。すなわち、第1位置及び第2位置のそれぞれは、スイープ範囲Rsにおいて無作為に選ばれた位置であってもよい。
適当な刻み幅を与えて、それに従ってスイープ範囲Rs内でフォーカス位置を決定してもよい。すなわち、第1位置及び第2位置のそれぞれは、スイープ範囲Rsにおいて互いに等間隔に並ぶ複数の位置のいずれかであってもよい。
スイープ範囲Rs内において、複数のフォーカス位置vが適度にばらついていることが好ましい。例えば、レンズ22の光軸方向における中心と撮像素子25との間の距離が、レンズ22の焦点距離となるフォーカス位置を、第1位置とする。このとき、撮像部20のピントは、無限遠に対応する。さらに、レンズ22の光軸方向における中心と撮像素子25との間の距離が、レンズ22の焦点距離よりも短くなるフォーカス位置を第2位置とする。例えば、第2位置は、撮像部20の最短撮影距離に対応する。このような第1位置と第2位置との間の複数のフォーカス位置において、入力画像を撮像する。なお、実施形態においては、複数の入力画像は、互いに同じフォーカス位置において撮像された入力画像を含んでいてもよい。
上記の例では、撮像中は、フォーカス位置を固定している。実施形態においては、露光中にフォーカス位置を移動させても構わない。例えば、フォーカス位置が第1範囲にあるときに撮像素子25によって第1画像が撮像される。第1範囲は第1位置を含み、第1画像を撮像する間に、フォーカス位置を第1範囲内で変化させる。同様に、フォーカス位置が第1範囲とは異なる第2範囲にあるときに、撮像素子25によって第2画像が撮像される。第2範囲は第2位置を含み、第2画像を撮像する間に、フォーカス位置を第2範囲内で変化させる。
ステップS11において、フォーカス位置決定部10によって決定されたフォーカス位置にレンズ22(または撮像素子25)を移動させる。例えば、フォーカス位置が、第1位置となる位置にレンズ22を移動させる。
ステップS12において、撮像素子25によって画像を撮像する。例えば、フォーカス位置が第1位置であるときに撮像素子25によって第1画像が撮像される。後述するステップS13〜S15の後に、再びステップS10〜S12が繰り返され、フォーカス位置が第2位置であるときに撮像素子25によって第2画像が撮像される。
ここで、任意のフォーカス位置vで撮像された画像(入力画像)の座標(x、y)における画素値を、Isrc(x,y;v)と定義する。入力画像の値は、輝度値のようなスカラーでも良いし、カラー画像に用いられるベクトル(例えばRGBやYUV)でも良い。
ステップS13では、画像処理部30において動き推定が行われる。動き推定において、入力画像から基準画像への動きベクトルを検出する。ここで、基準画像は、蓄積の基準となる画像を表す。基準画像には、入力画像の内の1つの画像を用いることができる。例えば、処理の開始時には、最初の入力画像を基準画像として用いる。基準画像の座標(x、y)における画素値を、Iref(x,y)と定義する。
例えば、第1位置において撮像された第1画像を基準画像とする。その後、第2位置において撮像された第2画像を入力画像として、第2画像から第1画像への動きベクトルが検出される。動きベクトルは、第1画像内における被写体(対象物)の位置と、第2画像内における被写体の位置との差に応じたベクトルである。
動きベクトルの検出には、様々な方法を用いることができる。例えば、ブロックマッチングを用いることができる。ただし、動きベクトルの検出方法は、それに限られない。
ブロックマッチングは、入力画像を複数の矩形のブロックに分割し、ブロック毎に対応するブロックを基準画像上から探索する方法である。1つのブロックの大きさをM×Mとする。ブロックの位置を(i、j)とする。動きを求めるための誤差関数として平均絶対値差分(Mean Absolute Difference:MAD)などを用いることができる。
Figure 2016012901
ここで、ベクトルu=(u、uは、評価したい動きベクトルである。Tは、転置を表す。
探索範囲を、−W≦x≦Wかつ−W≦y≦Wの矩形領域とすると、位置(i、j)における動きベクトルu(i、j)を求めるブロックマッチングアルゴリズムは、以下のようになる。
Figure 2016012901
ここで、
Figure 2016012901
は、誤差関数Eを最小とするu及びuを探すことを表す。
ブロック内の動きベクトルは、ブロックの動きベクトルと同一とする。すなわち、
Figure 2016012901
座標が小数で表される位置を含む精度でマッチングを行ってもよい。例えば等角直線フィッティングなどを用いることができる。
動きベクトルをここで検出しなくても、例えばMPEG2のような動画像符号化における圧縮のために用いられている動きベクトルを用いても良い。デコーダによってデコードされた動きベクトルを用いることができる。
動きベクトルの検出において、画面全体の動きを表現したパラメトリックモーションを求めても良い。例えば、LucasKanade法を使って画面全体のパラメトリックモーションを求める。求められたパラメトリックモーションから動きベクトルを求める。
パラメトリックモーションはパラメータ化された射影で動きを表現するものである。座標(x、y)における動きは、例えばアフィン変換を用いて、以下のようにあらわすことができる。
Figure 2016012901
ここで、ベクトルa=(a、a、a、a、a、aは、動きのパラメータである。このような動きパラメータを、画面全体からLucasKanade法を用いて推定する。LucasKanade法においては、以下の手順1〜4が実施される。
手順1
勾配
Figure 2016012901
を計算する。
手順2
ヘッセ行列
Figure 2016012901
を計算する。
手順3
Figure 2016012901
を計算する。
手順4
更新
Figure 2016012901
を計算する。規定数に達するまで手順2〜4を繰り返す。ここで上付きのtは、反復回数を表す。
パラメータが求まれば、
Figure 2016012901
によって、任意の座標位置の動きベクトルを求めることができる。これ以外にも、例えば、2つのフレームのそれぞれにおいて特徴点を算出し、特徴点どうしの対応付けからパラメトリックモーションを求めても良い。
ステップS14において、画像処理部30は、入力画像を蓄積バッファに蓄積する。
蓄積バッファは、基準画像に対して位置合わせされた入力画像を蓄積していくためのバッファである。蓄積バッファに記憶された蓄積画像に入力画像が蓄積される。蓄積画像の解像度は、入力画像の解像度と同じでなくてもよい。例えば、蓄積画像は、入力画像に対して、縦方向及び横方向に2倍、縦方向及び横方向に3倍、または、縦方向及び横方向に4倍、の解像度を有していてもよい。例えば、解像度を増加させることで超解像効果が生じる。これにより、高画質の画像を生成することができる。なお、蓄積画像の解像度は、入力画像の解像度よりも小さくてもよい。
蓄積画像の座標を(X、Y)とする。蓄積画像の座標(X、Y)における画素値を、B(X、Y)とする。前述のように、蓄積画像の解像度は、入力画像の解像度と異なる場合がある。このため、蓄積に際して、入力画像の解像度で求めた動きベクトルが蓄積画像の解像度に対応するように、スケールを変換する。
Figure 2016012901
ここで、ベクトルU(x、y)は、スケール変換された動きベクトルである。ρは、入力画像の解像度と蓄積画像の解像度との比である。
次に、入力画像の画素の値Isrc(x,y;v)を蓄積する位置を求める。スケール変換された動きベクトルを用いると、蓄積画像上の蓄積位置座標は、
Figure 2016012901
である。ここで、ρは、入力画像の解像度と蓄積画像の解像度との比である。
蓄積画像に入力画像の画素Isrc(x,y;v)を蓄積する。
蓄積位置座標は、座標D(x、y)であるが、これは少数である可能性がある。そこで、蓄積位置座標の近傍離散座標を求める。
Figure 2016012901
ここで、
Figure 2016012901
は、近傍離散座標を表す。
Figure 2016012901
は、蓄積位置座標に対して要素毎に四捨五入することを表す。
以下のように、近傍離散座標において、蓄積画像に入力画像の画素値を加算することで、蓄積が実施される。
Figure 2016012901
ここで、z+=aは、aをzに加算することを表す。
実施形態においては、後述するように、蓄積画像から出力画像を導出する際に、蓄積画像の画素のそれぞれについての重みが考慮される。重みは、蓄積重みバッファに保持された蓄積重み画像に蓄積される。蓄積重み画像の解像度は、蓄積画像の解像度と同じである。蓄積重み画像の座標(X,Y)における画素値を、W(X,Y)と定義する。
ステップS14において、重みの蓄積も実施する。蓄積重み画像に、蓄積画像の画素のそれぞれについて、蓄積の重みを蓄積する。すなわち、
Figure 2016012901
を実施する。この例では、蓄積の重みW(X,Y)は、蓄積画像の画素のそれぞれにおいて、入力画像が加算された回数に対応している。
なお、蓄積画像に入力画像を加算する際には、入力画像の全てではなく、一部を加算してもよい。例えば、ユーザは、画像の中央部分などを処理対象領域として指定することができる。この場合、処理対象領域に対応する入力画像の一部が、蓄積画像に加算される。
以上説明したように、入力画像から基準画像への動きベクトルを推定し、推定された動きベクトルに基づいて入力画像を位置合わせする。位置合わせされた入力画像を蓄積して蓄積画像が導出される。
例えば、前述の第2画像から第1画像への動きベクトルに基づいて、第1画像に第2画像の少なくとも一部を加算して、蓄積画像(第1蓄積画像)を導出する。すなわち、動きベクトルに基づいて、第2画像の位置(画像内における被写体の位置)を移動し、移動後の第2画像の画素値を第1画像の画素値に加算し、蓄積画像を導出する。なお、第1蓄積画像は、第1画像に少なくとも第2画像の一部が加算された画像であり、さらに別の入力画像が加算されてもよい。
実施形態に係る画像処理の方法においては、図4に示すようにステップS10からステップS14までが複数回繰り返される。ステップS15において、繰り返しを終了するか否かが判断される。繰り返しを終了しない場合には、ステップS10〜S14を再び実施する。例えば、フォーカス位置をさらに変更し、画像を撮像する。このようにして、画像処理部30は、第1画像と第2画像とを含む複数の入力画像を取得する。複数の入力画像のそれぞれが撮像されたときのフォーカス位置は、互いに異なる。画像処理部30は、取得した複数の入力画像の少なくとも一部を加算して第1蓄積画像を導出する。
ステップS15において、例えば、所定の回数だけ入力画像が蓄積された場合には、繰り返しを終了する。繰り返しを終了した場合には、ステップS16が実施される。
蓄積画像は、異なる複数のフォーカス位置の情報を含み、画面内で暈けた画像である。ステップS16及びステップS17において、蓄積画像に対して暈け除去処理を実施し、出力画像が導出される。例えば、画像処理部30は、第1画像及び第2画像が加算蓄積された第1蓄積画像に対して暈け除去処理を実施し、出力画像を導出する。暈け除去処理においては、第1位置及び第2位置に対応した点拡がり関数に基づいて、第1蓄積画像が変換される。ここで出力画像における座標(X,Y)の画素値をO(X,Y)と定義する。
なお、出力画像O(X,Y)の導出において、重み正規化が行われる。すなわち、蓄積画像の画素値を、重みで除する。これは、蓄積画像の各画素によって、蓄積の重みが異なるからである。B(X,Y)を、W(X,Y)で除する。
Figure 2016012901
ステップS16において、蓄積画像のPSF(Point Spread Function:暈け関数、点拡がり関数)を推定する。ある範囲においてフォーカス位置をスイープさせて撮像した画像のPSFは、被写体の奥行きに依らず画面内で均一となることが知られている。(H.Nagahara, S.Kuthirummal, C.Zhou, and S.K.Nayer, "Flexible Depth of Field Photography," Proc.European Conf. Computer Vision, pp.60-73,2008)。
図5〜7は、PSFの推定方法を例示する模式図である。
まず、フォーカススイープを行って撮像された画像のPSFについて説明する。フォーカススイープでは、一度の撮像において、露光中にフォーカス位置を近いところから遠いところまで変化させて、1つの画像が撮像される。フォーカススイープを行った場合、画面内が一様に暈けた画像が撮像される。
図5は、フォーカス位置vにおけるPSFを例示している。例えば、レンズの焦点距離をf、レンズのf値をfnum、とすると開口幅は、a=f/fnumと計算できる。ピントの合っているフォーカス位置をp、あるフォーカス位置をvとすると、暈け直径は、
Figure 2016012901
と計算できる。暈け直径b(v)は、フォーカス位置vが位置pから離れるほど大きくなる。
例えば、図6に表したような状況におけるPSFを考える。ここで、スイープ範囲Rsは、17(mm)から19(mm)までであるとする。
このとき、フォーカス位置vが位置v71であるときに、被写体b71にピントが合っているとする。ここで被写体b71は、撮像素子25からZ軸方向に沿って200(mm)離れた位置に配置されている。
同様に、フォーカス位置v72のときに被写体b72、フォーカス位置v73のときに被写体b73、フォーカス位置v74のときに被写体b74、フォーカス位置v75のときに被写体b75にピントがあっているとする。被写体b72〜b75のそれぞれと撮像素子25との間のZ軸方向に沿った距離は、それぞれ450(mm)、750(mm)、1150(mm)、2000(mm)である。
このような状況において、フォーカス位置vを細かく動かしながら、図5において説明した位置毎のPSFを加算する。これにより、図7のようになる。ここで、PSFは、暈け直径内において一様に畳み込まれるとしている(ピルボックス)。図7は、フォーカススイープを行って撮像された画像のPSFを推定したものである。図7の縦軸はPSFの値を表し、横軸は、ある画素からの距離Lnを表している。
図7では、ピントが合っているフォーカス位置を変化させたときのPSFを複数重ねて表示している。すなわち、複数のPSF(f71〜f75)を重ねて表示している。f71〜f75のそれぞれは、被写体b71〜b75のそれぞれの像に対応する画素についてのPSFである。このように、PSFは互いに重なっており、画像の奥行きに依存しないことが分かる。
図5〜図7において説明した例は、フォーカス位置を連続してスイープさせるフォーカススイープについての例である。これに対して、実施形態においては、既に説明したように、フォーカス位置の変更と撮像とを繰り返し、撮像された複数の画像を加算蓄積した蓄積画像を導出する。実施形態は、いわば離散的なフォーカススイープである。そこで、フォーカス位置の変更を10ステップとした離散的な場合のPSFを図8に示す。図8に示したPSFは、図7に示したPSFに比べて滑らかではないが、近似的に画像の奥行きに依存しないことが分かる。
ステップS17において、画像処理部30は、推定されたPSFを用いて蓄積画像から画像を復元する。復元には、例えばWiener Filterなどを用いることができる。推定されたPSFの行列表現を行列hとする。
出力画像をフーリエ変換したものを
Figure 2016012901
とし、復元画像のフーリエ変換を
Figure 2016012901
とし、PSFのフーリエ変換を
Figure 2016012901
とすると、Wiener Filterは、
Figure 2016012901
によって計算できる。これを逆フーリエ変換すれば復元画像となる。ここで、σ /σ は、ノイズ信号比である。
以上説明したように、フォーカス位置を変更して撮影し、またフォーカス位置を変更して撮影するということを繰り返し、それらの画像を加算することで高画質な画像を得ることができる。例えば、スマートフォンなどの携帯端末に搭載されたカメラにおいては、カメラの絞りを細かく調整することができず、被写界深度が浅い場合がある。このようなカメラにおいても、実施形態に係る画像処理方法または画像処理装置を用いることで、例えば全焦点画像を得ることができる。
図9は、参考例の画像処理装置の特性を例示する模式図である。
前述のフォーカススイープのように、露光中にフォーカス位置を変化(スイープ)させて、画面内が一様に暈けた画像を取得し、その画像に暈け除去処理を施して全焦点画像を得る、という参考例の方法がある。
図9は、フォーカススイープによって画像を撮像した場合における、電荷Qと時間Tとの関係を例示している。図9の縦軸は、撮像素子の画素に蓄積される電荷Qを表す。図9の横軸は、時間Tを表す。例えば、T=0からT=Tsまでの期間をスイープ時間とする。スイープ時間において、時間の経過とともにフォーカス位置v(スイープ位置)をvからvまで変化させて、画像が撮像される。この例では、スイープ時間中は露光し続けている。
通常の被写体(例えば屋内の被写体)b76を撮像した場合に比べて、明るい被写体b77を撮像した場合は、より速く画素(例えばフォトダイオード)に電荷が蓄積される。明るい被写体b77を撮像した場合、フォーカス位置のスイープが完了する前に、電荷Qが飽和Qsatに達してしまう。フォーカススイープにおいては、屋外などの明るい被写体を撮像したときに、すぐに画素が飽和し、スイープが間に合わない場合がある。
これに対して、実施形態においては、フォーカス位置の変更と撮像とを繰り返す。このように露光とスイープとを分離することにより、画素の飽和を気にすることなく、例えば全焦点画像を生成することができる。
図10は、第1の実施形態に係る画像処理装置の特性を例示する模式図である。
図10においても、縦軸は電荷Qを表し、横軸は時間Tを表す。図10の下方のドットは、画像が撮像される時刻と、その時のフォーカス位置vを表す。スイープ時間(T=0からT=Tsまで)のうち、図中のドットで示した時刻T1、T2…Tnにおいて撮像が行われる。それぞれの時刻におけるフォーカス位置は、互いに異なる。この例では、露光中はフォーカス位置を固定している。但し、実施形態においては、露光中にフォーカス位置を移動させても構わない。
図10に表したように、画素に蓄積された電荷は、撮像の度にリセットされる。これにより、明るい被写体b77を撮像しても、画素が飽和しにくい。例えば、明るい被写体に対しても、高画質の全焦点画像を得ることができる。
(第2の実施形態)
図11は、第2の実施形態に係る画像処理装置を例示するブロック図である。
図12は、第2の実施形態に係る画像処理装置の動作を例示するフローチャートである。
図11に表したように、第2の実施形態に係る画像処理装置101は、画像処理装置100に対してオートフォーカス検出部11をさらに含む。オートフォーカス検出部11は、カメラのオートフォーカス(AF)機能を有する。オートフォーカス機能は、様々な方法で実現することが可能である。例えば、画像のコントラストが最大となる位置にピントを合わせるコントラストAFや、位相差を取得することによってピントを合わせる位相差AFなどを用いることができる。実施形態においては、AFの方式を特に限定しない。
図12に表したように、画像処理装置101における画像処理方法は、第1の実施形態において説明したステップS10〜ステップS17に加えて、ステップS09をさらに含む。
ステップS09において、オートフォーカス機能によって、任意の被写体へピントを合わせる。オートフォーカス検出部11は、ピントが合うフォーカス位置を検出する。
ステップS10において、オートフォーカスによって検出されたフォーカス位置に基づいてスイープ範囲Rsを設定する。オートフォーカスによって検出されたフォーカス位置をvAFとすると、スイープ範囲Rsを次のように、vAFの前後に設定する。
=vAF−Δv
=vAF+Δv
ここで、Δvは、あらかじめ定められた前後スイープ幅である。第1の実施形態においては、スイープ範囲Rsの全体は、あらかじめ定められた範囲である。本実施形態では、スイープ範囲Rsは、撮像時に動的に決定される。
例えば、撮像部20のピントを被写体に合わせた状態におけるフォーカス位置を、第1位置として、第1位置において入力画像が撮像される。第1位置を基準として、その前後を第2位置とし、第2位置において、さらに入力画像が撮像される。
このように、第2の実施形態においては、カメラのオートフォーカスも併用する。オートフォーカスによってピントの合った位置から前後に、フォーカス位置をスイープさせる。これによって、全奥行位置に対応した全焦点画像だけでなく、任意の被写体を中心とした範囲に対応した画像を得ることができる。
(第3の実施形態)
図13は、第3の実施形態に係る画像処理装置を例示するブロック図である。
図14(a)〜図14(e)及び図15は、第3の実施形態に係る画像処理装置の動作を例示する模式図である。
図13に表したように、第3の実施形態に係る画像処理装置102においては、第1の実施形態に係る画像処理装置100に対して、蓄積部32における処理が異なる。本実施形態において、蓄積部32は、区分決定部32aと合成部32bとを含む。
図14(a)に表した例では、図6において説明した状況と同様に、被写体b71〜b75が配置されている。図14(a)に表したように、本実施形態では、スイープ範囲Rsを複数に区分けし、フォーカス位置がスイープ範囲Rsを区分的にスイープする(区分スイープ)。フォーカス位置は、スイープ範囲Rsの全体を一度にスイープしない。この例では、スイープ範囲Rsは、第1〜第4スイープ範囲Rs1〜Rs4に分けられている。例えば、第1の実施形態と同様の蓄積画像を、それぞれのスイープ範囲ごとに導出する。導出された複数の蓄積画像を合成し、合成した画像に暈け除去処理を施すことで、高画質な出力画像が得られる。
フォーカス位置が変化可能な範囲は、第1スイープ範囲Rs1と第2スイープ範囲Rs2と、を含む。第1スイープ範囲Rs1は、第1位置P1(第1範囲)と、第2位置P2(第2範囲)と、を含む。第2スイープ範囲Rs2は、第1スイープ範囲Rs1とは異なり、第3位置P3(第3範囲)を含む。
画像処理部30は、第1位置P1に対応した第1画像と、第2位置P2に対応した第2画像と、を加算して第1蓄積画像を導出する。
さらに画像処理部30は、フォーカス位置が第3位置P3(第3範囲)にあるときに撮像素子25によって撮像された第3画像を取得し、少なくとも第3画像が加算された第2蓄積画像を導出し、第1蓄積画像と第2蓄積画像とを合成する。このようにして合成された画像に暈け除去処理を施すことで、高画質な出力画像が得られる。
スイープ範囲Rsの全体をK個に区分するとき、K個の区分のそれぞれの中央値を、
、(k=1,…,K)
とする(kは、K以下の自然数)。
区分に合わせて、区分の数だけ蓄積画像を用意する。
(X、Y)、(k=1,…,K)
同様にして区分の数だけ蓄積重み画像を用意する。
(X、Y)、(k=1,…,K)
入力画像の撮像時のフォーカス位置をvとする。区分決定部32aは、入力画像が、どの区分に属するのかを決定する。入力画像が属する区分(kハット)は、例えば以下のような最近傍探索によって決定される。
Figure 2016012901
ここで、
Figure 2016012901
は、Eを最小とするkを探すことを表す。
区分決定部32aによって決定された区分に対応する蓄積画像に入力画像を蓄積する。
Figure 2016012901
ここでz+=aは、aをzに加算することを意味する。
同様にして蓄積重み画像にも重みを蓄積する。
Figure 2016012901
その後、重み正規化が行われる。すなわち、蓄積画像の画素値を、重みで除する。これは、蓄積画像の各画素によって、蓄積の重みが異なるためである。すると蓄積出力画像は以下のように計算できる。
Figure 2016012901
このようにして、区分ごとに導出された複数の蓄積画像(蓄積出力画像)が得られる。蓄積が完了したら、合成部32bにおいて、これらの蓄積出力画像を合成する。合成には、例えば、周波数が最も高いものを選択すればよい。すなわち、
Figure 2016012901
ここで、∇は、画像内の画素値の勾配を算出するオペレータである。最も簡単な例では、∇は、画像内で縦方向に並ぶ画素の画素値の差、及び横方向に並ぶ画素の画素値の差、を算出する。上記の最適化式によって、勾配が最大となる蓄積出力画像が選択される。
図14(b)は、第1スイープ範囲Rs1(第1区分)に対応する蓄積画像BにおけるPSFを例示している。同様に、図14(c)〜図14(e)は、第2〜第4スイープ範囲Rs2〜区分Rs4(第2〜第4区分)に対応する蓄積画像B〜BにおけるPSFを例示している。
図14(b)〜図14(e)及び図15の縦軸はPSFの値を表し、横軸はある画素からの距離Lnを表している。図14(b)〜図14(e)及び図15では、図7と同様に、複数のPSF(f71〜75)を重ねて表示している。
例えば、広いスイープ範囲Rsを用いた場合、ピントが外れたときの暈けが大きくなる。その大きな暈けがPSFに加算される。このため、PSFのテールにおける値が大きくなる。従って、広いスイープ範囲Rsを用いた場合、画像の暈けは、コントラストが低下したような暈けとなる。これが出力画像の画質の低下につながる。
これに対して、実施形態においては、図14(a)〜図14(e)のように、スイープ範囲Rsを区分けして、複数の蓄積画像を取得する。式(30)のように、蓄積画像のそれぞれから最適な部分を選択して合成する。これにより、例えば、ピントが大きく外れた画像は加算されないため、PSFの形状が大きく改善する。
例えば、図14(b)において、被写体b73、b74及びb75のそれぞれに対応するPSFは、テールにおける値が小さい良好な形状である。このため、蓄積画像の合成において、被写体b73〜b75については、蓄積画像Bの画像が選択される。一方、区分Rs3に対応した位置には被写体が存在していないため、蓄積画像Bは、ピントが大きく外れた画像となる。図14(d)に表したPSFはテールが長い。蓄積画像の合成において、蓄積画像Bは選択されない。
図15は、上記のように、蓄積画像B〜Bを合成した画像におけるPSF(PSF3)を例示している。図15では、参考として、スイープ範囲Rsを区分けせず、広いスイープ範囲Rsを用いた場合のPSF(PSF1)も重ねて表示している。PSF3に比べて、PSF1においてはテールが長く、これがフレアなどの原因となることがある。これに対して、PSF3では、区分スイープによって、テールの形状が改善し、より高画質な出力画像を得ることができる。
(第4の実施形態)
図16は、第4の実施形態に係る画像処理装置を例示するブロック図である。
図16に表したように、第4の実施形態に係る画像処理装置103においては、画像処理部30は、重み算出部34をさらに含む。これ以外は、画像処理装置103は、画像処理装置100と同様である。
重み算出部34において、蓄積の重みは、入力画像のエッジ強度に応じて定められる。画像処理装置100においては、蓄積の重みは、式(18)によって定められる。これに対し、本実施形態においては、画像のエッジ強度を元に、エッジ強度が高い領域はピントが合っているとして蓄積の重みを大きくし、エッジ強度が低い領域は、ピントが外れているとして蓄積の重みを小さくする。このようにすることで、ピントの合っている画像の重みが相対的に大きくなる。これにより、区分スイープと同様にPSFの形状を改善することができ、より高画質な画像を得ることができる。
重み算出ステップで算出されるエッジ強度として、例えばラプラシアンを用いることができる。
Figure 2016012901
ここで、d(x、y)をエッジ強度とする。他にも画像の勾配(例えば、画素のそれぞれにおける画素値の微分)などを用いてもよい。
重みとして、例えば、
Figure 2016012901
を用いることができる。または、重みとして、
Figure 2016012901
を用いてもよい。これにより、エッジ強度が高いときに、蓄積の重みを大きくすることができる。但し、実施形態において、エッジ強度としては色々なものが考えられる。エッジ強度は、入力画像上の濃淡、すなわち画素値の変化の大きさに対応する。例えば、ある画素の画素値と、その周囲に配置された画素の画素値と、の差に対応する。実施形態において、エッジ強度は、上記のエッジ強度に限られない。
蓄積画像への蓄積においては、次のように、重みをつけて入力画像を蓄積する。
Figure 2016012901
すなわち、画像処理部30は、入力画像(例えば第1画像)の画素のそれぞれの重みに基づいて、蓄積画像(第1蓄積画像)を導出する。重みは、入力画像中のエッジ強度に応じて定められる。
蓄積重み画像への蓄積においては、次のように、重みを蓄積する。
Figure 2016012901
このような蓄積画像に対して、第1の実施形態と同様に暈け除去処理を施す。これにより、高画質の画像を得ることができる。本実施形態によれば、一枚の蓄積画像を用いて、第3の実施形態において説明した区分スイープと同様に、画質を向上させることができる。
図17は、実施形態に係る画像処理装置を例示するブロック図である。
図17は、画像処理装置100のハードウェア構成を例示するブロック図である。なお、図17に表した例は、実施形態に係る表示装置の一例であり、必ずしも実際のモジュールとは一致しない場合がある。
画像処理装置100は、例えば、光学素子(レンズ22)と、撮像素子25と、処理回路83と、記憶媒体(メモリ84)と、を含む。
撮像部(レンズ22及び撮像素子25)によって、被写体から入射した光に対応した信号が検出される。処理回路83及びメモリ84によって、フォーカス位置決定部10や画像処理部30について説明した処理が実施される。
メモリ84には、非一過性のROMやRAMなどの記憶装置を用いることができる。HDDやSSDなどの外部記憶装置を用いてもよい。メモリ84は、撮像部によって検出された信号、すなわち入力画像を記憶する。また、蓄積画像、蓄積重み画像及び出力画像などを記憶する。
メモリ84は、実施形態に係る画像処理方法をコンピュータなどに実行させる画像処理プログラム200を記憶する。例えば、処理回路83において、プログラム200が読み込まれ、画像処理が実行される。プログラム200は、予めメモリ84に記憶された状態で提供されてもよいし、外部の記憶媒体やネットワークを介して提供され、適宜インストールされてもよい。
処理回路83には、例えば、CPU(Central Processing Unit)などの制御装置、LSI(Large Scale Integration)等の集積回路またはIC(Integrated Circuit)チップセットなどを用いることができる。処理回路83及びメモリ84は、一つの基板に設けられていてもよいし、少なくとも一部が別に設けられていてもよい。LSIに限らず、専用回路又は汎用プロセッサを用いてもよい。処理回路83及びメモリ84には、通常のコンピュータを利用したハードウェア構成を用いてもよい。実施形態に係る画像処理装置の前述した各部を、ソフトウェアとしてもハードウェアとしてもよい。実施形態は、各機能ブロックの一部の処理を、コンピュータに実施させるプログラムであってもよい。
画像処理装置100は、インターフェース85をさらに含んでもよい。例えば、出力画像に関するデータがインターフェース85を介して、外部の表示装置などに出力される。外部との接続には、有線及び無線のいずれの方法を用いてもよい。
実施形態によれば、高画質な画像を提供する画像処理装置、画像処理方法及び画像処理プログラムが提供できる。
なお、本願明細書において、「垂直」は、厳密な垂直だけではなく、例えば製造工程におけるばらつきなどを含むものであり、実質的に垂直であれば良い。
以上、具体例を参照しつつ、本発明の実施の形態について説明した。しかし、本発明の実施形態は、これらの具体例に限定されるものではない。例えば、撮像素子、レンズ、撮像部、位置決定部、画像処理部などの各要素の具体的な構成に関しては、当業者が公知の範囲から適宜選択することにより本発明を同様に実施し、同様の効果を得ることができる限り、本発明の範囲に包含される。
また、各具体例のいずれか2つ以上の要素を技術的に可能な範囲で組み合わせたものも、本発明の要旨を包含する限り本発明の範囲に含まれる。
その他、本発明の実施の形態として上述した画像処理装置、画像処理方法及び画像処理プログラムを基にして、当業者が適宜設計変更して実施し得る全ての画像処理装置、画像処理方法及び画像処理プログラムも、本発明の要旨を包含する限り、本発明の範囲に属する。
その他、本発明の思想の範疇において、当業者であれば、各種の変更例及び修正例に想到し得るものであり、それら変更例及び修正例についても本発明の範囲に属するものと了解される。
本発明のいくつかの実施形態を説明したが、これらの実施形態は、例として提示したものであり、発明の範囲を限定することは意図していない。これら新規な実施形態は、その他の様々な形態で実施されることが可能であり、発明の要旨を逸脱しない範囲で、種々の省略、置き換え、変更を行うことができる。これら実施形態やその変形は、発明の範囲や要旨に含まれるとともに、特許請求の範囲に記載された発明とその均等の範囲に含まれる。
10…フォーカス位置決定部、 11…オートフォーカス検出部、 20…撮像部、 21…撮像領域、 21a…フォトダイオード層、 21b…マイクロレンズ層、 21c…カラーフィルタ層、 22…レンズ、 23…レンズ保持部、 24…半導体基板、 25…撮像素子、 26…回路基板、 30…画像処理部、 32…蓄積部、 32a…区分決定部、 32b…合成部、 33…復元部、 34…重み算出部、 83…処理回路、 84…メモリ、 85…インターフェース、 100〜103…画像処理装置、 200…プログラム、 B1〜B4…蓄積画像、 Ln…距離、 P1〜P3…位置、 Q…電荷、 Qsat…飽和電荷、 Rs…スイープ範囲、 Rs1〜Rs4…第1〜第4スイープ範囲、 S09〜S17…ステップ、 T…時間、 T1〜Tn…時刻、 f…焦点距離、 fnum…f値、 p、v、v1〜v4、v71〜v75、vAF、vo、ve…フォーカス位置

Claims (20)

  1. 撮像素子と、
    前記撮像素子へ向かう光が通過するレンズと、
    を含み、前記撮像素子と前記レンズとの相対的位置が可変である撮像部と、
    前記相対的位置が第1範囲にあるときに前記撮像素子によって撮像された第1画像を取得し、
    前記相対的位置が前記第1範囲とは異なる第2範囲にあるときに前記撮像素子によって撮像された第2画像を取得し、
    前記第1画像に少なくとも前記第2画像の一部を加算して第1蓄積画像を導出する画像処理部と、
    を備えた画像処理装置。
  2. 前記画像処理部は、前記撮像素子によって撮像され前記第1画像と前記第2画像とを含む複数の画像を取得し、前記複数の画像のそれぞれが撮像されたときの前記相対的位置は互いに異なり、前記複数の画像の少なくとも一部を加算して前記第1蓄積画像を導出する請求項1記載の画像処理装置。
  3. 前記画像処理部は、前記第1画像内における対象物の位置と、前記第2画像内における前記対象物の位置との差に応じた動きベクトルを算出し、前記動きベクトルに基づいて前記第1画像に前記第2画像を加算する請求項1または2記載の画像処理装置。
  4. 前記相対的位置が前記第1範囲にあるときに撮像を行うことを決定する位置決定部をさらに備えた請求項1〜3のいずれか1つに記載の画像処理装置。
  5. 前記画像処理部は、前記第1蓄積画像に対して暈け除去処理を実施し、出力画像を導出する請求項1〜4のいずれか1つに記載の画像処理装置。
  6. 前記第1画像を撮像する間に、前記相対的位置を変化させる請求項1〜5のいずれか1つに記載の画像処理装置。
  7. 前記第1画像は、前記相対的位置が前記第1範囲中の第1位置であるときに撮像され、
    前記第2画像は、前記相対的位置が前記第2範囲中の第2位置であるときに撮像される請求項1〜5のいずれか1つに記載の画像処理装置。
  8. 前記第1位置は、前記撮像部のピントを対象物に合わせた状態における前記相対的位置であり、
    前記第2位置は、前記第1位置を基準として定められる請求項7記載の画像処理装置。
  9. 前記第1位置は、前記レンズの光軸方向における中心と前記撮像素子との間の距離が前記レンズの焦点距離となる前記相対的位置であり、
    前記第2位置は、前記中心と前記撮像素子との間の距離が、前記焦点距離よりも短くなる前記相対的位置である請求項7記載の画像処理装置。
  10. 前記第1位置及び前記第2位置のそれぞれは、前記相対的位置が変化可能な範囲において、等間隔に並ぶ複数の位置のいずれかである請求項7記載の画像処理装置。
  11. 前記相対的位置が変化可能な範囲は、
    前記第1範囲と前記第2範囲とを含む第1スイープ範囲と、
    第1スイープ範囲とは異なり第3範囲を含む第2スイープ範囲と、
    を含み、
    前記画像処理部は、前記相対的位置が第3範囲にあるときに前記撮像素子によって撮像された第3画像を取得し、少なくとも前記第3画像が加算された第2蓄積画像を導出し、
    前記第1蓄積画像と前記第2蓄積画像とを合成して出力画像を導出する請求項1〜10のいずれか1つに記載の画像処理装置。
  12. 前記画像処理部は、前記第1画像の画素のそれぞれの重みに基づいて、前記第1蓄積画像を導出し、
    前記重みは、前記第1画像中のエッジ強度に応じて定められる請求項1〜10のいずれか1つに記載の画像処理装置。
  13. 撮像素子と、前記撮像素子へ向かう光が通過するレンズとの相対的位置が第1範囲にあるときに前記撮像素子によって撮像された第1画像を取得し、
    前記相対的位置が前記第1範囲とは異なる第2範囲にあるときに前記撮像素子によって撮像された第2画像を取得し、
    前記第1画像に少なくとも前記第2画像の一部を加算して第1蓄積画像を導出する画像処理方法。
  14. 前記第1画像内における対象物の位置と、前記第2画像内における前記対象物の位置と、差に応じた動きベクトルを算出し、
    前記第1蓄積画像は、前記動きベクトルに基づいて前記第1画像に前記第2画像を加算して導出される請求項13記載の画像処理方法。
  15. 前記相対的位置が前記第1範囲にあるときに撮像を行うことを決定する請求項13または14記載の画像処理方法。
  16. 前記第1蓄積画像に対して暈け除去処理を実施し、出力画像を導出する請求項13〜15のいずれか1つに記載の画像処理方法。
  17. 撮像素子と、前記撮像素子へ向かう光が通過するレンズとの相対的位置が第1範囲にあるときに前記撮像素子によって撮像された第1画像を取得し、
    前記相対的位置が前記第1範囲とは異なる第2範囲にあるときに前記撮像素子によって撮像された第2画像を取得し、
    前記第1画像に少なくとも前記第2画像の一部を加算して第1蓄積画像を導出する処理をコンピュータに実行させる画像処理プログラム。
  18. 前記第1画像内における対象物の位置と、前記第2画像内における前記対象物の位置と、差に応じた動きベクトルを算出し、
    前記第1蓄積画像は、前記動きベクトルに基づいて前記第1画像に前記第2画像を加算して導出される請求項17記載の画像処理プログラム。
  19. 前記相対的位置が前記第1範囲にあるときに撮像を行うことを決定する処理をコンピュータに実行させる請求項17または18記載の画像処理プログラム。
  20. 前記第1蓄積画像に対して暈け除去処理を実施させ、出力画像を導出する処理をコンピュータに実行させる請求項17〜19のいずれか1つに記載の画像処理プログラム。
JP2014135107A 2014-06-30 2014-06-30 画像処理装置、画像処理方法及び画像処理プログラム Active JP6317635B2 (ja)

Priority Applications (3)

Application Number Priority Date Filing Date Title
JP2014135107A JP6317635B2 (ja) 2014-06-30 2014-06-30 画像処理装置、画像処理方法及び画像処理プログラム
US14/746,952 US9843711B2 (en) 2014-06-30 2015-06-23 Image processing device, image processing method, and image processing program
CN201510369218.9A CN105227826A (zh) 2014-06-30 2015-06-29 图像处理装置、图像处理方法、以及图像处理程序

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2014135107A JP6317635B2 (ja) 2014-06-30 2014-06-30 画像処理装置、画像処理方法及び画像処理プログラム

Publications (2)

Publication Number Publication Date
JP2016012901A true JP2016012901A (ja) 2016-01-21
JP6317635B2 JP6317635B2 (ja) 2018-04-25

Family

ID=54931945

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2014135107A Active JP6317635B2 (ja) 2014-06-30 2014-06-30 画像処理装置、画像処理方法及び画像処理プログラム

Country Status (3)

Country Link
US (1) US9843711B2 (ja)
JP (1) JP6317635B2 (ja)
CN (1) CN105227826A (ja)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE112016000506B4 (de) 2015-01-28 2024-05-29 Thk Co., Ltd. Schraubvorrichtung

Families Citing this family (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US9525814B2 (en) * 2014-10-12 2016-12-20 Himax Imaging Limited Automatic focus searching using focal sweep technique
KR102477757B1 (ko) * 2015-12-16 2022-12-14 에스케이하이닉스 주식회사 자동 초점 시스템 및 방법
JP6759680B2 (ja) * 2016-04-26 2020-09-23 ソニー株式会社 画像処理装置、撮像装置、画像処理方法、および、プログラム
US20180205890A1 (en) * 2017-01-18 2018-07-19 Jerry L. Conway, Sr. Single camera dynamic imaging systems and methods of capturing dynamic images
JP7011872B1 (ja) 2021-08-06 2022-01-27 株式会社ガイアエデュケーション 机用天板

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2003008898A (ja) * 2001-06-20 2003-01-10 Sony Corp 画像処理方法および装置
JP2008271240A (ja) * 2007-04-20 2008-11-06 Fujifilm Corp 撮像装置、画像処理装置、撮像方法、及び画像処理方法
JP2009059058A (ja) * 2007-08-30 2009-03-19 Konica Minolta Opto Inc 画像処理装置および画像処理方法ならびに撮像装置
JP2012005063A (ja) * 2010-06-21 2012-01-05 Sony Corp 撮像装置および方法、並びにプログラム
JP2014017539A (ja) * 2012-07-05 2014-01-30 Casio Comput Co Ltd 画像処理装置、画像処理方法及びプログラム

Family Cites Families (37)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
SE518050C2 (sv) * 2000-12-22 2002-08-20 Afsenius Sven Aake Kamera som kombinerar skarpt fokuserade delar från olika exponeringar till en slutbild
US8331723B2 (en) * 2004-03-25 2012-12-11 Ozluturk Fatih M Method and apparatus to correct digital image blur due to motion of subject or imaging device
FR2872661B1 (fr) * 2004-07-05 2006-09-22 Eastman Kodak Co Procede et dispositif de prise de vue a resolution multiplie
JP4378272B2 (ja) * 2004-12-15 2009-12-02 キヤノン株式会社 撮影装置
US7653298B2 (en) * 2005-03-03 2010-01-26 Fujifilm Corporation Image capturing apparatus, image capturing method, image capturing program, image recording output system and image recording output method
JP4282645B2 (ja) 2005-08-31 2009-06-24 株式会社東芝 撮像装置
US7711259B2 (en) * 2006-07-14 2010-05-04 Aptina Imaging Corporation Method and apparatus for increasing depth of field for an imager
US8390729B2 (en) * 2007-09-05 2013-03-05 International Business Machines Corporation Method and apparatus for providing a video image having multiple focal lengths
US20090169122A1 (en) * 2007-12-27 2009-07-02 Motorola, Inc. Method and apparatus for focusing on objects at different distances for one image
TW200937109A (en) * 2008-02-22 2009-09-01 Asia Optical Co Inc Image pickup methods and image pickup systems
US8154647B2 (en) * 2008-03-05 2012-04-10 Applied Minds, Llc Automated extended depth of field imaging apparatus and method
JP2012003233A (ja) * 2010-05-17 2012-01-05 Sony Corp 画像処理装置、画像処理方法およびプログラム
WO2011158515A1 (ja) * 2010-06-17 2011-12-22 パナソニック株式会社 距離推定装置、距離推定方法、集積回路、コンピュータプログラム
US9509911B2 (en) * 2010-07-14 2016-11-29 Nikon Corporation Image-capturing device, and image combination program
JP5590668B2 (ja) 2010-07-20 2014-09-17 国立大学法人電気通信大学 プロジェクタ装置、映像信号補正装置、映像信号補正方法及びプログラム
KR101661216B1 (ko) * 2010-09-02 2016-09-29 삼성전자주식회사 디지털 영상 처리 장치, 디지털 영상 신호 처리 방법 및 상기 방법을 기록한 기록 매체
US8494301B2 (en) * 2010-09-16 2013-07-23 Eastman Kodak Company Refocusing images using scene captured images
WO2012063449A1 (ja) * 2010-11-08 2012-05-18 パナソニック株式会社 撮像装置、撮像方法、プログラム、および集積回路
KR101692401B1 (ko) * 2011-01-21 2017-01-03 삼성전자주식회사 영상 처리 방법 및 장치
US8767092B2 (en) * 2011-01-31 2014-07-01 Panasonic Corporation Image restoration device, imaging apparatus, and image restoration method
CN102884784B (zh) * 2011-03-14 2017-05-17 松下电器产业株式会社 摄像装置、摄像方法、集成电路
JP5778469B2 (ja) * 2011-04-28 2015-09-16 日本アビオニクス株式会社 撮像装置、画像生成方法、赤外線カメラシステム及び交換可能なレンズシステム
EP3101387B1 (en) * 2011-05-27 2018-09-12 Panasonic Intellectual Property Management Co., Ltd. Image processing apparatus and image processing method
JP2013110700A (ja) 2011-11-24 2013-06-06 Samsung Electronics Co Ltd 撮像装置、撮像方法、及び画像処理装置
US9076269B2 (en) * 2012-01-31 2015-07-07 Sony Corporation Method and electronic device for creating a combined image
WO2013158456A1 (en) * 2012-04-17 2013-10-24 E-Vision Smart Optics, Inc. Systems, devices, and methods for managing camera focus
JP6288952B2 (ja) * 2013-05-28 2018-03-07 キヤノン株式会社 撮像装置およびその制御方法
TWI538512B (zh) * 2013-06-27 2016-06-11 聚晶半導體股份有限公司 調整對焦位置的方法及電子裝置
JP6224362B2 (ja) * 2013-07-05 2017-11-01 シャープ株式会社 撮像装置
US9344619B2 (en) * 2013-08-30 2016-05-17 Qualcomm Incorporated Method and apparatus for generating an all-in-focus image
JP6236259B2 (ja) 2013-09-06 2017-11-22 株式会社東芝 画像処理装置、画像処理方法、及び画像処理プログラム
JP5802247B2 (ja) 2013-09-25 2015-10-28 株式会社東芝 情報処理装置
JP6198590B2 (ja) * 2013-11-28 2017-09-20 キヤノン株式会社 画像処理装置、撮像装置および画像処理方法
JP2015148965A (ja) 2014-02-06 2015-08-20 株式会社東芝 画像処理装置、撮像装置及び画像処理方法
KR102149463B1 (ko) * 2014-02-19 2020-08-28 삼성전자주식회사 이미지를 처리하기 위한 전자 장치 및 방법
JP6242742B2 (ja) 2014-05-08 2017-12-06 株式会社東芝 画像処理装置、撮像装置及び画像処理方法
JP6325885B2 (ja) * 2014-05-12 2018-05-16 オリンパス株式会社 撮像装置、撮像方法、及びプログラム

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2003008898A (ja) * 2001-06-20 2003-01-10 Sony Corp 画像処理方法および装置
JP2008271240A (ja) * 2007-04-20 2008-11-06 Fujifilm Corp 撮像装置、画像処理装置、撮像方法、及び画像処理方法
JP2009059058A (ja) * 2007-08-30 2009-03-19 Konica Minolta Opto Inc 画像処理装置および画像処理方法ならびに撮像装置
JP2012005063A (ja) * 2010-06-21 2012-01-05 Sony Corp 撮像装置および方法、並びにプログラム
JP2014017539A (ja) * 2012-07-05 2014-01-30 Casio Comput Co Ltd 画像処理装置、画像処理方法及びプログラム

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE112016000506B4 (de) 2015-01-28 2024-05-29 Thk Co., Ltd. Schraubvorrichtung

Also Published As

Publication number Publication date
US20150381878A1 (en) 2015-12-31
CN105227826A (zh) 2016-01-06
US9843711B2 (en) 2017-12-12
JP6317635B2 (ja) 2018-04-25

Similar Documents

Publication Publication Date Title
JP5909540B2 (ja) 画像処理表示装置
US9251589B2 (en) Depth measurement apparatus, image pickup apparatus, and depth measurement program
JP6317635B2 (ja) 画像処理装置、画像処理方法及び画像処理プログラム
KR101364421B1 (ko) 멀티-레졸류션 절차를 이용하여 강건한 깊이 맵을 생성하는 시스템 및 방법
JP5237978B2 (ja) 撮像装置および撮像方法、ならびに前記撮像装置のための画像処理方法
JP6308748B2 (ja) 画像処理装置、撮像装置及び画像処理方法
US9508153B2 (en) Distance measurement apparatus, imaging apparatus, distance measurement method, and program
US9007483B2 (en) Image synthesis device and computer program for image synthesis for synthesizing a plurality of images of different exposure times
JP5453573B2 (ja) 撮像装置、撮像方法およびプログラム
JP2011159159A (ja) 撮像装置および撮像方法、ならびに前記撮像装置のための画像処理方法
JP2015036632A (ja) 距離計測装置、撮像装置、距離計測方法
CN110383335A (zh) 视频内容中基于光流和传感器输入的背景减除
JP2014138290A (ja) 撮像装置及び撮像方法
JP6286567B2 (ja) マルチスペクトル画像システムのロバストなオートフォーカスアルゴリズム
JP6555990B2 (ja) 距離計測装置、撮像装置、および距離計測方法
JP6564284B2 (ja) 画像処理装置および画像処理方法
US8994846B2 (en) Image processing apparatus and image processing method for detecting displacement between images having different in-focus positions
JP2020009099A (ja) 画像処理装置、画像処理方法、及びプログラム
JP6218520B2 (ja) 画像処理装置、画像処理方法、及びプログラム
JP2017130106A (ja) データ処理装置、撮像装置、およびデータ処理方法
JP6381212B2 (ja) 撮像装置及びその制御方法
JP5853369B2 (ja) 画像処理装置、画像処理方法及びプログラム
JP2017182668A (ja) データ処理装置、撮像装置、及びデータ処理方法
JP2016036093A (ja) 撮像装置、その制御方法、および制御プログラム、並びに画像処理装置

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20160913

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20170509

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20170511

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20170704

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20171012

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20171205

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20180301

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20180330

R151 Written notification of patent or utility model registration

Ref document number: 6317635

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R151

S111 Request for change of ownership or part of ownership

Free format text: JAPANESE INTERMEDIATE CODE: R313111

Free format text: JAPANESE INTERMEDIATE CODE: R313114

R350 Written notification of registration of transfer

Free format text: JAPANESE INTERMEDIATE CODE: R350