JP2015036841A - 画像処理装置、距離計測装置、撮像装置、画像処理方法 - Google Patents
画像処理装置、距離計測装置、撮像装置、画像処理方法 Download PDFInfo
- Publication number
- JP2015036841A JP2015036841A JP2013167531A JP2013167531A JP2015036841A JP 2015036841 A JP2015036841 A JP 2015036841A JP 2013167531 A JP2013167531 A JP 2013167531A JP 2013167531 A JP2013167531 A JP 2013167531A JP 2015036841 A JP2015036841 A JP 2015036841A
- Authority
- JP
- Japan
- Prior art keywords
- image
- group
- image processing
- corresponding points
- corresponding point
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
- 238000012545 processing Methods 0.000 title claims abstract description 89
- 238000003384 imaging method Methods 0.000 title claims description 49
- 238000003672 processing method Methods 0.000 title claims description 15
- 238000000034 method Methods 0.000 claims abstract description 56
- 239000002131 composite material Substances 0.000 claims abstract description 14
- 239000000203 mixture Substances 0.000 claims abstract description 10
- 238000006243 chemical reaction Methods 0.000 claims description 68
- 230000033001 locomotion Effects 0.000 claims description 46
- 230000009466 transformation Effects 0.000 claims description 32
- 239000013598 vector Substances 0.000 claims description 26
- 230000003287 optical effect Effects 0.000 claims description 9
- 230000002194 synthesizing effect Effects 0.000 claims description 6
- 230000015572 biosynthetic process Effects 0.000 claims description 3
- 238000003786 synthesis reaction Methods 0.000 claims description 3
- 230000008569 process Effects 0.000 description 23
- 238000005259 measurement Methods 0.000 description 17
- 230000006870 function Effects 0.000 description 8
- 238000012937 correction Methods 0.000 description 5
- 238000010586 diagram Methods 0.000 description 5
- PXFBZOLANLWPMH-UHFFFAOYSA-N 16-Epiaffinine Natural products C1C(C2=CC=CC=C2N2)=C2C(=O)CC2C(=CC)CN(C)C1C2CO PXFBZOLANLWPMH-UHFFFAOYSA-N 0.000 description 4
- 206010017367 Frequent bowel movements Diseases 0.000 description 4
- 230000008859 change Effects 0.000 description 3
- 238000012790 confirmation Methods 0.000 description 3
- 238000001514 detection method Methods 0.000 description 3
- 238000009826 distribution Methods 0.000 description 3
- 238000012546 transfer Methods 0.000 description 3
- 230000000694 effects Effects 0.000 description 2
- 238000000691 measurement method Methods 0.000 description 2
- 230000004048 modification Effects 0.000 description 2
- 238000012986 modification Methods 0.000 description 2
- 230000035945 sensitivity Effects 0.000 description 2
- 229930091051 Arenine Natural products 0.000 description 1
- 230000004075 alteration Effects 0.000 description 1
- 230000008901 benefit Effects 0.000 description 1
- 238000006073 displacement reaction Methods 0.000 description 1
- 238000005516 engineering process Methods 0.000 description 1
- 239000000284 extract Substances 0.000 description 1
- 238000000605 extraction Methods 0.000 description 1
- 238000003709 image segmentation Methods 0.000 description 1
- 239000004973 liquid crystal related substance Substances 0.000 description 1
- 238000002156 mixing Methods 0.000 description 1
- 238000001454 recorded image Methods 0.000 description 1
- 230000009467 reduction Effects 0.000 description 1
- 230000003252 repetitive effect Effects 0.000 description 1
- 230000011218 segmentation Effects 0.000 description 1
- 238000010008 shearing Methods 0.000 description 1
- 239000010454 slate Substances 0.000 description 1
- 230000001131 transforming effect Effects 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T3/00—Geometric image transformations in the plane of the image
- G06T3/14—Transformations for image registration, e.g. adjusting or mapping for alignment of images
- G06T3/153—Transformations for image registration, e.g. adjusting or mapping for alignment of images using elastic snapping
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/30—Determination of transform parameters for the alignment of images, i.e. image registration
- G06T7/33—Determination of transform parameters for the alignment of images, i.e. image registration using feature-based methods
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/30—Determination of transform parameters for the alignment of images, i.e. image registration
- G06T7/37—Determination of transform parameters for the alignment of images, i.e. image registration using transform domain methods
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N23/00—Cameras or camera modules comprising electronic image sensors; Control thereof
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N23/00—Cameras or camera modules comprising electronic image sensors; Control thereof
- H04N23/60—Control of cameras or camera modules
- H04N23/61—Control of cameras or camera modules based on recognised objects
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N23/00—Cameras or camera modules comprising electronic image sensors; Control thereof
- H04N23/60—Control of cameras or camera modules
- H04N23/61—Control of cameras or camera modules based on recognised objects
- H04N23/611—Control of cameras or camera modules based on recognised objects where the recognised objects include parts of the human body
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N23/00—Cameras or camera modules comprising electronic image sensors; Control thereof
- H04N23/80—Camera processing pipelines; Components thereof
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N23/00—Cameras or camera modules comprising electronic image sensors; Control thereof
- H04N23/95—Computational photography systems, e.g. light-field imaging systems
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/10—Image acquisition modality
- G06T2207/10016—Video; Image sequence
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N23/00—Cameras or camera modules comprising electronic image sensors; Control thereof
- H04N23/60—Control of cameras or camera modules
- H04N23/67—Focus control based on electronic image sensor signals
Landscapes
- Engineering & Computer Science (AREA)
- Multimedia (AREA)
- Signal Processing (AREA)
- Theoretical Computer Science (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Computing Systems (AREA)
- Image Processing (AREA)
- Studio Devices (AREA)
- Image Analysis (AREA)
Abstract
【課題】複数枚の画像の位置合わせを行う画像処理装置において、画像全域にわたって精度の高い位置合わせを行う技術を提供する。【解決手段】第一の画像に含まれる複数の点について、対応点を第二の画像中から探索する対応点決定手段と、前記対応点のずれ量に基づいて、前記複数の対応点をグループ分けし、前記グループごとに座標変換係数を算出する変換係数算出手段と、複数の前記座標変換係数と前記第二の画像を用いて、合成画像を生成する画像合成手段と、を有することを特徴とする。【選択図】図1
Description
本発明は画像処理装置に関連し、特に複数枚の画像の位置合わせを行う技術に関する。
撮像装置によって取得された画像をもとに、被写体までの距離(被写体距離)を取得する手法が種々提案されており、その中の一つに、DFD(Depth from Defocus)法がある。DFD法は、撮像光学系のパラメータを変更して、ぼけの異なる複数の画像を取得し、当該複数の画像に含まれるぼけの量から被写体距離を算出する手法である。
DFD法では、撮影した複数枚の画像の位置を正確に合わせる必要がある。このため、画像の位置合わせを行うための技術が提案されている。
例えば、特許文献1には、画像間の動きベクトルを算出し、移動体以外の動きを抽出してアフィン変換係数を推定し、当該アフィン変換係数をもとに画像を変換して位置合わせを行う画像処理装置が開示されている。また特許文献2には、アフィン変換を用いた非移動体の位置合わせに加えて、移動体として除外された動きベクトルのブロックに関して、局所的な位置ずれ量を算出して位置合わせを行う画像処理装置が開示されている。
例えば、特許文献1には、画像間の動きベクトルを算出し、移動体以外の動きを抽出してアフィン変換係数を推定し、当該アフィン変換係数をもとに画像を変換して位置合わせを行う画像処理装置が開示されている。また特許文献2には、アフィン変換を用いた非移動体の位置合わせに加えて、移動体として除外された動きベクトルのブロックに関して、局所的な位置ずれ量を算出して位置合わせを行う画像処理装置が開示されている。
特許文献1に記載された画像処理装置によると、画像中に存在する移動体を除外して位置合わせを行うため、撮像装置自体の動きに起因する位置ずれを高精度に修正することができる。しかし、撮影画像中の移動体に関しては位置合わせがされないため、移動体がずれた状態で合成されてしまう。
また、特許文献2に記載された画像処理装置では、移動体を表す動きベクトルを含むと判定されたブロックに対し、局所的な位置ずれ量を算出して位置合わせを行っている。この手法では、同じ移動体中の動きベクトルを個別に補正するため、ノイズ等の影響により、同じ移動体でもブロックごとに別方向に補正されてしまうおそれがある。また、移動体の位置合わせについては平行移動のみをサポートしており、平行移動以外の変形を補正することができない。
また、特許文献2に記載された画像処理装置では、移動体を表す動きベクトルを含むと判定されたブロックに対し、局所的な位置ずれ量を算出して位置合わせを行っている。この手法では、同じ移動体中の動きベクトルを個別に補正するため、ノイズ等の影響により、同じ移動体でもブロックごとに別方向に補正されてしまうおそれがある。また、移動体の位置合わせについては平行移動のみをサポートしており、平行移動以外の変形を補正することができない。
本発明は上記のような課題を考慮してなされたものであり、複数枚の画像の位置合わせを行う画像処理装置において、画像全域にわたって精度の高い位置合わせを行う技術を提供することを目的とする。
本発明に係る画像処理装置は、
第一の画像に含まれる複数の点について、対応点を第二の画像中から探索する対応点決定手段と、前記対応点のずれ量に基づいて、前記複数の対応点をグループ分けし、前記グループごとに座標変換係数を算出する変換係数算出手段と、複数の前記座標変換係数と前記第二の画像を用いて、合成画像を生成する画像合成手段と、を有することを特徴とする。
第一の画像に含まれる複数の点について、対応点を第二の画像中から探索する対応点決定手段と、前記対応点のずれ量に基づいて、前記複数の対応点をグループ分けし、前記グループごとに座標変換係数を算出する変換係数算出手段と、複数の前記座標変換係数と前記第二の画像を用いて、合成画像を生成する画像合成手段と、を有することを特徴とする。
また、本発明に係る画像処理方法は、
第一の画像に含まれる点に複数の点について、対応点を第二の画像中から探索する対応点決定ステップと、前記対応点のずれ量に基づいて、前記複数の対応点をグループ分けし、前記グループごとに画像間の座標変換係数を算出する変換係数算出ステップと、複数の前記座標変換係数と前記第二の画像とを用いて、合成画像を生成する画像合成ステップと、を含むことを特徴とする。
第一の画像に含まれる点に複数の点について、対応点を第二の画像中から探索する対応点決定ステップと、前記対応点のずれ量に基づいて、前記複数の対応点をグループ分けし、前記グループごとに画像間の座標変換係数を算出する変換係数算出ステップと、複数の前記座標変換係数と前記第二の画像とを用いて、合成画像を生成する画像合成ステップと、を含むことを特徴とする。
本発明によれば、複数枚の画像の位置合わせを行う画像処理装置において、画像全域にわたって精度の高い位置合わせを行う技術を提供することができる。
(第一の実施形態)
以下、図面を参照しながら、第一の実施形態に係る撮像装置について説明する。第一の実施形態に係る撮像装置は、複数枚の画像を撮影し、当該複数枚の画像を用いて、画像に含まれる被写体までの距離を計測する機能を有する撮像装置である。なお、同一の構成要素には原則として同一の参照符号を付して、説明を省略する。
以下、図面を参照しながら、第一の実施形態に係る撮像装置について説明する。第一の実施形態に係る撮像装置は、複数枚の画像を撮影し、当該複数枚の画像を用いて、画像に含まれる被写体までの距離を計測する機能を有する撮像装置である。なお、同一の構成要素には原則として同一の参照符号を付して、説明を省略する。
<システム構成>
図1は、第一の実施形態に係る撮像装置のシステム構成図である。
撮像装置1は、撮像光学系10、撮像素子11、制御部12、信号処理部13、位置合わせ部14、距離計測部15、メモリ16、入力部17、表示部18、記憶部19を有する。
図1は、第一の実施形態に係る撮像装置のシステム構成図である。
撮像装置1は、撮像光学系10、撮像素子11、制御部12、信号処理部13、位置合わせ部14、距離計測部15、メモリ16、入力部17、表示部18、記憶部19を有する。
撮像光学系10は、複数のレンズから構成され、入射する光を撮像素子11の像面上に結像させる光学系である。また、撮像光学系10は、可変焦点の光学系であり、オートフォーカス機能によって自動で焦点合わせをすることができる。オートフォーカスの方式はパッシブ方式であってもよいし、アクティブ方式であってもよい。
撮像素子11は、CCDやCMOSなどのイメージセンサを有する撮像素子である。撮像素子11は、カラーフィルタを有する撮像素子であってもよいし、モノクロの撮像素子であってもよい。また、三板式の撮像素子であってもよい。
撮像素子11は、CCDやCMOSなどのイメージセンサを有する撮像素子である。撮像素子11は、カラーフィルタを有する撮像素子であってもよいし、モノクロの撮像素子であってもよい。また、三板式の撮像素子であってもよい。
信号処理部13は、撮像素子11から出力された信号に対する処理を行う手段である。具体的には、アナログ信号のA/D変換やノイズ除去、デモザイキング、輝度信号変換、収差補正、ホワイトバランス調整、色補正などを行う。信号処理部13から出力されたデジタル画像データは、一時的にメモリ16に蓄積されたのち、表示部18、記憶部19、
位置合わせ部14、距離計測部15などに出力され、所望の処理が行われる。
位置合わせ部14、距離計測部15などに出力され、所望の処理が行われる。
位置合わせ部14は、連続して撮影された複数枚の画像の位置合わせを行う手段である。位置合わせ処理の詳しい内容については後述する。位置合わせ部14が、本発明における対応点決定手段、変換係数算出手段、画像合成手段である。なお、画像の位置合わせとは、画像内の人や物といった被写体の位置同士を対応付けることをいう。
距離計測部15は、画像に含まれる物体までの奥行き方向の距離(被写体距離)を算出する手段である。距離計測処理の詳しい内容については後述する。
距離計測部15は、画像に含まれる物体までの奥行き方向の距離(被写体距離)を算出する手段である。距離計測処理の詳しい内容については後述する。
入力部17は、入力操作を利用者から取得するためのインターフェイスであり、典型的には、ダイヤル、ボタン、スイッチ、タッチパネルなどである。
表示部18は、液晶ディスプレイや有機ELディスプレイなどで構成される表示手段である。表示部18は、撮影時の構図確認、撮影および記録した画像の閲覧、各種設定画面やメッセージ情報の表示などに利用される。
記憶部19は、撮影された画像データや、撮像装置1で利用されるパラメータなどが格納される不揮発性の記憶媒体である。記憶部18には、高速に読み書きでき、かつ、大容量な記憶媒体を用いることが好ましい。例えば、フラッシュメモリなどを好適に用いることができる。
表示部18は、液晶ディスプレイや有機ELディスプレイなどで構成される表示手段である。表示部18は、撮影時の構図確認、撮影および記録した画像の閲覧、各種設定画面やメッセージ情報の表示などに利用される。
記憶部19は、撮影された画像データや、撮像装置1で利用されるパラメータなどが格納される不揮発性の記憶媒体である。記憶部18には、高速に読み書きでき、かつ、大容量な記憶媒体を用いることが好ましい。例えば、フラッシュメモリなどを好適に用いることができる。
制御部12は、撮像装置1が有する各手段を制御する手段である。より具体的には、オートフォーカス(AF)による自動焦点合わせ、フォーカス位置の変更、F値(絞り)の変更、画像の取り込みおよび保存、シャッターやフラッシュ(いずれも不図示)の制御などを行う。また、取得した画像を用いて被写体距離の計測を行う。
<被写体距離の計測方法>
次に、撮像装置1が行う距離計測動作について説明する。
まず、ユーザが、入力部17を操作して撮影を開始すると、オートフォーカス(AF)や自動露光制御(AE)が実行され、撮像素子11から画像が取り込まれる。
一枚目の撮影が完了すると、撮影パラメータを変えて二枚目の撮影が実行される。変更される撮影パラメータとは、Fナンバー、フォーカス位置、焦点距離のうちの少なくともいずれか一つである。パラメータの値は、予め保存された値を読み出して使用しても良いし、ユーザが入力した情報をもとに決定しても良い。
撮影パラメータの変更が完了すると、二枚目の撮影が行われる。
次に、撮像装置1が行う距離計測動作について説明する。
まず、ユーザが、入力部17を操作して撮影を開始すると、オートフォーカス(AF)や自動露光制御(AE)が実行され、撮像素子11から画像が取り込まれる。
一枚目の撮影が完了すると、撮影パラメータを変えて二枚目の撮影が実行される。変更される撮影パラメータとは、Fナンバー、フォーカス位置、焦点距離のうちの少なくともいずれか一つである。パラメータの値は、予め保存された値を読み出して使用しても良いし、ユーザが入力した情報をもとに決定しても良い。
撮影パラメータの変更が完了すると、二枚目の撮影が行われる。
なお、複数の画像を撮影する際は、シャッター速度が高速であるほど、また、撮影間隔が短いほど、手ぶれや被写体ぶれの影響が軽減されるため、より高精度な距離計測を行うためには、シャッター速度を高速にし、かつ、撮影間隔を短くすることが望ましい。ただし、シャッター速度を上げるために感度を上げると、場合によっては手ぶれ以上にノイズの影響が増加するため、感度を考慮して適切なシャッター速度にする必要がある。
二枚の画像が撮影されると、撮影された画像は、位置合わせに適した画像となるように信号処理部13でそれぞれ処理され、一時的にメモリ16に蓄積される。位置合わせに適した画像とは、例えば、ベイヤー配列の画像からデモザイクされ、ホワイトバランス補正されたRGB画像や、更にはYUVなどの色空間に変換された後の輝度画像などである。このとき、撮影した画像のうち少なくとも一枚を、観賞用の画像として信号処理し、メモリ16に蓄積しても良い。以下では、最初に取り込んだ一枚目の画像を第一の画像とし、次に取り込んだ二枚目の画像を第二の画像として説明する。ただし、一枚目の画像を第二の画像とし、二枚目の画像を第一の画像としてもよい。
<<位置合わせ処理>>
次に、撮影された二枚の画像の位置を合わせる処理(位置合わせ処理)を実行する。位置合わせ処理の概要について、図2を参照しながら説明する。図2に示した各手段は、位置合わせ部14が実行する処理をブロックで表したものである。
まず、位置合わせ処理の概要について説明し、次に、図2に示した各手段を詳細に説明する。
次に、撮影された二枚の画像の位置を合わせる処理(位置合わせ処理)を実行する。位置合わせ処理の概要について、図2を参照しながら説明する。図2に示した各手段は、位置合わせ部14が実行する処理をブロックで表したものである。
まず、位置合わせ処理の概要について説明し、次に、図2に示した各手段を詳細に説明する。
最初に、メモリ16に蓄積された二枚の画像(輝度画像)が、対応点を算出する手段である対応点算出手段141に入力される。対応点とは、二枚の画像のそれぞれ対応する位置を表す座標のペアである。例えば、画像にある被写体(シーン)が含まれる場合、対応点は、他方の画像における当該被写体の座標を表す。
続いて、座標変換係数算出手段142が、特定した対応点に基づいて、二画像の位置ずれを修正するための座標変換係数を求める。座標変換係数を求めることによって、平行移動等による画像の位置合わせができるようになる。
続いて、座標変換係数算出手段142が、特定した対応点に基づいて、二画像の位置ずれを修正するための座標変換係数を求める。座標変換係数を求めることによって、平行移動等による画像の位置合わせができるようになる。
ただし、一つの座標変換係数のみを求めても、画像中で異なる動きをしている領域があった場合、当該領域の位置が合わなくなってしまう。
例えば、図3に示した二枚の画像を位置合わせする場合を考える。
当該画像には、カメラのぶれによって発生した動きと、被写体(人物)のぶれによって発生した動きといったように、複数の動きが含まれているため、単純に画像を平行移動させただけでは、位置が合わない領域が発生してしまう。
そこで、座標変換係数を求めた後に、対応点分類手段143が、当該座標変換係数が表す動きとは異なる動きをしている対応点を抽出し、当該対応点のみを対象として、座標変換係数の算出を再度行う。これを複数回繰り返ことで、画像に含まれる動きごとに、複数の座標変換係数を求めることができる。例えば、図3の例では、背景に対応する座標変換係数、人物の体に対応する座標変換係数、人物の顔に対応する座標変換係数、といったように、検出された動きごとに座標変換係数を算出することができる。
最後に、画像合成手段144が、算出された複数の座標変換係数を用いて、対応する局所領域ごとに座標変換を行い、変換後の画像を合成することで、位置合わせ後の画像を生成する。
例えば、図3に示した二枚の画像を位置合わせする場合を考える。
当該画像には、カメラのぶれによって発生した動きと、被写体(人物)のぶれによって発生した動きといったように、複数の動きが含まれているため、単純に画像を平行移動させただけでは、位置が合わない領域が発生してしまう。
そこで、座標変換係数を求めた後に、対応点分類手段143が、当該座標変換係数が表す動きとは異なる動きをしている対応点を抽出し、当該対応点のみを対象として、座標変換係数の算出を再度行う。これを複数回繰り返ことで、画像に含まれる動きごとに、複数の座標変換係数を求めることができる。例えば、図3の例では、背景に対応する座標変換係数、人物の体に対応する座標変換係数、人物の顔に対応する座標変換係数、といったように、検出された動きごとに座標変換係数を算出することができる。
最後に、画像合成手段144が、算出された複数の座標変換係数を用いて、対応する局所領域ごとに座標変換を行い、変換後の画像を合成することで、位置合わせ後の画像を生成する。
次に、各手段が行う処理の内容を詳細に説明する。
図4は、対応点算出手段141が行う処理のフローチャート図である。対応点算出手段141が行う処理について、図4を参照しながら説明する。
対応点算出手段141は、まず対応点算出ステップS111を実行する。対応点算出ステップS111では、例えば、図5のように第一の画像をブロックに分割し、第一の画像I1から所定の領域Tを切り出し、当該領域Tをテンプレートとして、対応する領域を第二の画像I2から探索する。
具体的には、第二の画像I2に対して、第一の画像の領域Tに対応する座標の近傍から、同じ大きさの領域を切り出し、領域に含まれる画素値の輝度差の絶対値和を算出する。そして、所定の探索範囲内で切り出し領域をずらしながら演算を行い、最も絶対値和が小さくなる座標位置を対応点として記憶する。記憶される対応点は、例えば、第一の画像I1の領域Tの中心座標と、第二の画像I2における対応する座標である。これにより、分割したブロックごとに対応点が決定される。
なお、発生しうる位置ずれの大きさは、撮影時の焦点距離や撮影間隔に依存するため、探索範囲はこれらに応じて適宜設定すればよい。
図4は、対応点算出手段141が行う処理のフローチャート図である。対応点算出手段141が行う処理について、図4を参照しながら説明する。
対応点算出手段141は、まず対応点算出ステップS111を実行する。対応点算出ステップS111では、例えば、図5のように第一の画像をブロックに分割し、第一の画像I1から所定の領域Tを切り出し、当該領域Tをテンプレートとして、対応する領域を第二の画像I2から探索する。
具体的には、第二の画像I2に対して、第一の画像の領域Tに対応する座標の近傍から、同じ大きさの領域を切り出し、領域に含まれる画素値の輝度差の絶対値和を算出する。そして、所定の探索範囲内で切り出し領域をずらしながら演算を行い、最も絶対値和が小さくなる座標位置を対応点として記憶する。記憶される対応点は、例えば、第一の画像I1の領域Tの中心座標と、第二の画像I2における対応する座標である。これにより、分割したブロックごとに対応点が決定される。
なお、発生しうる位置ずれの大きさは、撮影時の焦点距離や撮影間隔に依存するため、探索範囲はこれらに応じて適宜設定すればよい。
次に、信頼度判定ステップS112を実行する。信頼度判定ステップS112は、検出された対応点の信頼度を判定するステップである。もし、前述した探索範囲の外にまで位置ずれが及んでいたような場合、対応点を求めることができないため、絶対値和が最小となる点が求まったとしても、当該点を対応点とすべきではない。そのため、絶対値和に対
して閾値を設け、検出した輝度差の絶対値和が閾値以下である場合のみ、信頼できる対応点として記憶する。閾値を超えている場合は、当該情報は記憶せずに破棄する。
して閾値を設け、検出した輝度差の絶対値和が閾値以下である場合のみ、信頼できる対応点として記憶する。閾値を超えている場合は、当該情報は記憶せずに破棄する。
図4の処理は、分割したブロックすべてについて行われる。すなわち、第一の画像I1において切り出し領域Tを順次移動させ、対応点算出ステップS111および信頼度判定ステップS112を繰り返し、ブロックごとの対応点を求めていく。なお、本実施形態では、画像全域にわたりブロックを分割する例を述べたが、探索範囲を考慮し、画像周辺部にはブロックを配置しなくともよい。
また、対応点を求める際には、輝度差の絶対値和以外に、二乗和や相関を用いてもよい。また、本実施形態では輝度画像を用いた例を示したが、輝度画像以外を用いてもよい。例えば、RGB画像の各色プレーンを用いてもよいし、色差画像を用いてもよい。
また、対応点を求める際には、輝度差の絶対値和以外に、二乗和や相関を用いてもよい。また、本実施形態では輝度画像を用いた例を示したが、輝度画像以外を用いてもよい。例えば、RGB画像の各色プレーンを用いてもよいし、色差画像を用いてもよい。
図2に戻り、座標変換係数算出手段142が行う処理について説明する。
第一の画像I1と第二の画像I2の位置を合わせるためには、第二の画像I2に対して座標変換を行えばよい。座標変換係数算出手段142は、当該座標変換を行う際の変換係数を、求めた複数の対応点に基づいて算出する。
ここで、第一の画像I1上の点(x,y)が、第二の画像I2上の点(x’,y’)に対応するものとすると、当該ずれを補正するための座標変換係数は、数式1で表すことができる。数式1は、射影変換を表した式である。
第一の画像I1と第二の画像I2の位置を合わせるためには、第二の画像I2に対して座標変換を行えばよい。座標変換係数算出手段142は、当該座標変換を行う際の変換係数を、求めた複数の対応点に基づいて算出する。
ここで、第一の画像I1上の点(x,y)が、第二の画像I2上の点(x’,y’)に対応するものとすると、当該ずれを補正するための座標変換係数は、数式1で表すことができる。数式1は、射影変換を表した式である。
数式1に含まれる座標変換係数cは9つあるが、定数倍しても結果は同じであるため、自由度は8つとなる。そのため、最低4組の対応点があれば8つの方程式を作ることができ、連立方程式を解くことで、座標変換係数cを算出することができる。また、対応点が多数ある場合は、最小二乗法によって座標変換係数cを算出してもよい。なお以降、座標変換係数とは、上述したような複数の係数の組であるものとして説明を行う。
図6は、対応点分類手段143が行う処理のフローチャート図である。対応点分類手段143が行う処理について、図6を参照しながら説明する。
まず、座標変換ステップS121で、算出された座標変換係数cと数式1を用いて、第二の画像I2を変換し、座標変換画像I’を得る。
次に、差分算出ステップS122で、座標変換画像I’における対応点と、対応する第一の画像I1の対応点のそれぞれの座標間の距離(以下、座標間距離)を算出する。座標間距離は、ユークリッド距離を用いて求めることが好ましいが、計算コストを考慮して、マンハッタン距離を用いてもよい。ここでは、処理対象の対応点は、画像中の全ての対応点である。
続いて、閾値判定ステップS123で、算出した座標間距離が閾値より大きい対応点があるかを判定する。ここで、座標間距離が閾値より大きい対応点がある場合、推定した動きとは異なる動きをしている局所領域があると推定される。よって、当該対応点を、算出した座標変換係数では位置合わせができない点(以下、外れ対応点)であるものとして記憶する。座標間距離が閾値未満である対応点は、算出した座標変換係数に適合する対応点である。
そして、判定結果に基づいて対応点をグルーピングする。ここでは、算出した座標変換係数に適合する対応点が属するグループを第一のグループとする。
まず、座標変換ステップS121で、算出された座標変換係数cと数式1を用いて、第二の画像I2を変換し、座標変換画像I’を得る。
次に、差分算出ステップS122で、座標変換画像I’における対応点と、対応する第一の画像I1の対応点のそれぞれの座標間の距離(以下、座標間距離)を算出する。座標間距離は、ユークリッド距離を用いて求めることが好ましいが、計算コストを考慮して、マンハッタン距離を用いてもよい。ここでは、処理対象の対応点は、画像中の全ての対応点である。
続いて、閾値判定ステップS123で、算出した座標間距離が閾値より大きい対応点があるかを判定する。ここで、座標間距離が閾値より大きい対応点がある場合、推定した動きとは異なる動きをしている局所領域があると推定される。よって、当該対応点を、算出した座標変換係数では位置合わせができない点(以下、外れ対応点)であるものとして記憶する。座標間距離が閾値未満である対応点は、算出した座標変換係数に適合する対応点である。
そして、判定結果に基づいて対応点をグルーピングする。ここでは、算出した座標変換係数に適合する対応点が属するグループを第一のグループとする。
図2に戻り、説明を続ける。
ここで、グルーピングの結果に基づいて再度座標変換係数を求めるため、処理を再び座標変換係数算出手段142に戻す。
ここで、グルーピングの結果に基づいて再度座標変換係数を求めるため、処理を再び座標変換係数算出手段142に戻す。
座標変換係数算出手段142は、まず、第一のグループに属する対応点群のみを用いて、再度座標変換係数を算出する。第一のグループからは、外れ対応点が除外されているため、より精度のよい座標変換係数を算出することができる。そして、算出した座標変換係数と、当該対応点群を記憶する。ここで推定された座標変換係数は、画像中に現れた最も多い動きに対応する座標変換係数である。例えば、対象が静止物体を撮影した画像であれば、カメラのぶれによって発生した動きを表す座標変換係数である。
次に、グループに属していない対応点群のみを利用して座標変換係数を算出する。ここで算出される座標変換係数は、画像中に現れた二番目に多い動きを表す。そして、算出した座標変換係数と、当該対応点群を対応点分類手段143へ送信する。
対応点分類手段143は、グループに属していない対応点群を対象として、前述したような座標変換ステップS121、差分算出ステップS122、閾値判定ステップS123をさらに実行する。以降、同じ処理を繰り返すことにより、第二のグループ、第三のグループ・・・と、動きが多い順に対応点がグルーピングされ、当該グループごとに座標変換係数が求まっていく。
対応点分類手段143は、グループに属していない対応点群を対象として、前述したような座標変換ステップS121、差分算出ステップS122、閾値判定ステップS123をさらに実行する。以降、同じ処理を繰り返すことにより、第二のグループ、第三のグループ・・・と、動きが多い順に対応点がグルーピングされ、当該グループごとに座標変換係数が求まっていく。
具体的な例を図7に示す。図7(a)の白抜きで示した部分が、1回目のループで正しい対応点として判定され、第一のグループに分類されたブロックである。すなわち、画像中に現れた最も多い動き(カメラの動きによるぶれ)に対応するブロックである。また、図7(a)のハッチングで示した部分が、1回目のループで外れ対応点として判定されたブロックである。
図7(b)の白抜きで表した部分が、2回目のループで正しい対応点として判定され、第二のグループに分類されたブロックである。当該ブロックは、画像中に現れた二番目に多い動きに対応する。
同様に、図7(c)の白抜きで示した部分が、3回目のループで正しい対応点として判定され、第三のグループに分類されたブロックである。当該ブロックは、画像中に現れた三番目に多い動きに対応する。
図7(b)の白抜きで表した部分が、2回目のループで正しい対応点として判定され、第二のグループに分類されたブロックである。当該ブロックは、画像中に現れた二番目に多い動きに対応する。
同様に、図7(c)の白抜きで示した部分が、3回目のループで正しい対応点として判定され、第三のグループに分類されたブロックである。当該ブロックは、画像中に現れた三番目に多い動きに対応する。
このように、位置合わせ部14は、グループに属していない対応点を含む領域を処理対象領域として、外れ対応点の抽出処理を繰り返す。これにより、被写体の動きに基づいて対応点がグループ分けされる。
座標変換係数算出手段142と、対応点分類手段143との間の処理のループは、外れ対応点の数が所定の値以下になる時点まで繰り返される。所定の値とは、座標変換係数の算出が不可能にならない範囲であれば、どのような値であってもよい。
なお、数式1では射影変換を用いたため、座標の変換を行うためには4組の対応点が必要となるが、数式2に示したようなアフィン変換を用いる場合は、対応点は3組あればよい。
なお、数式1では射影変換を用いたため、座標の変換を行うためには4組の対応点が必要となるが、数式2に示したようなアフィン変換を用いる場合は、対応点は3組あればよい。
なお、画像中に別の動きをする物体が多い場合や、対応点が多い場合、収束するまでの繰り返し回数が増えるため、処理時間が長くなる。このような場合は、予め決められた回数だけループを繰り返すようにしても良い。ループが終了すると、繰り返し回数分の座標
変換係数が取得される。
変換係数が取得される。
次に、画像合成手段144が行う処理について説明する。
画像合成手段144は、算出した複数の座標変換係数を用いて第二の画像を変換し、得られた複数の画像のうち、より第一の画像と一致する局所領域同士を連結することで、位置合わせ後の合成画像を生成する。当該処理を画像合成処理と称する。
画像合成手段144は、算出した複数の座標変換係数を用いて第二の画像を変換し、得られた複数の画像のうち、より第一の画像と一致する局所領域同士を連結することで、位置合わせ後の合成画像を生成する。当該処理を画像合成処理と称する。
図8は、画像合成処理の流れをより詳細に示したフローチャートである。
まず、座標変換ステップS131で、1回目のループで算出された座標変換係数を用いて、第二の画像I2を座標変換した画像I2’を生成する。これにより、カメラの移動に
起因して第一の画像I1との間に発生した位置ずれがおよそ補正された画像が生成される。
続いて、2回目のループで算出された座標変換係数を用いて、第二の画像I2を座標変換した画像I2’’を生成する。画像I2’および画像I2’’が、本発明における変換後画像である。
まず、座標変換ステップS131で、1回目のループで算出された座標変換係数を用いて、第二の画像I2を座標変換した画像I2’を生成する。これにより、カメラの移動に
起因して第一の画像I1との間に発生した位置ずれがおよそ補正された画像が生成される。
続いて、2回目のループで算出された座標変換係数を用いて、第二の画像I2を座標変換した画像I2’’を生成する。画像I2’および画像I2’’が、本発明における変換後画像である。
次に、差分算出ステップS132で、第一の画像I1をブロックに分割する。ここでは、対応点を算出する際に用いたブロックと同じサイズに分割する。分割された各ブロックを、局所領域Tと称する。なお、分割するブロックのサイズは、対応点を算出する際に用いたブロックよりも小さなサイズとしてもよい。このようにすることで、より精度のよい位置合わせを行うことができる。
そして、局所領域Tに対応する領域を変換画像I2’およびI2’’から抽出し、局所領域T2’およびT2’’を得る。その後、局所領域Tと、局所領域T2’およびT2’’の輝度値の差分をそれぞれとり、差分値S2’およびS2’’を得る。
そして、局所領域Tに対応する領域を変換画像I2’およびI2’’から抽出し、局所領域T2’およびT2’’を得る。その後、局所領域Tと、局所領域T2’およびT2’’の輝度値の差分をそれぞれとり、差分値S2’およびS2’’を得る。
次に、最小差分画像選択ステップS133で、前記差分値S2’およびS2’’の絶対値和をそれぞれとり、絶対値和が小さいと判定された局所領域を、変換画像I2’の対応する領域と入れ替える。絶対値和が小さい方が、より第一の画像に対する類似度が高いためである。
なお、ここでは、ブロックごとに差分の算出および最小差分画像の選択を行ったが、最初に差分画像を生成し、その後、ブロックごとに最小差分画像の選択を行うようにしてもよい。
なお、ここでは、ブロックごとに差分の算出および最小差分画像の選択を行ったが、最初に差分画像を生成し、その後、ブロックごとに最小差分画像の選択を行うようにしてもよい。
次に、再度差分算出ステップS132に戻り、選択する局所領域を変更して同様の処理を繰り返す。なお、ここでは、分割したブロックを局所領域としているが、局所領域のサイズを決めて1画素ずつずらして同様の処理を行い、全画素に対して最小差分画像の選択を行うようにしてもよい。
最終的に、変換後画像I2’は、変換画像I2’およびI2’’が有する局所領域画像のうち、より第一の画像I1に類似したほうを互いに連結した画像となる。すなわち、全体として、より第一の画像I1に近い画像となる。
最終的に、変換後画像I2’は、変換画像I2’およびI2’’が有する局所領域画像のうち、より第一の画像I1に類似したほうを互いに連結した画像となる。すなわち、全体として、より第一の画像I1に近い画像となる。
次に、座標変換ステップS131に戻り、3回目のループで算出された座標変換係数を用いて第二の画像I2の座標変換を行い、変換された画像I2’’を生成する。その後、同様に差分算出ステップS122、最小差分画像選択ステップS133を行い、より第一の画像I1に近い画像I2’を生成する。
画像合成手段144は、以上の処理(S132およびS133)を、座標変換係数算出手段142で算出した座標変換係数の数だけ繰り返し実行する。全ての処理が終了したら、生成された変換画像I2’をメモリ16に保存する。
なお、メモリに余裕がある場合は、初めに座標変換係数の個数だけ座標変換を実行し、
変換画像を複数枚生成したのちに、第一の画像との輝度差分が最小になる局所領域を選択していってもよい。
なお、メモリに余裕がある場合は、初めに座標変換係数の個数だけ座標変換を実行し、
変換画像を複数枚生成したのちに、第一の画像との輝度差分が最小になる局所領域を選択していってもよい。
本実施形態に係る画像処理装置は、以上に説明したような処理を行うことにより、画像中の異なる領域がそれぞれ異なる動きをしている場合であっても、全ての領域において位置合わせを行うことができる。
<<距離計測処理>>
次に、位置合わせされた第一の画像と合成画像を用いて、被写体までの距離を計測する方法について説明する。なお、位置合わせを行った二枚の画像は、それぞれフォーカス位置を変えて撮影した画像であるものとする。
距離計測部15は、メモリ16から距離計測用の二枚の画像を取得し、入力された二画像から距離マップを算出する。距離マップとは、画像中の被写体距離の分布を表すデータである。算出された被写体距離の分布は表示部18を通して表示され、また、記録部19に保存される。
次に、位置合わせされた第一の画像と合成画像を用いて、被写体までの距離を計測する方法について説明する。なお、位置合わせを行った二枚の画像は、それぞれフォーカス位置を変えて撮影した画像であるものとする。
距離計測部15は、メモリ16から距離計測用の二枚の画像を取得し、入力された二画像から距離マップを算出する。距離マップとは、画像中の被写体距離の分布を表すデータである。算出された被写体距離の分布は表示部18を通して表示され、また、記録部19に保存される。
被写体距離の計測は、公知のDFD(Depth from Defocus)法によって行うことができる。ここでDFD法による距離算出の原理について、図9を用いて説明する。
距離計測対象物体Oまでの距離Doは、物体Oが像面側で結像する位置Diが分かれば、レンズの公式から数式3によって距離を求めることができる。FLは焦点距離である。
距離計測対象物体Oまでの距離Doは、物体Oが像面側で結像する位置Diが分かれば、レンズの公式から数式3によって距離を求めることができる。FLは焦点距離である。
しかし、数式3によって距離を求めることができるのは、撮像面上に結像した物体に限定される。DFD法では、撮像面に結像しない物体の距離も計測するために、撮像面上に投影された物体のぼけの大きさ(錯乱円)から物体の結像位置を求め、これを数式3に代入することで距離を算出する。ここで、錯乱円が撮像面と結像位置に比例することを利用して結像位置を求める。
ここで、距離D1にある物体が撮像面位置d1に投影された場合を考える。このとき像i1はぼけて拡がる。このときの、点像分布関数(Point Spread Function)をPSF1
とし、シーンをsとすると、像i1は点像分布関数PSF1とシーンsの畳み込みで表すことができる。
ここで、距離D1にある物体が撮像面位置d1に投影された場合を考える。このとき像i1はぼけて拡がる。このときの、点像分布関数(Point Spread Function)をPSF1
とし、シーンをsとすると、像i1は点像分布関数PSF1とシーンsの畳み込みで表すことができる。
ここで、錯乱円をパラメータとしてPSFをモデル化し、像i1からPSFを推定できれば、錯乱円が算出可能となる。更にはこの錯乱円から結像位置を求めることができ、数式3を用いて距離を算出することができる。
しかしながら、数式4ではシーンsが不明であるため、このままでは錯乱円を正しく求めることができない。そこで、異なる撮像面位置d2で撮影を行う。この時の像をi2とする。
ここで、シーンsのフーリエ変換をSとし、一枚目の撮影画像のPSF1をフーリエ変換した光学伝達関数をOTF1、二枚目の撮影画像のOTFをOTF2とすると、撮影された画像はそれぞれOTF1×S、OTF2×Sと表される。この二画像の比をとると数式5のようになり、シーンに依存しないOTFの比であるOTFrが算出される。そして、数式3と図9の幾何学的関係から、物体Oの錯乱円を算出することができ、距離を算出することができる。
しかしながら、数式4ではシーンsが不明であるため、このままでは錯乱円を正しく求めることができない。そこで、異なる撮像面位置d2で撮影を行う。この時の像をi2とする。
ここで、シーンsのフーリエ変換をSとし、一枚目の撮影画像のPSF1をフーリエ変換した光学伝達関数をOTF1、二枚目の撮影画像のOTFをOTF2とすると、撮影された画像はそれぞれOTF1×S、OTF2×Sと表される。この二画像の比をとると数式5のようになり、シーンに依存しないOTFの比であるOTFrが算出される。そして、数式3と図9の幾何学的関係から、物体Oの錯乱円を算出することができ、距離を算出することができる。
第一の実施形態によれば、撮像装置のぶれに起因する位置ずれと、移動体のぶれに起因する位置ずれをそれぞれ補正することが可能となり、更に、撮影された画像に複数の移動体が含まれる場合であっても、移動体ごとに位置ずれの補正を行うことが可能となる。また、これにより、画像中の全領域で正確な距離計測を行うことが可能となる。
また、位置ずれの補正は、平行移動だけでなく、拡大縮小や回転、剪断といった変形に対しても行うことができるため、より高精度な位置ずれ補正を実現することができる。
また、位置ずれの補正は、平行移動だけでなく、拡大縮小や回転、剪断といった変形に対しても行うことができるため、より高精度な位置ずれ補正を実現することができる。
なお、第一の実施形態では、被写体距離を計測する方法として、DFD法の一例を利用したが、他のDFD法や、DFF(Depth from Focus)法を適用することも可能である。位置合わせを行った二枚の画像から被写体距離を求めることができれば、その方法に制限は無い。
(第二の実施形態)
第二の実施形態は、位置合わせ処理を行う際に、画像中の顔を検出することで対応点のグルーピングを行う実施形態である。また、位置合わせの結果を用いて、距離計測ではなくHDR(ハイダイナミックレンジ)処理を行う実施形態である。
第二の実施形態は、位置合わせ処理を行う際に、画像中の顔を検出することで対応点のグルーピングを行う実施形態である。また、位置合わせの結果を用いて、距離計測ではなくHDR(ハイダイナミックレンジ)処理を行う実施形態である。
図10は、第二の実施形態に係る撮像装置のシステム構成図である。第二の実施形態に係る撮像装置は、位置合わせ部が行う処理の内容と、距離計測部15のかわりにHDR処理部20を有しているという点において、第一の実施形態と相違する。
HDR処理部20は、露出の異なる複数枚の画像を入力として、露出量に合わせて混合比率を変えて画像を加算することで、HDR画像を生成する手段である。HDR画像の生成処理については公知であるため説明は省略する。生成されたHDR画像は、表示部18を通して表示され、また、記憶部19に保存される。
他の構成については第一の実施形態と同様であるため、詳細な説明は省略する。
他の構成については第一の実施形態と同様であるため、詳細な説明は省略する。
第二の実施形態においても、第一の実施形態と同様に二枚の画像を撮影するが、第二の実施形態では、フォーカス位置ではなく露出を変更して撮影を行う。撮影された二枚の画像は、位置合わせ部24に入力され、位置合わせが実行される。
位置合わせ部24は、基準となる画像(以下、基準画像)を含む複数枚の画像に対して処理を行い、基準画像に対して位置合わせがされた複数枚の画像(以下、合成画像)を出力する。第二の実施形態における位置合わせ処理の概要について、図11を参照しながら説明する。図11に示した各手段は、位置合わせ部24が実行する処理をブロックで表したものである。
まず、メモリ16に蓄積された二枚の画像が、対応点算出手段241に入力される。ここでは、基準画像と、それ以外の画像が入力されるものとする。
次に、対応点分類手段242により、対応点の分類を行う。対応点の分類は、画像中の顔の有無によって行う。
まず、メモリ16に蓄積された二枚の画像が、対応点算出手段241に入力される。ここでは、基準画像と、それ以外の画像が入力されるものとする。
次に、対応点分類手段242により、対応点の分類を行う。対応点の分類は、画像中の顔の有無によって行う。
対応点分類手段242が行う処理を、図12を参照しながらより詳しく説明する。
まず、顔検出確認ステップS211で、画像中に人の顔が存在するか否かを判定し、顔が検出されなかった場合は処理を終了する。この場合、引き続き第一の実施形態で行ったような対応点分類処理に移行するようにしてもよい。
顔が検出された場合は、対応点分類ステップS212で、検出された顔に対応する領域(顔領域)ごとに、当該領域内に存在する対応点をグルーピングする。また、顔が存在しない領域についても、一つのグループを生成する。これにより、検出した顔の個数+1個のグループが生成される。
対応点数確認ステップS213では、各グループ内の対応点が、座標変換係数の算出に必要な数以上あるかを判定し、無かった場合は当該グループに属する対応点を除外する。なお、演算を簡略化するため、顔領域のサイズについて閾値をあらかじめ設け、閾値以下のサイズの顔領域が検出された場合は、当該顔領域についてはグループを生成しないようにしてもよい。
まず、顔検出確認ステップS211で、画像中に人の顔が存在するか否かを判定し、顔が検出されなかった場合は処理を終了する。この場合、引き続き第一の実施形態で行ったような対応点分類処理に移行するようにしてもよい。
顔が検出された場合は、対応点分類ステップS212で、検出された顔に対応する領域(顔領域)ごとに、当該領域内に存在する対応点をグルーピングする。また、顔が存在しない領域についても、一つのグループを生成する。これにより、検出した顔の個数+1個のグループが生成される。
対応点数確認ステップS213では、各グループ内の対応点が、座標変換係数の算出に必要な数以上あるかを判定し、無かった場合は当該グループに属する対応点を除外する。なお、演算を簡略化するため、顔領域のサイズについて閾値をあらかじめ設け、閾値以下のサイズの顔領域が検出された場合は、当該顔領域についてはグループを生成しないようにしてもよい。
図11に戻って説明を続ける。
座標変換係数算出手段243では、生成されたグループごとに座標変換係数を算出し、画像合成手段244が、第一の実施形態と同様の処理によって、位置合わせされた合成画像を生成する。生成された合成画像はメモリ16に保存され、HDR処理部20によってHDR処理が施される。
座標変換係数算出手段243では、生成されたグループごとに座標変換係数を算出し、画像合成手段244が、第一の実施形態と同様の処理によって、位置合わせされた合成画像を生成する。生成された合成画像はメモリ16に保存され、HDR処理部20によってHDR処理が施される。
静止した人物を撮影した場合、胴体部分に比べ頭部が動きやすい傾向があるため、HDR処理によって画像を合成した場合に、顔領域の位置合わせができず、ぶれて合成されてしまうことがあった。これに対し、第二の実施形態では、各人物の顔がそれぞれ異なる動きをしている場合であっても正確に位置合わせをすることができ、ぶれが少ない合成画像を生成することができる。
なお、第二の実施形態では、顔領域以外の領域については、同じ動きをしているものと仮定して座標変換係数の算出を行ったが、顔領域以外の領域については、第一の実施形態と同様の方法を用いてグループ分けを行うようにしてもよい。
また、第二の実施形態では、人の顔を検出して対応点のグルーピングを行ったが、人物そのものを検出する処理を用いて、人物と、人物以外でグルーピングするようにしてもよい。また、人物を検出する場合、顔と顔以外の体に分離してグルーピングを行うようにしてもよい。さらに、被写体が人物以外である場合、画像に含まれる物体を認識し、当該認識された物体ごとにグルーピングを行うようにしてもよい。
また、画像の中から、人間が注目しやすい領域を抽出し、当該領域をグルーピングするようにしてもよい。例えば、文字や直線など、視覚上、画像のずれを認識しやすい領域を抽出し、グループを形成することで、合成後の画像を観賞した際の違和感を軽減させることができる。
また、入力画像が三枚以上である場合、以上に述べた処理を繰り返し行うことで、複数の合成画像を生成してもよい。
また、第二の実施形態では、人の顔を検出して対応点のグルーピングを行ったが、人物そのものを検出する処理を用いて、人物と、人物以外でグルーピングするようにしてもよい。また、人物を検出する場合、顔と顔以外の体に分離してグルーピングを行うようにしてもよい。さらに、被写体が人物以外である場合、画像に含まれる物体を認識し、当該認識された物体ごとにグルーピングを行うようにしてもよい。
また、画像の中から、人間が注目しやすい領域を抽出し、当該領域をグルーピングするようにしてもよい。例えば、文字や直線など、視覚上、画像のずれを認識しやすい領域を抽出し、グループを形成することで、合成後の画像を観賞した際の違和感を軽減させることができる。
また、入力画像が三枚以上である場合、以上に述べた処理を繰り返し行うことで、複数の合成画像を生成してもよい。
(第三の実施形態)
第三の実施形態は、対応点から動きベクトルを算出し、隣接する動きベクトルの情報を用いて対応点のグルーピングを行う実施形態である。
第三の実施形態における撮像装置1の構成は、第二の実施形態と同様である。
第三の実施形態は、対応点から動きベクトルを算出し、隣接する動きベクトルの情報を用いて対応点のグルーピングを行う実施形態である。
第三の実施形態における撮像装置1の構成は、第二の実施形態と同様である。
以下、第二の実施形態との処理の相違点について説明する。
第三の実施形態における位置合わせ部24の処理フローは、第二の実施形態(図11)と同様であるが、対応点分類手段242が、顔検出結果ではなく、動きベクトルを用いて対応点のグルーピングを行うという点において相違する。
第三の実施形態における位置合わせ部24の処理フローは、第二の実施形態(図11)と同様であるが、対応点分類手段242が、顔検出結果ではなく、動きベクトルを用いて対応点のグルーピングを行うという点において相違する。
第三の実施形態における対応点分類手段242は、算出された対応点から、二画像間の対応点のずれを表す動きベクトルを算出する。そして、それぞれの動きベクトルについて、隣接する対応点が有する動きベクトルとの比較を行う。この結果、各動きベクトルの大
きさおよび方向の違いが閾値以内であった場合、類似した動きベクトルであると判定し、互いを同じグループに編入する。閾値を超えている場合は、非類似の動きベクトルであるとしてグループへの編入は行わない。
この処理を全ての動きベクトルに対して行うことで、類似した複数の動きベクトルをグルーピングすることができる。
きさおよび方向の違いが閾値以内であった場合、類似した動きベクトルであると判定し、互いを同じグループに編入する。閾値を超えている場合は、非類似の動きベクトルであるとしてグループへの編入は行わない。
この処理を全ての動きベクトルに対して行うことで、類似した複数の動きベクトルをグルーピングすることができる。
ただし、この方法では、隣接する動きベクトルのみをチェックしているため、同一のグループ内に、大きさや方向が類似しない動きベクトルが含まれてしまう可能性がある。そこで、グループを生成した後で、グループ単位でヒストグラムを生成し、必要に応じてグループを分割する。
具体的には、同じグループに含まれる動きベクトル群に対して、大きさおよび方向の度数分布を示すヒストグラムをそれぞれ算出する。この結果、算出されたヒストグラムが単峰であれば、当該グループには類似する動きベクトルのみが含まれていることがわかる。一方、大きさおよび方向のうち、少なくとも一方のヒストグラムが多峰性を持つ場合は、当該グループには異なる動きが混在していることがわかる。この場合、ヒストグラムに含まれるピークが一つになるように、当該グループを分割する。このように、ヒストグラムを生成することで、グループに含まれる動きベクトルが局所的にも大域的にもすべて類似するものであるか、確認することができる。
対応点をグルーピングした後の処理は、第二の実施形態と同様である。
具体的には、同じグループに含まれる動きベクトル群に対して、大きさおよび方向の度数分布を示すヒストグラムをそれぞれ算出する。この結果、算出されたヒストグラムが単峰であれば、当該グループには類似する動きベクトルのみが含まれていることがわかる。一方、大きさおよび方向のうち、少なくとも一方のヒストグラムが多峰性を持つ場合は、当該グループには異なる動きが混在していることがわかる。この場合、ヒストグラムに含まれるピークが一つになるように、当該グループを分割する。このように、ヒストグラムを生成することで、グループに含まれる動きベクトルが局所的にも大域的にもすべて類似するものであるか、確認することができる。
対応点をグルーピングした後の処理は、第二の実施形態と同様である。
第三の実施形態によると、動きベクトルの比較のみで対応点のグルーピングを行うことができるため、繰り返し処理や顔検出処理を行う必要がなくなり、演算量を削減することができる。
(変形例)
なお、各実施形態の説明は本発明を説明する上での例示であり、本発明は、発明の趣旨を逸脱しない範囲で適宜変更または組み合わせて実施することができる。例えば、本発明は、上記処理の少なくとも一部を含む撮像装置として実施することもできるし、撮像手段を有さない画像処理装置として実施することもできる。また、画像処理方法として実施することもできるし、当該画像処理方法を画像処理装置に実行させる画像処理プログラムとして実施することもできる。上記処理や手段は、技術的な矛盾が生じない限りにおいて、自由に組み合わせて実施することができる。
なお、各実施形態の説明は本発明を説明する上での例示であり、本発明は、発明の趣旨を逸脱しない範囲で適宜変更または組み合わせて実施することができる。例えば、本発明は、上記処理の少なくとも一部を含む撮像装置として実施することもできるし、撮像手段を有さない画像処理装置として実施することもできる。また、画像処理方法として実施することもできるし、当該画像処理方法を画像処理装置に実行させる画像処理プログラムとして実施することもできる。上記処理や手段は、技術的な矛盾が生じない限りにおいて、自由に組み合わせて実施することができる。
また、実施形態で説明した各要素技術は、任意に組み合わせてもよい。
例えば、ブラケットの方法、対応点のグループ分け方法、距離計測処理の有無、HDR処理の有無などを、自由に組み合わせて実施してもよい。
例えば、ブラケットの方法、対応点のグループ分け方法、距離計測処理の有無、HDR処理の有無などを、自由に組み合わせて実施してもよい。
また、実施形態の説明では、画像をブロックに分割してブロックごとの対応点を求めたが、対応点は必ずしもブロックに対して割り当てられたものでなくてもよい。例えば、画像中の特徴点を抽出し、当該特徴点に対応点を割り当てるようにしてもよい。このようにすることで、ブロックで分割した場合よりも、よりサイズの小さい移動体に対応することができるようになる。
上述した本発明の距離計測技術は、例えば、デジタルカメラやデジタルカムコーダなどの撮像装置、あるいは撮像装置で得られた画像データに対して画像処理を施す画像処理装置やコンピュータなどに好ましく適用できる。また、このような撮像装置や、画像処理装置を内蔵する各種の電子機器(携帯電話、スマートフォン、スレート型端末、パーソナルコンピュータを含む)にも本発明の技術を適用可能である。
また、実施形態の説明では、撮像装置本体に距離計測の機能を組み込んだ構成を示したが、距離計測は撮像装置以外で行ってもよい。たとえば、撮像装置を有するコンピュータ
に距離計測の機能を組み込み、撮像装置で撮影した画像をコンピュータが取得して、距離の算出を行うようにしてもよい。また、有線あるいは無線によりネットワークアクセス可能なコンピュータに距離計測の機能を組み込み、当該コンピュータがネットワークを介して複数枚の画像を取得し、距離計測を行うようにしてもよい。得られた距離情報は、例えば、画像の領域分割、立体画像や奥行き画像の生成、ボケ効果のエミュレーションなどの各種画像処理に利用することができる。
また、実施形態の説明では、撮像装置本体に距離計測の機能を組み込んだ構成を示したが、距離計測は撮像装置以外で行ってもよい。たとえば、撮像装置を有するコンピュータ
に距離計測の機能を組み込み、撮像装置で撮影した画像をコンピュータが取得して、距離の算出を行うようにしてもよい。また、有線あるいは無線によりネットワークアクセス可能なコンピュータに距離計測の機能を組み込み、当該コンピュータがネットワークを介して複数枚の画像を取得し、距離計測を行うようにしてもよい。得られた距離情報は、例えば、画像の領域分割、立体画像や奥行き画像の生成、ボケ効果のエミュレーションなどの各種画像処理に利用することができる。
なお、上記装置への具体的な実装は、ソフトウェア(プログラム)による実装とハードウェアによる実装のいずれも可能である。例えば、コンピュータ(マイコン、FPGA等)のメモリにプログラムを格納し、当該プログラムをコンピュータに実行させることで、本発明に係る画像処理装置、距離計測装置、撮像装置、画像処理方法を実施するための各種処理を行ってもよい。また、本発明の全部又は一部の処理を論理回路により実現するASIC等の専用プロセッサを設けることも好ましい。
この目的のために、上記プログラムは、例えば、ネットワークを通じて、又は、上記記憶装置となり得る様々なタイプの記録媒体(つまり、非一時的にデータを保持するコンピュータ読取可能な記録媒体)から、上記コンピュータに提供される。従って、上記コンピュータ(CPU、MPU等のデバイスを含む)、上記方法、上記プログラム(プログラムコード、プログラムプロダクトを含む)、上記プログラムを非一時的に保持するコンピュータ読取可能な記録媒体は、いずれも本発明の範疇に含まれる。
この目的のために、上記プログラムは、例えば、ネットワークを通じて、又は、上記記憶装置となり得る様々なタイプの記録媒体(つまり、非一時的にデータを保持するコンピュータ読取可能な記録媒体)から、上記コンピュータに提供される。従って、上記コンピュータ(CPU、MPU等のデバイスを含む)、上記方法、上記プログラム(プログラムコード、プログラムプロダクトを含む)、上記プログラムを非一時的に保持するコンピュータ読取可能な記録媒体は、いずれも本発明の範疇に含まれる。
1・・・撮像装置、12・・・制御部、14・・・位置合わせ部
Claims (23)
- 第一の画像に含まれる複数の点について、対応点を第二の画像中から探索する対応点決定手段と、
前記対応点のずれ量に基づいて、前記複数の対応点をグループ分けし、前記グループごとに座標変換係数を算出する変換係数算出手段と、
複数の前記座標変換係数と前記第二の画像を用いて、合成画像を生成する画像合成手段と、
を有することを特徴とする、画像処理装置。 - 前記変換係数算出手段は、
処理対象領域における座標変換係数を算出する算出手段と、
前記座標変換係数を用いて前記第二の画像の座標変換を行い、変換後の画像に含まれる対応点と、当該対応点に対応する第一の画像中の点との距離をそれぞれ算出し、当該距離が所定の距離より小さい対応点からなるグループを生成する生成手段と、
を有し、
前記算出手段および生成手段は、前記グループに属していない対応点を含む領域を前記処理対象領域として繰り返し処理を行う
ことを特徴とする、請求項1に記載の画像処理装置。 - 前記変換係数算出手段は、前記生成手段によって生成されたグループに属する対応点が所定の数より少なくなった時点で処理を終了する
ことを特徴とする、請求項2に記載の画像処理装置。 - 前記生成手段は、グループを生成した際に、当該グループに含まれる対応点のみを用いて当該グループに対応する座標変換係数を算出する
ことを特徴とする、請求項2または3に記載の画像処理装置。 - 前記変換係数算出手段は、画像中に存在する顔を検出し、同一の顔に属する対応点が同一のグループに属するようにグループ分けを行う
ことを特徴とする、請求項1から4のいずれか1項に記載の画像処理装置。 - 前記変換係数算出手段は、対応点における動きベクトルを取得し、当該対応点に隣接する対応点における動きベクトルの方向が類似する場合に、各対応点が同じグループに属するようにグループ分けを行う
ことを特徴とする、請求項1に記載の画像処理装置。 - 前記変換係数算出手段は、グループ分けを行ったのちに、当該グループに含まれる動きベクトルの大きさおよび方向の少なくともいずれかを表すヒストグラムを生成し、前記ヒストグラムが多峰性を持つ場合に、当該ヒストグラムが単峰となるように当該グループを分割する
ことを特徴とする、請求項6に記載の画像処理装置。 - 前記画像合成手段は、
前記複数の座標変換係数を用いて、前記第二の画像の座標変換をそれぞれ行い、複数の変換後画像を生成し、前記第一の画像の局所領域と、複数の変換後画像の対応する局所領域とを比較し、前記第一の画像の局所領域に最も類似する局所領域を連結することで、前記合成画像を生成する
ことを特徴とする、請求項1から7のいずれか1項に記載の画像処理装置。 - 前記画像合成手段は、前記局所領域同士の比較において、当該領域における画素値の差を取得し、当該差の絶対値和もしくは二乗和に基づいて類似度を判定する
ことを特徴とする、請求項8に記載の画像処理装置。 - 前記画像合成手段は、前記局所領域同士の比較において、当該領域における画素値の相関に基づいて類似度を判定する
ことを特徴とする、請求項8に記載の画像処理装置。 - 異なる撮影パラメータで撮影された、ぼけ方の異なる複数の画像から、被写体距離を算出する距離計測装置であって、
請求項1から10のいずれか1項に記載の画像処理装置を有し、
前記第一の画像と、前記合成画像を用いて被写体距離を計測する
ことを特徴とする、距離計測装置。 - 撮像光学系と、
撮像素子と、
請求項11に記載の距離計測装置と、を有し、
前記距離計測装置は、前記撮像光学系および撮像素子によって得られた複数の画像を用いて被写体距離を計測する
ことを特徴とする撮像装置。 - 第一の画像に含まれる点に複数の点について、対応点を第二の画像中から探索する対応点決定ステップと、
前記対応点のずれ量に基づいて、前記複数の対応点をグループ分けし、前記グループごとに画像間の座標変換係数を算出する変換係数算出ステップと、
複数の前記座標変換係数と前記第二の画像とを用いて、合成画像を生成する画像合成ステップと、
を含むことを特徴とする画像処理方法。 - 前記変換係数算出ステップは、
処理対象領域における座標変換係数を算出する算出ステップと、
算出した座標変換係数を用いて第二の画像の座標変換を行い、変換後の画像に含まれる対応点と、当該対応点に対応する第一の画像中の点との距離をそれぞれ算出し、当該距離が所定の距離より小さい対応点からなるグループを生成する生成ステップと、
からなり、
前記グループに属していない対応点を含む領域を前記処理対象領域として、前記算出ステップおよび前記生成ステップを繰り返す
ことを特徴とする、請求項13に記載の画像処理方法。 - 前記変換係数算出ステップでは、前記生成ステップによって生成されたグループに属する対応点が所定の数より少なくなった時点で処理を終了する
ことを特徴とする、請求項14に記載の画像処理方法。 - 前記生成ステップでは、グループを生成した際に、当該グループに含まれる対応点のみを用いて当該グループに対応する座標変換係数を算出する
ことを特徴とする、請求項14または15に記載の画像処理方法。 - 前記変換係数算出ステップでは、画像中に存在する顔を検出し、同一の顔に属する対応点が同一のグループに属するようにグループ分けを行う
ことを特徴とする、請求項13から16のいずれか1項に記載の画像処理方法。 - 前記変換係数算出ステップでは、対応点における動きベクトルを取得し、当該対応点に隣接する対応点における動きベクトルの方向が類似する場合に、各対応点が同じグループに属するようにグループ分けを行う
ことを特徴とする、請求項13に記載の画像処理方法。 - 前記変換係数算出ステップでは、グループ分けを行ったのちに、当該グループに含まれる動きベクトルの大きさおよび方向の少なくともいずれかを表すヒストグラムを生成し、前記ヒストグラムが多峰性を持つ場合に、当該ヒストグラムが単峰となるように当該グループを分割する
ことを特徴とする、請求項18に記載の画像処理方法。 - 前記画像合成ステップでは、
前記複数の座標変換係数を用いて、前記第二の画像の座標変換をそれぞれ行い、複数の変換後画像を生成し、前記第一の画像の局所領域と、複数の変換後画像の対応する局所領域とを比較し、前記第一の画像の局所領域に最も類似する局所領域を連結することで、前記合成画像を生成する
ことを特徴とする、請求項13から19のいずれか1項に記載の画像処理方法。 - 前記画像合成ステップでは、前記局所領域同士の比較において、当該領域における画素値の差を取得し、当該差の絶対値和もしくは二乗和に基づいて類似度を判定する
ことを特徴とする、請求項20に記載の画像処理方法。 - 前記画像合成ステップでは、前記局所領域同士の比較において、当該領域における画素値の相関に基づいて類似度を判定する
ことを特徴とする、請求項20に記載の画像処理方法。 - 請求項13から22のいずれか1項に記載の画像処理方法の各ステップをコンピュータに実行させるためのプログラム。
Priority Applications (3)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2013167531A JP2015036841A (ja) | 2013-08-12 | 2013-08-12 | 画像処理装置、距離計測装置、撮像装置、画像処理方法 |
US14/453,888 US9413952B2 (en) | 2013-08-12 | 2014-08-07 | Image processing apparatus, distance measuring apparatus, imaging apparatus, and image processing method |
US15/201,831 US9811909B2 (en) | 2013-08-12 | 2016-07-05 | Image processing apparatus, distance measuring apparatus, imaging apparatus, and image processing method |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2013167531A JP2015036841A (ja) | 2013-08-12 | 2013-08-12 | 画像処理装置、距離計測装置、撮像装置、画像処理方法 |
Publications (1)
Publication Number | Publication Date |
---|---|
JP2015036841A true JP2015036841A (ja) | 2015-02-23 |
Family
ID=52448329
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2013167531A Pending JP2015036841A (ja) | 2013-08-12 | 2013-08-12 | 画像処理装置、距離計測装置、撮像装置、画像処理方法 |
Country Status (2)
Country | Link |
---|---|
US (2) | US9413952B2 (ja) |
JP (1) | JP2015036841A (ja) |
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US10516820B2 (en) | 2017-07-18 | 2019-12-24 | Samsung Electronics Co., Ltd. | Electronic device for controlling focus of lens and method for controlling the same |
Families Citing this family (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP6140935B2 (ja) * | 2012-05-17 | 2017-06-07 | キヤノン株式会社 | 画像処理装置、画像処理方法、画像処理プログラム、および撮像装置 |
JP6498175B2 (ja) * | 2016-12-16 | 2019-04-10 | キヤノン株式会社 | 撮像装置およびその制御方法 |
US10719927B2 (en) * | 2017-01-04 | 2020-07-21 | Samsung Electronics Co., Ltd. | Multiframe image processing using semantic saliency |
JP7030442B2 (ja) * | 2017-08-07 | 2022-03-07 | キヤノン株式会社 | 画像処理装置、画像処理方法、及びプログラム |
KR102230647B1 (ko) * | 2019-06-18 | 2021-03-22 | 삼성전기주식회사 | 손떨림 보정 반사모듈 및 이를 포함하는 카메라 모듈 |
US11763491B2 (en) * | 2020-10-21 | 2023-09-19 | Faro Technologies, Inc. | Compensation of three-dimensional measuring instrument having an autofocus camera |
Family Cites Families (20)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2878614B2 (ja) | 1994-03-23 | 1999-04-05 | 日立ソフトウエアエンジニアリング株式会社 | 画像合成方法及び装置 |
US5768439A (en) * | 1994-03-23 | 1998-06-16 | Hitachi Software Engineering Co., Ltd. | Image compounding method and device for connecting a plurality of adjacent images on a map without performing positional displacement at their connections boundaries |
US8073286B2 (en) * | 2006-08-09 | 2011-12-06 | DigitalOptics Corporation Europe Limited | Detection and correction of flash artifacts from airborne particulates |
US8199222B2 (en) * | 2007-03-05 | 2012-06-12 | DigitalOptics Corporation Europe Limited | Low-light video frame enhancement |
US7680342B2 (en) * | 2004-08-16 | 2010-03-16 | Fotonation Vision Limited | Indoor/outdoor classification in digital images |
US20060015494A1 (en) * | 2003-11-26 | 2006-01-19 | Keating Brett M | Use of image similarity in selecting a representative visual image for a group of visual images |
JP4340968B2 (ja) * | 2004-05-07 | 2009-10-07 | ソニー株式会社 | 画像処理装置および方法、記録媒体、並びにプログラム |
US20110102553A1 (en) * | 2007-02-28 | 2011-05-05 | Tessera Technologies Ireland Limited | Enhanced real-time face models from stereo imaging |
US8050519B2 (en) * | 2005-12-19 | 2011-11-01 | Olympus Corporation | Image combining apparatus |
IES20070229A2 (en) * | 2006-06-05 | 2007-10-03 | Fotonation Vision Ltd | Image acquisition method and apparatus |
JP2008310418A (ja) | 2007-06-12 | 2008-12-25 | Nikon Corp | 画像処理装置、画像処理プログラム及びそれらを搭載した電子カメラ |
US8218061B2 (en) * | 2008-09-04 | 2012-07-10 | Csr Technology Inc. | Apparatus, method, and manufacture for iterative auto-focus using depth-from-defocus |
US8542313B2 (en) * | 2010-01-27 | 2013-09-24 | Csr Technology Inc. | Depth from defocus calibration |
JP2012123296A (ja) * | 2010-12-10 | 2012-06-28 | Sanyo Electric Co Ltd | 電子機器 |
JP6214183B2 (ja) | 2012-05-11 | 2017-10-18 | キヤノン株式会社 | 距離計測装置、撮像装置、距離計測方法、およびプログラム |
JP5932476B2 (ja) | 2012-05-17 | 2016-06-08 | キヤノン株式会社 | 画像処理装置、撮像装置、距離計測方法および距離計測プログラム |
US8866927B2 (en) * | 2012-12-13 | 2014-10-21 | Google Inc. | Determining an image capture payload burst structure based on a metering image capture sweep |
JP6245885B2 (ja) | 2013-08-02 | 2017-12-13 | キヤノン株式会社 | 撮像装置およびその制御方法 |
JP2015035658A (ja) | 2013-08-07 | 2015-02-19 | キヤノン株式会社 | 画像処理装置、画像処理方法、および撮像装置 |
JP6351238B2 (ja) | 2013-11-15 | 2018-07-04 | キヤノン株式会社 | 画像処理装置、撮像装置および距離補正方法 |
-
2013
- 2013-08-12 JP JP2013167531A patent/JP2015036841A/ja active Pending
-
2014
- 2014-08-07 US US14/453,888 patent/US9413952B2/en not_active Expired - Fee Related
-
2016
- 2016-07-05 US US15/201,831 patent/US9811909B2/en not_active Expired - Fee Related
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US10516820B2 (en) | 2017-07-18 | 2019-12-24 | Samsung Electronics Co., Ltd. | Electronic device for controlling focus of lens and method for controlling the same |
Also Published As
Publication number | Publication date |
---|---|
US9811909B2 (en) | 2017-11-07 |
US20150042840A1 (en) | 2015-02-12 |
US20160314591A1 (en) | 2016-10-27 |
US9413952B2 (en) | 2016-08-09 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN109565551B (zh) | 对齐于参考帧合成图像 | |
KR101803712B1 (ko) | 화상처리장치, 제어 방법, 프로그램 및 기록 매체 | |
US9811909B2 (en) | Image processing apparatus, distance measuring apparatus, imaging apparatus, and image processing method | |
JP5173665B2 (ja) | 画像撮影装置およびその距離演算方法と合焦画像取得方法 | |
US9313419B2 (en) | Image processing apparatus and image pickup apparatus where image processing is applied using an acquired depth map | |
JP6347675B2 (ja) | 画像処理装置、撮像装置、画像処理方法、撮像方法及びプログラム | |
JP6157242B2 (ja) | 画像処理装置及び画像処理方法 | |
JP2015148532A (ja) | 距離計測装置、撮像装置、距離計測方法、およびプログラム | |
JP2015036632A (ja) | 距離計測装置、撮像装置、距離計測方法 | |
JP2015073185A (ja) | 画像処理装置、画像処理方法およびプログラム | |
JP2017175364A (ja) | 画像処理装置、撮像装置および画像処理装置の制御方法 | |
JP6494402B2 (ja) | 画像処理装置、撮像装置、画像処理方法、プログラム | |
US20170069104A1 (en) | Image processing apparatus and image processing method | |
JP6153318B2 (ja) | 画像処理装置、画像処理方法、画像処理プログラム、および、記憶媒体 | |
JP2008199658A (ja) | 画像処理装置及びその画像処理方法 | |
JP2019101997A (ja) | 複数の撮像画像を合成することによりノイズを低減する画像処理装置及び画像処理方法 | |
JP6452414B2 (ja) | 画像処理装置、撮像装置、画像処理方法およびプログラム | |
JP2020009099A (ja) | 画像処理装置、画像処理方法、及びプログラム | |
JP6320165B2 (ja) | 画像処理装置及びその制御方法、並びにプログラム | |
JP2011182084A (ja) | 画像処理装置および画像処理プログラム | |
JP2018074362A (ja) | 画像処理装置、画像処理方法およびプログラム | |
JP2021044700A (ja) | 画像処理装置、画像処理方法、撮像装置およびプログラム | |
CN114009005A (zh) | 红外图像处理方法、电子设备及计算机可读存储介质 | |
JP2016062447A (ja) | 画像処理装置、画像処理方法、および画像処理プログラム | |
JP7200002B2 (ja) | 画像処理装置、撮像装置、画像処理方法、プログラム、および記憶媒体 |