JP2012060309A - Imaging apparatus, imaging method, and program - Google Patents
Imaging apparatus, imaging method, and program Download PDFInfo
- Publication number
- JP2012060309A JP2012060309A JP2010200020A JP2010200020A JP2012060309A JP 2012060309 A JP2012060309 A JP 2012060309A JP 2010200020 A JP2010200020 A JP 2010200020A JP 2010200020 A JP2010200020 A JP 2010200020A JP 2012060309 A JP2012060309 A JP 2012060309A
- Authority
- JP
- Japan
- Prior art keywords
- image
- images
- holding
- unit
- correction information
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
Images
Landscapes
- Television Signal Processing For Recording (AREA)
- Studio Devices (AREA)
- Stereoscopic And Panoramic Photography (AREA)
- Studio Circuits (AREA)
Abstract
Description
本発明は、例えばパノラマ撮影機能を有する撮像装置、撮像方法及びプログラムに関する。 The present invention relates to an imaging device having a panorama shooting function, an imaging method, and a program, for example.
電子カメラでパノラマ撮影時に接合する画像の位置関係がわかるように各画像のデータファイルを生成することを目的とした技術が考えられている。(例えば、特許文献1)
当該特許文献に記載された技術では、撮影モード時に、主画像データと、主画像データよりデータサイズが小さい副画像データとを画像データファイルに記録する。パノラマ撮影時の副画像は、当該コマに対応するサムネイル画像と前コマに対応する副画像とする。並べる方向は、前コマからの移動方向とする。電子カメラは再生モード時に、副画像表示するコマの画像データファイルにパノラマ画像を示す情報が含まれているとき、副画像を構成する複数のサムネイル画像をLCDモニタに表示するとともに、当該コマに対応するサムネイル画像を太い枠で囲むように表示させる。
A technique for generating a data file of each image so that the positional relationship of images to be joined at the time of panoramic photographing with an electronic camera can be considered. (For example, Patent Document 1)
In the technique described in the patent document, main image data and sub-image data having a data size smaller than that of the main image data are recorded in the image data file in the shooting mode. The sub image at the time of panorama shooting is a thumbnail image corresponding to the frame and a sub image corresponding to the previous frame. The direction to arrange is the moving direction from the previous frame. In playback mode, when the image data file of a frame for displaying a sub image contains information indicating a panoramic image, the electronic camera displays a plurality of thumbnail images constituting the sub image on the LCD monitor and supports the corresponding frame The thumbnail image to be displayed is displayed so as to be surrounded by a thick frame.
上記特許文献に記載された技術も含めて、パノラマ画像を複数の画像からパノラマ画像を生成するのに際して、通常、ユーザによるパン動作は、撮像素子を中心位置とした正確な旋回動作による撮影を行なうことは困難である。そのため、取得される隣接する画像では、旋回方向と直交する方向の画角が旋回角度毎に異なるような微小な歪みを生じている。したがって、時間的に連続するタイミングで撮影された複数の画像中の重複する被写体領域でも、正確には旋回方向と直交する方向の画角が異なるので、重複領域をそのままの画像サイズで合成することはできず、少なくとも一方に画像サイズを合わせて補間処理を行なう必要が生じる。 In general, when a panoramic image is generated from a plurality of images including the technique described in the above-mentioned patent document, the pan operation by the user is performed by an accurate turning operation with the image sensor as the center position. It is difficult. For this reason, in the acquired adjacent images, minute distortion is generated such that the angle of view in the direction orthogonal to the turning direction differs for each turning angle. Therefore, even in overlapping subject areas in a plurality of images taken at temporally consecutive timings, the angle of view in the direction orthogonal to the turning direction is different, so the overlapping areas are synthesized with the same image size. Therefore, it is necessary to perform an interpolation process by matching the image size to at least one of them.
一般に部分的に重複した複数の隣接画像から1枚のパノラマ画像を生成する場合、画像サイズは撮影時のものに比してリサイズ処理でより小さいものに変換するのが通常である。そして、パノラマ画像を生成した後は、パノラマ画像を生成するために使用した個々の画像データは消去するか、あるいは上記特許文献のようにサムネイル画像として大幅に画像サイズをダウンさせたものとして記録させる。 In general, when a single panoramic image is generated from a plurality of adjacent images partially overlapped, the image size is usually converted to a smaller size by resizing processing than that at the time of shooting. After the panorama image is generated, the individual image data used to generate the panorama image is deleted or recorded as a thumbnail image with the image size greatly reduced as in the above patent document. .
以上のようにパノラマ画像撮影においては、撮影時に取得した個々の画像データが精細なものであっても、パノラマ画像生成後に元の各画像データが精細なままに記録されることはない。 As described above, in panoramic image shooting, even if the individual image data acquired at the time of shooting is fine, the original image data is not recorded in high definition after the panoramic image is generated.
本発明は上記のような実情に鑑みてなされたもので、その目的とするところは、複数の隣接した画像を取り纏めて一枚の画像を生成するために取得した、被写体が一部重複している複数の精細な画像データを後に有効活用可能な状態で記録する撮像装置、撮像方法及びプログラムを提供することにある。 The present invention has been made in view of the above-described circumstances, and the object of the present invention is to overlap a plurality of adjacent images and obtain a single image by partially overlapping the subject. Another object of the present invention is to provide an imaging apparatus, an imaging method, and a program for recording a plurality of fine image data in a state that can be effectively used later.
請求項1記載の発明は、被写体の少なくとも一部が重複する隣接した複数の画像を撮影する撮影手段と、上記撮影手段によって撮影された複数の画像を保持する保持手段と、上記保持手段によって保持される複数の画像間の被写体の重複部分を検出する検出手段と、上記検出手段による検出結果に基づいて上記複数の各画像毎に位置補正情報を算出する算出手段と、上記検出手段による検出結果、及び、上記算出手段によって算出された位置補正情報に基づいて上記保持手段で保持される複数の画像を合成する画像合成手段と、上記画像合成手段によって合成された合成画像、上記保持手段によって保持されている複数の画像、及び、上記算出手段によって複数の各画像毎に算出された位置補正情報を関連付けて記録する記録手段とを具備したことを特徴とする。 According to a first aspect of the present invention, there is provided photographing means for photographing a plurality of adjacent images in which at least a part of a subject overlaps, holding means for holding a plurality of images taken by the photographing means, and holding by the holding means. Detection means for detecting overlapping portions of the subject between the plurality of images, calculation means for calculating position correction information for each of the plurality of images based on the detection results by the detection means, and detection results by the detection means And an image compositing means for compositing a plurality of images held by the holding means based on the position correction information calculated by the calculating means, a composite image synthesized by the image synthesizing means, and held by the holding means And a recording unit that records the position correction information calculated for each of the plurality of images by the calculation unit in association with each other. It is characterized in.
請求項2記載の発明は、上記請求項1記載の発明において、上記算出手段は、上記保持手段によって保持される複数の画像間で撮影順で先頭に位置する画像を基準とし、それ以外の各画像毎に上記基準となる画像に対する位置補正情報を算出することを特徴とする。 According to a second aspect of the present invention, in the first aspect of the invention, the calculation means is based on an image positioned at the head in the shooting order among a plurality of images held by the holding means, and other than that, The position correction information for the reference image is calculated for each image.
請求項3記載の発明は、撮影部で撮影した、被写体の少なくとも一部が重複する隣接した複数の画像を保持する保持ステップと、上記保持ステップにて保持される複数の画像間の被写体の重複部分を検出する検出ステップと、上記検出ステップでの検出結果に基づいて上記複数の各画像毎の位置補正情報を算出する算出ステップと、上記検出ステップでの検出結果、及び、上記算出ステップにて算出された位置補正情報に基づいて上記保持ステップにて保持された複数の画像から一枚の画像を合成する画像合成ステップと、上記画像合成ステップにて合成された合成画像、上記保持ステップにて保持された複数の画像、及び、上記算出ステップにて上記複数の各画像毎に算出された位置補正情報を関連付けて記録媒体に記録させる記録ステップとを含むことを特徴とする。 According to a third aspect of the present invention, there is a holding step for holding a plurality of adjacent images in which at least a part of a subject is photographed by the photographing unit, and a subject overlap between the plurality of images held in the holding step. A detection step for detecting a part, a calculation step for calculating position correction information for each of the plurality of images based on a detection result in the detection step, a detection result in the detection step, and a calculation step Based on the calculated position correction information, an image combining step for combining one image from a plurality of images held in the holding step, a combined image synthesized in the image combining step, and in the holding step A recording step in which a plurality of held images and the position correction information calculated for each of the plurality of images in the calculation step are associated with each other and recorded on a recording medium. Characterized in that it comprises and.
請求項4記載の発明は、撮像装置が内蔵するコンピュータが実行するプログラムであって、上記コンピュータを、被写体の少なくとも一部が重複する隣接した複数の画像を撮影する撮影手段、上記撮影手段によって撮影された複数の画像を保持する保持手段、上記保持手段によって保持される複数の画像間の被写体の重複部分を検出する検出手段、上記検出手段による検出結果に基づいて上記複数の各画像毎に位置補正情報を算出する算出手段、上記検出手段による検出結果、及び、上記算出手段によって算出された位置補正情報に基づいて上記保持手段で保持される複数の画像を合成する画像合成手段、及び上記画像合成手段によって合成された合成画像、上記保持手段によって保持されている複数の画像、及び、上記算出手段によって複数の各画像毎に算出された位置補正情報を関連付けて記録する記録手段として機能させることを特徴とする。 According to a fourth aspect of the present invention, there is provided a program executed by a computer incorporated in an imaging apparatus, wherein the computer is photographed by photographing means for photographing a plurality of adjacent images in which at least a part of a subject overlaps, and the photographing means. A holding unit that holds the plurality of images, a detection unit that detects an overlapping portion of the subject between the plurality of images held by the holding unit, and a position for each of the plurality of images based on a detection result by the detection unit Calculation means for calculating correction information, detection result by the detection means, and image composition means for combining a plurality of images held by the holding means based on the position correction information calculated by the calculation means, and the image A composite image synthesized by the synthesis means, a plurality of images held by the holding means, and a composite image by the calculation means. Characterized in that to function as a recording means for recording in association with position correction information calculated for each image.
本発明によれば、複数の隣接した画像を取り纏めて一枚の画像を生成するために取得した、被写体が一部重複している複数の精細な画像データを後に有効活用可能な状態で記録することができる。 According to the present invention, a plurality of fine image data obtained by collecting a plurality of adjacent images and generating a single image are recorded in a state where they can be effectively used later. be able to.
以下本発明をパノラマ撮影機能を有するデジタルカメラに適用した場合の一実施形態について図面を参照して説明する。 An embodiment in which the present invention is applied to a digital camera having a panoramic shooting function will be described below with reference to the drawings.
図1は、本実施形態に係るデジタルカメラ10の回路構成を示すものである。同図では、カメラ筐体の前面に配設される光学レンズユニット11を介して、例えばCCD(Charge Coupled Device:電荷結合素子)やCMOSイメージセンサ等で構成される固体撮像素子(IS)12の撮像面上に被写体の光像を入射して結像させる。 FIG. 1 shows a circuit configuration of a digital camera 10 according to the present embodiment. In the figure, a solid-state imaging device (IS) 12 composed of, for example, a CCD (Charge Coupled Device), a CMOS image sensor, or the like is passed through an optical lens unit 11 disposed on the front surface of the camera housing. An optical image of a subject is incident on the imaging surface to form an image.
スルー画像表示、あるいはライブビュー画像表示とも称されるモニタ状態では、この固体撮像素子12での撮像により得た画像信号をAGC・A/D変換部13に送り、相関二乗サンプリングや自動ゲイン調整、A/D変換処理を実行してデジタル化する。このデジタル値の画像データはシステムバスSBを介してバッファメモリであるDRAM14に保持される。
In a monitor state, also referred to as through image display or live view image display, an image signal obtained by imaging with the solid-state imaging device 12 is sent to the AGC / A / D conversion unit 13 to perform correlation square sampling, automatic gain adjustment, A / D conversion processing is executed and digitized. The digital image data is held in the
このDRAM14に保持された画像データに対して、画像処理部15が適宜必要な画像処理を施す。画像処理部15は、デモザイク部15a、特徴量演算部15b、ブロックマッチング部15c、及び画像変形合成加算部15dを備える。また、画像処理部15には、SRAM16が接続される。
The
画像処理部15では、固体撮像素子12に備えられるベイヤー配列のカラーフィルタの構成に応じた画像データ(以下「ベイヤーデータ」と称する)に対してマトリックス演算、画素補間処理、ガンマ補正処理等をデモザイク処理することで、RAW(生)データであるベイヤーデータに現像を施して輝度色差系(YUV)の画像データに変換する。
The
画像処理部15は、その画像データから表示用に画素数及び階調ビットを大幅に減じた画像データを作成して表示部17へ送り、スルー画像として表示させる。
The
また、上記光学レンズユニット11と同じくカメラ筐体前面には、一対のマイクロホン18L,18Rが配設され、被写体方向の音声がステレオで入力される。マイクロホン18L,18Rはそれぞれ入力した音声を電気信号化し、音声処理部19へ出力する。
Similarly to the optical lens unit 11, a pair of
音声処理部19は、音声単体での録音時、音声付き静止画像撮影時、及び動画像の撮影時にマイクロホン18L,18Rから入力する音声信号をデジタルデータ化する。さらに音声処理部19は、デジタル化した音声データの音圧レベルを検出する一方で、該音声データを所定のデータファイル形式、例えばAAC(moving picture experts group−4 Advanced Audio Coding)形式でデータ圧縮して音声データファイルを作成し、後述する記録媒体へ送出する。
The
加えて音声処理部19は、PCM音源等の音源回路を備え、音声の再生時に送られてくる音声データファイルの圧縮を解いてアナログ化し、このデジタルカメラ10の筐体背面側に設けられるスピーカ20を駆動して、拡声放音させる。
In addition, the
以上の回路をCPU21が統括制御する。このCPU21は、メインメモリ22、プログラムメモリ23と直接接続される。メインメモリ22は、例えばSRAMで構成され、ワークメモリとして機能する。プログラムメモリ23は、例えばフラッシュメモリなどの電気的に書換可能な不揮発性メモリで構成され、後述するパノラマ画像の生成の制御を含む動作プログラムやデータ等を固定的に記憶する。
The
CPU21はプログラムメモリ23から必要なプログラムやデータ等を読出し、メインメモリ22に適宜一時的に展開記憶させながら、このデジタルカメラ10全体の制御動作を実行する。
The
さらに上記CPU21は、操作部24から直接入力される各種キー操作信号に対応して制御動作を実行する。操作部24は、例えば電源キー、シャッタレリーズキー、ズームアップ/ダウンキー、撮影モードキー、再生モードキー、メニューキー、カーソル(「↑」「→」「↓」「←」)キー、セットキー、解除キー、ディスプレイキー等を備える。
Further, the
CPU21は、システムバスSBを介して上記AGC・A/D変換部13、DRAM14、画像処理部15、表示部17、及び音声処理部19の他、さらにレンズ駆動部25、フラッシュ駆動部26、イメージセンサ(IS)駆動部27、及びメモリカードコントローラ28と接続される。
In addition to the AGC / A / D conversion unit 13,
レンズ駆動部25は、CPU21からの制御信号を受けてレンズ用DCモータ(M)29の回転を制御し、上記光学レンズユニット11を構成する複数のレンズ群中の一部、具体的にはズームレンズ及びフォーカスレンズの位置をそれぞれ個別に光軸方向に沿って移動させる。
The lens driving unit 25 controls the rotation of the lens DC motor (M) 29 in response to a control signal from the
フラッシュ駆動部26は、静止画像撮影時にCPU21からの制御信号を受けて複数の白色高輝度LEDで構成されるフラッシュ部30を撮影タイミングに同期して点灯駆動する。
The
イメージセンサ駆動部27は、その時点で設定されている撮影条件等に応じて上記固体撮像素子12の走査駆動を行なう。
The image
上記画像処理部15は、上記操作部24のシャッタレリーズキー操作に伴う画像撮影時に、AGC・A/D変換部13から送られてきてDRAM14に保持される画像データをデモザイク処理し、さらに所定のデータファイル形式、例えばJPEG(Joint Photographic Experts Group)であればDCT(離散コサイン変換)やハフマン符号化等のデータ圧縮処理を施してデータ量を大幅に削減した画像データファイルを作成する。作成した画像データファイルはシステムバスSB、メモリカードコントローラ26を介してメモリカード31に記録される。
The
また画像処理部15は、再生モード時にメモリカード31からメモリカードコントローラ28を介して読出されてくる画像データをシステムバスSBを介して受取り、DRAM14に保持させた上で、このDRAM14に保持させた画像データを記録時とは逆の手順で圧縮を解く伸長処理により元のサイズの画像データを得、これをシステムバスSBを介して表示部17に出力して表示させる。
メモリカードコントローラ28は、カードコネクタ32を介してメモリカード31と接続される。メモリカード31は、このデジタルカメラ10に着脱自在に装着され、このデジタルカメラ10の記録媒体となる画像データ等の記録用メモリであり、内部にはブロック単位で電気的に書換え可能な不揮発性メモリであるフラッシュメモリと、その駆動回路とが設けられる。
Further, the
The
次に上記実施形態の動作について説明する。
なお、以下に示す動作は、パノラマ画像の撮影モード下でデジタルカメラ10をパン(旋回)させながらシャッタレリーズキーを任意時間だけ押圧操作して、時間的に連続した複数の静止画像の撮影を行なう際、CPU21がプログラムメモリ23に記憶されている動作プログラムやデータを読出してメインメモリ22に展開して記憶させた上で実行するものである。
Next, the operation of the above embodiment will be described.
In the following operation, the digital camera 10 is panned (turned) in the panoramic image shooting mode, and the shutter release key is pressed for an arbitrary time to shoot a plurality of still images that are temporally continuous. At this time, the
プログラムメモリ23に記憶されている動作プログラム等は、このデジタルカメラ10の製造工場出荷時にプログラムメモリ23に記憶されていたものに加え、例えばこのデジタルカメラ10のバージョンアップに際して、デジタルカメラ10をパーソナルコンピュータと接続することにより外部から新たな動作プログラム、データ等をダウンロードして記憶するものも含む。 For example, when the digital camera 10 is upgraded, the operation program stored in the program memory 23 is stored in the program memory 23 when the digital camera 10 is shipped from the factory. To download and store new operation programs, data, and the like from the outside by connecting to.
図2及び図3は、パノラマ画像の撮影とその後の合成処理に係る一連の処理内容を示すものである。その処理当初には、CPU21がメインメモリ22に保持する、撮影画像枚数をカウントする変数nの値を初期化して「1」とする(ステップS101)。
2 and 3 show a series of processing contents related to panoramic image shooting and subsequent synthesis processing. Initially, the
その後、CPU21は操作部24のシャッタレリーズキーが操作されたか否かを判断する(ステップS102)。ここでシャッタレリーズキーが操作されていないと判断すると、次いでCPU21は操作部24の解除キーが操作されたか否かを判断する(ステップS103)。ここで解除キーも操作されていないと判断すると、再び上記ステップS102からの処理に戻る。
Thereafter, the
こうしてステップS102,S103の処理を繰返し実行することで、CPU21は操作部24のシャッタレリーズキーか、解除キーのいずれかが操作されるのを待機する。
しかして解除キーが操作された場合、CPU21はそれを上記ステップS103で判断し、以上でこの図2及び図3のパノラマ画像の撮影とその後の合成処理に係る一連の処理内容を終了し、通常の静止画像の撮影に戻る。
By repeatedly executing the processes of steps S102 and S103 in this way, the
If the release key is operated, the
また、シャッタレリーズキーが操作されたと判断した場合、CPU21は直ちに静止画像の撮影を実行した上で(ステップS104)、撮影画像枚数をカウントする上記変数nの値を「+1」更新設定する(ステップS105)。撮影により得られたベイヤーデータはDRAM14に保持される。
If it is determined that the shutter release key has been operated, the
次にCPU21は、更新設定した変数nの値が、このデジタルカメラ10に予め設定されている連写可能な最大枚数を超えていないことを確認した上で(ステップS106)、まだシャッタレリーズキーが操作され続けているか否かを判断する(ステップS107)。
Next, the
ここで、まだシャッタレリーズキーが操作されていると判断すると、再び上記ステップS104からの処理に戻って、シャッタレリーズキーの操作通りに、時間的に連続したさらなる静止画像の撮影を続行する。この撮影により得られるベイヤーデータも順次DRAM14に保持して蓄積していく。
Here, if it is determined that the shutter release key is still being operated, the process returns to the processing from step S104 again, and further still images that are temporally continuous are continued in accordance with the operation of the shutter release key. The Bayer data obtained by this photographing is also sequentially held and accumulated in the
こうしてシャッタレリーズキーが操作されている間、ステップS104〜S107の処理を繰返し実行し、上記連写可能な最大枚数を超えるまで撮影と画像データの保持とを続行する。 While the shutter release key is being operated in this way, the processing of steps S104 to S107 is repeatedly executed, and the photographing and holding of the image data are continued until the maximum number of continuous shots is exceeded.
シャッタレリーズキーの押圧操作は続いているが、更新設定した変数nが連写可能な最大枚数を超えた場合、あるいはシャッタレリーズキーの押圧操作が停止された場合、CPU21は上記ステップS106またはS107でそれを判断し、撮影動作を停止するとともに、それまでに蓄積したベイヤーデータに基づいて画像合成を行なう処理に移行する。
Although the shutter release key pressing operation continues, if the updated variable n exceeds the maximum number of images that can be continuously shot, or if the shutter release key pressing operation is stopped, the
まず1枚目のベイヤーデータを位置合わせの基準とするべく、画像処理部15のデモザイク部15aによりデモザイクする(ステップS108)。ここでデモザイク処理とは、上述した如く固体撮像素子12から得たベイヤーデータに現像を施して輝度色差系(YUV)の画像データに変換することとする。
この際、位置合わせの精度にもよるが、画像サイズを縮小した画像データに変換するものとしても良い。
First, the demosaic unit 15a of the
At this time, the image data may be converted into image data with a reduced image size, depending on the alignment accuracy.
次に、CPU21がメインメモリ22に保持する、処理画像枚数をカウントする変数mの値を初期化して「2」とする(ステップS109)。なお、本処理では時間的に先頭に位置する「1」枚目の画像データを基準とするため、「1」枚目の画像データに関しては以下の補正処理を行なわず、したがって上記ステップS109での処理により最初の位置補正処理を行なう画像データを選択するべく初期値「2」を設定するものである。
Next, the value of the variable m for counting the number of processed images held in the
変数mの値「2」が、連続して撮影した画像の数n以下であることを確認した上で(ステップS110)、「2」枚目のベイヤーデータをデモザイク部15aにより上記ステップS108と同様にデモザイク処理する(ステップS111)。 After confirming that the value “2” of the variable m is equal to or less than the number n of continuously captured images (step S110), the Bayer data of the “2” th image is obtained by the demosaic unit 15a in the same manner as in step S108. The demosaic process is performed (step S111).
このデモザイクした「2」枚目の画像データを、その直前の「1」枚目の画像データに位置合わせするべく、ブロックマッチング部15cと特徴量演算部15bにより補正係数を算出する(ステップS112)。
A correction coefficient is calculated by the
ここで位置合わせのための補正係数を算出する方法としては、例えば特徴量演算部15bが画像エッジ上の特徴点を抽出し、2つの対象画像どうしで最多の特徴点が一致する補正変換行列を求める手法などがある。補正変換行列には、例えば次式で示すような変換行列が用いられる。すなわち、
図4及び図5により上記位置合わせのための補正変換処理を説明する。
図4(A)は、撮影対象となる被写体としての「都市部の夜景」を例示している。
The correction conversion process for the alignment will be described with reference to FIGS.
FIG. 4A illustrates “a night view of an urban area” as a subject to be photographed.
このような被写体を図4(B)〜図4(D)に示すようにデジタルカメラ10を左から右へ横方向にパンしながら撮影を行なったものとする。 Assume that such a subject is photographed while panning the digital camera 10 from left to right in the horizontal direction as shown in FIGS. 4 (B) to 4 (D).
ここでは、説明を簡易にするべく、図5(A)に示すようにパン動作中に2回の撮影がなされたものとする。1回目の撮影で得た画像データFL1と2回目の撮影で得た画像データFL2は共有領域C1を含んでいる。 Here, in order to simplify the explanation, it is assumed that shooting is performed twice during the pan operation as shown in FIG. The image data FL1 obtained by the first shooting and the image data FL2 obtained by the second shooting include the shared area C1.
図5(B)に示すように1回目の撮影で得た画像データFL1は、上述した如く基準画像となるので、パン動作による移動量が「0(ゼロ)」であるとして無条件に単位行列M1が与えられる。 As shown in FIG. 5B, the image data FL1 obtained in the first shooting is a reference image as described above. Therefore, it is unconditionally assumed that the amount of movement by the pan operation is “0 (zero)”. M1 is given.
これに対して、図5(C)に示すように2回目の撮影で得た画像データFL2は、上述した如く基準画像である画像データFL1から水平方向にXだけ位置を移動した画像であるので、パン動作による当該水平移動量Xを用いた補正行列M2を用いる。 On the other hand, as shown in FIG. 5C, the image data FL2 obtained by the second shooting is an image whose position has been moved by X in the horizontal direction from the image data FL1, which is the reference image, as described above. The correction matrix M2 using the horizontal movement amount X by the pan operation is used.
ブロックマッチング部15cが上記共有部分C1のマッチング処理を実行し、上記特徴量演算部15bが上述したように画像エッジ上の特徴点を抽出し、2つの対象画像どうしで最多の特徴点が一致するように補正変換行列を求めることで、位置の移動量に応じた補正係数、具体的には上記補正行列M2における移動量Xが算出できる。
The
こうして補正係数を算出した上で、1つ前の変換行列に累積していくことで、各画像データを1枚目の画像データを基準として補正変換行列にしたがって変換することができる(ステップS113)。 By calculating the correction coefficient in this way and accumulating it in the previous conversion matrix, each image data can be converted according to the correction conversion matrix with the first image data as a reference (step S113). .
その後、変数mの値を「+1」更新設定した上で(ステップS114)、再び上記ステップS110からの処理に戻る。 Thereafter, after updating the value of the variable m by “+1” (step S114), the process returns to step S110 again.
こうしてステップS110〜S114の処理を順次繰返し実行することにより、上記補正変換行列は1枚目の画像データを基準とした累積結果を示すものとなる。 In this way, by sequentially repeating the processes of steps S110 to S114, the correction conversion matrix shows a cumulative result based on the first image data.
しかして、更新設定した変数mの値が連続して撮影した画像の数nを超えた時点で、連続して撮影したすべての画像データに対する累積補正変換行列の算出を終えたこととなり、上記ステップS110でそれを判断する。 Therefore, when the value of the updated variable m exceeds the number n of continuously captured images, the calculation of the cumulative correction conversion matrix for all the continuously captured image data has been completed. It is determined in S110.
次いで、取得した累積補正変換行列の平行移動成分から、合成画像の取り得る画像サイズを算出する(ステップS115)。算出した画像サイズに基づき、DRAM14上に合成画像領域を確保する(ステップS116)。 Next, an image size that can be taken by the composite image is calculated from the parallel movement component of the acquired cumulative correction conversion matrix (step S115). Based on the calculated image size, a composite image area is secured on the DRAM 14 (step S116).
次に、撮影画像と補正変換行列の保存と合成処理を行なう。
まず、CPU21がメインメモリ22に保持する、処理画像枚数をカウントする変数mの値を初期化して「1」とする(ステップS117)。次いで、変数mの値「1」が、連続して撮影した画像の数n以下であることを確認した上で(ステップS118)、「1」枚目のベイヤーデータを通常の撮影画像と同様にデモザイク部15aによりデモザイク処理する(ステップS119)。
Next, the captured image and the correction conversion matrix are stored and combined.
First, the
このデモザイクした「1」枚目の画像データを、例えばJPEGのフォーマットに基づいてデータファイル化した上で、この画像データに対応する上記位置の移動量を表す補正変換行列(ここではm=1であるので上記単位行列M1)をデータファイルのオプション情報領域に付加して、このデジタルカメラ10の記録媒体であるメモリカード31に記録させる(ステップS120)。
The demosaiced “1” image data is converted into a data file based on, for example, the JPEG format, and a correction conversion matrix (here, m = 1) representing the amount of movement of the position corresponding to the image data. Therefore, the unit matrix M1) is added to the option information area of the data file and recorded on the
上記データファイルのオプション情報領域は、例えばJFIF(JPEG File Interchange Format)やExif(Exchangeable image file format)で規定される情報領域を想定している。 The option information area of the data file is assumed to be an information area defined by, for example, JFIF (JPEG File Interchange Format) or Exif (Exchangeable image file format).
その後、この「1」番目の画像データを累積補正変換行列M1で変換した上で、変換後の画像データを画像変形合成加算部15dにより上記ステップS116の処理でDRAM14に確保した合成画像領域の該当する画素位置範囲に順次書込む(ステップS121)。
Thereafter, the “1” -th image data is converted by the cumulative correction conversion matrix M1, and the converted image data is matched with the combined image area secured in the
その後、変数mの値を「+1」更新設定した上で(ステップS122)、再び上記ステップS118からの処理に戻る。 Thereafter, after updating the value of the variable m by “+1” (step S122), the process returns to step S118 again.
こうしてステップS118〜S122の処理を順次画像データ数分だけ繰返し実行することにより、連続した個々の画像データを順次基準画像に対する位置の移動量を示す補正変換行列の情報を付加してメモリカード31に記録していくとともに、DRAM14に確保した合成画像領域の該当する画素位置範囲に書込んでいく。
In this way, the processing of steps S118 to S122 is repeatedly executed in sequence for the number of image data, so that information of a correction conversion matrix indicating the amount of movement of the position of the continuous individual image data relative to the reference image is added to the
そして、最後の画像データに関する同様の処理を終えた後、さらにステップS122で変数mの値を「+1」更新設定すると、続くステップS118で変数mの値が、連続して撮影した画像の数nを超えており、すべての画像データに対する処理を終えたものと判断する。 Then, after the same processing relating to the last image data is finished, if the value of the variable m is further updated by “+1” in step S122, the value of the variable m is set to the number n of continuously captured images in step S118. It is determined that all the image data has been processed.
この時点で、DRAM14に確保した合成画像領域には、パノラマ画像の画像データが完成された状態で書込まれているため、この一枚の画像データを読出してデータファイル化し、このデジタルカメラ10の記録媒体であるメモリカード31に記録させる(ステップS123)。
以上でこの図2及び図3の一連の処理を終了する。
At this time, since the panoramic image data is written in the completed image area secured in the
The series of processes in FIGS. 2 and 3 is thus completed.
以上詳記した如く本実施形態によれば、パノラマ画像を生成するために取得した、被写体が一部重複している複数の精細な画像データを、当該パノラマ画像のデータとは別に、先頭画像を基準とした移動量を示す情報と共に記録するものとした。 As described above in detail, according to the present embodiment, a plurality of fine image data obtained by generating a panoramic image and partially overlapping a subject are separated from the panoramic image data by using the first image. It was recorded together with information indicating the reference movement amount.
これにより、合成処理によって解像度を落とさざるを得ないパノラマ画像で失われる情報を消失させることなく、後に有効活用することが可能な状態で元の画像データを自動的に記録することができる。 As a result, the original image data can be automatically recorded in a state where it can be effectively used later without losing information lost in the panoramic image whose resolution is inevitably lowered by the synthesis process.
加えて上記実施形態では、パノラマ画像のための撮影で得た複数の画像データ中、先頭に位置する画像データの位置を基準として、他の画像データは累積した移動量を示す補正変換行列の情報を付加して記録するものとしたので、各画像データの移動量を容易に算出でき、且つその移動量から基準の画像データに対する位置関係を把握することが容易となる。 In addition, in the above embodiment, the correction conversion matrix information indicating the amount of movement accumulated with respect to the position of the image data located at the head of the plurality of image data obtained by shooting for the panoramic image. Therefore, the movement amount of each image data can be easily calculated, and the positional relationship with respect to the reference image data can be easily grasped from the movement amount.
なお上記実施形態では、1回のパン動作により複数の時間的に連続した画像を撮影するパノラマ画像を撮影するデジタルカメラに適用した場合について説明したものであるが、パノラマ画像のような直線的な走査に応じた複数の画像のみならず、2次元的な広がりを持つ被写体をジグザグ走査、あるいはラスタ走査しながらマトリックス状に複数の画像を撮影するような場合についても同様の処理で対応することが可能となる。 In the above embodiment, the case where the present invention is applied to a digital camera that captures a panoramic image that captures a plurality of temporally continuous images by one pan operation has been described. The same processing can be applied to not only a plurality of images according to scanning but also a case where a plurality of images are photographed in a matrix while zigzag scanning or raster scanning of a subject having a two-dimensional spread. It becomes possible.
また上記実施形態は、デジタルカメラに適用した場合について説明したものであるが、本発明はこれに限らず、カメラ機能を有する電子機器であれば、他にも携帯電話端末やPDA(Personal Digital Assistants:個人向け情報携帯端末)、携帯メディアプレーヤ、電子ブック、モバイルコンピュータなどの各種機器にも同様に適用可能となる。 The above embodiment has been described with respect to a case where the present invention is applied to a digital camera. However, the present invention is not limited to this, and any other electronic device having a camera function may be a mobile phone terminal or a PDA (Personal Digital Assistants). : Personal information portable terminal), portable media player, electronic book, mobile computer, and other devices.
その他、本発明は上述した実施形態に限定されるものではなく、実施段階ではその要旨を逸脱しない範囲で種々に変形することが可能である。また、上述した実施形態で実行される機能は可能な限り適宜組み合わせて実施しても良い。上述した実施形態には種々の段階が含まれており、開示される複数の構成要件による適宜の組み合せにより種々の発明が抽出され得る。例えば、実施形態に示される全構成要件からいくつかの構成要件が削除されても、効果が得られるのであれば、この構成要件が削除された構成が発明として抽出され得る。 In addition, the present invention is not limited to the above-described embodiments, and various modifications can be made without departing from the scope of the invention in the implementation stage. Further, the functions executed in the above-described embodiments may be combined as appropriate as possible. The above-described embodiment includes various stages, and various inventions can be extracted by an appropriate combination of a plurality of disclosed constituent elements. For example, even if some constituent requirements are deleted from all the constituent requirements shown in the embodiment, if the effect is obtained, a configuration from which the constituent requirements are deleted can be extracted as an invention.
10…デジタルカメラ、11…光学レンズユニット、12…固体撮像素子(IS)、13…AGC・A/D変換部、14…DRAM、15…画像処理部、15a…デモザイク部、15b…特徴量演算部、15c…ブロックマッチング部、15d…画像変形合成加算部、16…SRAM、17…表示部、18L,18R…マイクロホン、19…音声処理部、20…スピーカ、21…CPU、22…メインメモリ、23…プログラムメモリ、24…操作部、25…レンズ駆動部、26…フラッシュ駆動部、27…イメージセンサ(IS)駆動部、28…メモリカードコントローラ、29…レンズ用DCモータ(M)、30…フラッシュ部、31…メモリカード、32…カードコネクタ、SB…システムバス。 DESCRIPTION OF SYMBOLS 10 ... Digital camera, 11 ... Optical lens unit, 12 ... Solid-state image sensor (IS), 13 ... AGC / A / D conversion part, 14 ... DRAM, 15 ... Image processing part, 15a ... Demosaic part, 15b ... Feature amount calculation , 15c: Block matching unit, 15d: Image deformation / synthesis adding unit, 16: SRAM, 17: Display unit, 18L, 18R ... Microphone, 19 ... Audio processing unit, 20 ... Speaker, 21 ... CPU, 22 ... Main memory, DESCRIPTION OF SYMBOLS 23 ... Program memory, 24 ... Operation part, 25 ... Lens drive part, 26 ... Flash drive part, 27 ... Image sensor (IS) drive part, 28 ... Memory card controller, 29 ... DC motor (M) for lenses, 30 ... Flash unit, 31 ... memory card, 32 ... card connector, SB ... system bus.
Claims (4)
上記撮影手段によって撮影された複数の画像を保持する保持手段と、
上記保持手段によって保持される複数の画像間の被写体の重複部分を検出する検出手段と、
上記検出手段による検出結果に基づいて上記複数の各画像毎に位置補正情報を算出する算出手段と、
上記検出手段による検出結果、及び、上記算出手段によって算出された位置補正情報に基づいて上記保持手段で保持される複数の画像を合成する画像合成手段と、
上記画像合成手段によって合成された合成画像、上記保持手段によって保持されている複数の画像、及び、上記算出手段によって複数の各画像毎に算出された位置補正情報を関連付けて記録する記録手段と
を具備したことを特徴とする撮像装置。 Photographing means for photographing a plurality of adjacent images in which at least a part of the subject overlaps;
Holding means for holding a plurality of images photographed by the photographing means;
Detecting means for detecting an overlapping portion of a subject between a plurality of images held by the holding means;
Calculation means for calculating position correction information for each of the plurality of images based on a detection result by the detection means;
Image combining means for combining a plurality of images held by the holding means based on the detection result by the detecting means and the position correction information calculated by the calculating means;
A synthesized image synthesized by the image synthesizing unit, a plurality of images held by the holding unit, and a recording unit that records the position correction information calculated for each of the plurality of images by the calculating unit in association with each other. An imaging apparatus comprising the imaging device.
上記保持ステップにて保持される複数の画像間の被写体の重複部分を検出する検出ステップと、
上記検出ステップでの検出結果に基づいて上記複数の各画像毎の位置補正情報を算出する算出ステップと、
上記検出ステップでの検出結果、及び、上記算出ステップにて算出された位置補正情報に基づいて上記保持ステップにて保持された複数の画像から一枚の画像を合成する画像合成ステップと、
上記画像合成ステップにて合成された合成画像、上記保持ステップにて保持された複数の画像、及び、上記算出ステップにて上記複数の各画像毎に算出された位置補正情報を関連付けて記録媒体に記録させる記録ステップと
を含むことを特徴とする撮像方法。 A holding step for holding a plurality of adjacent images that are photographed by the photographing unit and at least a part of the subject overlap;
A detection step of detecting overlapping portions of the subject between the plurality of images held in the holding step;
A calculation step for calculating position correction information for each of the plurality of images based on a detection result in the detection step;
An image synthesis step for synthesizing one image from a plurality of images held in the holding step based on the detection result in the detection step and the position correction information calculated in the calculation step;
The composite image synthesized in the image synthesis step, the plurality of images held in the holding step, and the position correction information calculated for each of the plurality of images in the calculation step are associated with the recording medium. An imaging method comprising: a recording step for recording.
上記コンピュータを、
被写体の少なくとも一部が重複する隣接した複数の画像を撮影する撮影手段、
上記撮影手段によって撮影された複数の画像を保持する保持手段、
上記保持手段によって保持される複数の画像間の被写体の重複部分を検出する検出手段、
上記検出手段による検出結果に基づいて上記複数の各画像毎に位置補正情報を算出する算出手段、
上記検出手段による検出結果、及び、上記算出手段によって算出された位置補正情報に基づいて上記保持手段で保持される複数の画像を合成する画像合成手段、及び
上記画像合成手段によって合成された合成画像、上記保持手段によって保持されている複数の画像、及び、上記算出手段によって複数の各画像毎に算出された位置補正情報を関連付けて記録する記録手段
として機能させることを特徴とするプログラム。 A program executed by a computer built in the imaging apparatus,
The above computer
Photographing means for photographing a plurality of adjacent images in which at least a part of the subject overlaps;
Holding means for holding a plurality of images photographed by the photographing means;
Detecting means for detecting an overlapping portion of a subject between a plurality of images held by the holding means;
Calculation means for calculating position correction information for each of the plurality of images based on a detection result by the detection means;
Based on the detection result by the detection means and the position correction information calculated by the calculation means, an image synthesis means for synthesizing a plurality of images held by the holding means, and a synthesized image synthesized by the image synthesis means A program that functions as a recording unit that records a plurality of images held by the holding unit and position correction information calculated for each of the plurality of images by the calculation unit in association with each other.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2010200020A JP2012060309A (en) | 2010-09-07 | 2010-09-07 | Imaging apparatus, imaging method, and program |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2010200020A JP2012060309A (en) | 2010-09-07 | 2010-09-07 | Imaging apparatus, imaging method, and program |
Publications (1)
Publication Number | Publication Date |
---|---|
JP2012060309A true JP2012060309A (en) | 2012-03-22 |
Family
ID=46056896
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2010200020A Pending JP2012060309A (en) | 2010-09-07 | 2010-09-07 | Imaging apparatus, imaging method, and program |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP2012060309A (en) |
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR101781172B1 (en) * | 2016-07-28 | 2017-09-25 | 동국대학교 산학협력단 | Apparatus and method for matching images |
Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2000299804A (en) * | 1999-04-12 | 2000-10-24 | Casio Comput Co Ltd | Panoramic photographing method and image pickup device |
JP2005129994A (en) * | 2003-10-21 | 2005-05-19 | Konica Minolta Photo Imaging Inc | Digital camera |
JP2005252803A (en) * | 2004-03-05 | 2005-09-15 | Seiko Epson Corp | Apparatus, method, and program for image processing and recording medium with the program stored |
JP2009094726A (en) * | 2007-10-05 | 2009-04-30 | Fujifilm Corp | Image recording apparatus and image recording method |
-
2010
- 2010-09-07 JP JP2010200020A patent/JP2012060309A/en active Pending
Patent Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2000299804A (en) * | 1999-04-12 | 2000-10-24 | Casio Comput Co Ltd | Panoramic photographing method and image pickup device |
JP2005129994A (en) * | 2003-10-21 | 2005-05-19 | Konica Minolta Photo Imaging Inc | Digital camera |
JP2005252803A (en) * | 2004-03-05 | 2005-09-15 | Seiko Epson Corp | Apparatus, method, and program for image processing and recording medium with the program stored |
JP2009094726A (en) * | 2007-10-05 | 2009-04-30 | Fujifilm Corp | Image recording apparatus and image recording method |
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR101781172B1 (en) * | 2016-07-28 | 2017-09-25 | 동국대학교 산학협력단 | Apparatus and method for matching images |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP5126344B2 (en) | Imaging apparatus, imaging method, and program | |
JP4569389B2 (en) | Imaging apparatus, image processing method, and program | |
JP2009147730A (en) | Moving image generating apparatus, moving image shooting apparatus, moving image generating method, and program | |
JP5578442B2 (en) | Imaging apparatus, image composition method, and program | |
JP2010230879A (en) | Double eye camera device | |
JP2015053741A (en) | Image reproduction device | |
JP4760725B2 (en) | Image reproduction apparatus, image display method, and program | |
TWI230014B (en) | Image synthesis apparatus and image synthesis method | |
JP2003179798A (en) | Digital camera | |
JP2006319541A (en) | Imaging device, moving picture processing method, and program | |
JPH11196299A (en) | Image pickup device | |
JP2010283504A (en) | Imaging device, imaging method, and imaging program | |
JP2004312218A (en) | Digital camera and image reproducing apparatus | |
JP2012060309A (en) | Imaging apparatus, imaging method, and program | |
JPH11196317A (en) | Image pickup device | |
JP2005277618A (en) | Photography taking apparatus and device and method for correcting shading | |
JP5962974B2 (en) | Imaging apparatus, imaging method, and program | |
JP4256028B2 (en) | Compression encoding apparatus and method | |
JP2012151708A (en) | Imaging device | |
JP2011087203A (en) | Imaging apparatus | |
JP2000041170A (en) | Image pickup device and method | |
JPH11224324A (en) | Image signal processing method and device | |
JP2012109863A (en) | Imaging device and image processing method | |
JP5561044B2 (en) | Imaging apparatus, imaging method, and program | |
JP2006094200A (en) | Imaging apparatus, focusing display method, and program |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20130909 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20140410 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20140507 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20140704 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20140729 |
|
A02 | Decision of refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A02 Effective date: 20141202 |