Nothing Special   »   [go: up one dir, main page]

JP2012060309A - Imaging apparatus, imaging method, and program - Google Patents

Imaging apparatus, imaging method, and program Download PDF

Info

Publication number
JP2012060309A
JP2012060309A JP2010200020A JP2010200020A JP2012060309A JP 2012060309 A JP2012060309 A JP 2012060309A JP 2010200020 A JP2010200020 A JP 2010200020A JP 2010200020 A JP2010200020 A JP 2010200020A JP 2012060309 A JP2012060309 A JP 2012060309A
Authority
JP
Japan
Prior art keywords
image
images
holding
unit
correction information
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2010200020A
Other languages
Japanese (ja)
Inventor
Tetsuji Makino
哲司 牧野
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Casio Computer Co Ltd
Original Assignee
Casio Computer Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Casio Computer Co Ltd filed Critical Casio Computer Co Ltd
Priority to JP2010200020A priority Critical patent/JP2012060309A/en
Publication of JP2012060309A publication Critical patent/JP2012060309A/en
Pending legal-status Critical Current

Links

Images

Landscapes

  • Television Signal Processing For Recording (AREA)
  • Studio Devices (AREA)
  • Stereoscopic And Panoramic Photography (AREA)
  • Studio Circuits (AREA)

Abstract

PROBLEM TO BE SOLVED: To provide an imaging apparatus, an imaging method, and a program for effective utilization at a later time by recording a plurality of definition image data having a partially duplicating subject which is acquired for generating one unit of image through the collection of a plurality of adjacent images.SOLUTION: An imaging apparatus comprises: image systems 11-13 for shooting a plurality of adjacent images; a DRAM 14 for holding a plurality of shot images; a feature-amount calculation part 15b and a block-matching part 15c for detecting the duplication portion of the subject in the plurality of images held in the DRAM 14 to calculate a position correction information for each of the plurality of images according to the detection result; an image deformation/composition addition part 15d for generating one unit of image from the plurality of images held in the DRAM 14 according to the above detection result and the calculated position correction information; and a CPU 21 for allowing a memory card 31 to record the generated composite image, the plurality of images held in the DRAM 14, and the position correction information of each image in association.

Description

本発明は、例えばパノラマ撮影機能を有する撮像装置、撮像方法及びプログラムに関する。   The present invention relates to an imaging device having a panorama shooting function, an imaging method, and a program, for example.

電子カメラでパノラマ撮影時に接合する画像の位置関係がわかるように各画像のデータファイルを生成することを目的とした技術が考えられている。(例えば、特許文献1)
当該特許文献に記載された技術では、撮影モード時に、主画像データと、主画像データよりデータサイズが小さい副画像データとを画像データファイルに記録する。パノラマ撮影時の副画像は、当該コマに対応するサムネイル画像と前コマに対応する副画像とする。並べる方向は、前コマからの移動方向とする。電子カメラは再生モード時に、副画像表示するコマの画像データファイルにパノラマ画像を示す情報が含まれているとき、副画像を構成する複数のサムネイル画像をLCDモニタに表示するとともに、当該コマに対応するサムネイル画像を太い枠で囲むように表示させる。
A technique for generating a data file of each image so that the positional relationship of images to be joined at the time of panoramic photographing with an electronic camera can be considered. (For example, Patent Document 1)
In the technique described in the patent document, main image data and sub-image data having a data size smaller than that of the main image data are recorded in the image data file in the shooting mode. The sub image at the time of panorama shooting is a thumbnail image corresponding to the frame and a sub image corresponding to the previous frame. The direction to arrange is the moving direction from the previous frame. In playback mode, when the image data file of a frame for displaying a sub image contains information indicating a panoramic image, the electronic camera displays a plurality of thumbnail images constituting the sub image on the LCD monitor and supports the corresponding frame The thumbnail image to be displayed is displayed so as to be surrounded by a thick frame.

特開2004−007168号公報Japanese Patent Laid-Open No. 2004-007168

上記特許文献に記載された技術も含めて、パノラマ画像を複数の画像からパノラマ画像を生成するのに際して、通常、ユーザによるパン動作は、撮像素子を中心位置とした正確な旋回動作による撮影を行なうことは困難である。そのため、取得される隣接する画像では、旋回方向と直交する方向の画角が旋回角度毎に異なるような微小な歪みを生じている。したがって、時間的に連続するタイミングで撮影された複数の画像中の重複する被写体領域でも、正確には旋回方向と直交する方向の画角が異なるので、重複領域をそのままの画像サイズで合成することはできず、少なくとも一方に画像サイズを合わせて補間処理を行なう必要が生じる。   In general, when a panoramic image is generated from a plurality of images including the technique described in the above-mentioned patent document, the pan operation by the user is performed by an accurate turning operation with the image sensor as the center position. It is difficult. For this reason, in the acquired adjacent images, minute distortion is generated such that the angle of view in the direction orthogonal to the turning direction differs for each turning angle. Therefore, even in overlapping subject areas in a plurality of images taken at temporally consecutive timings, the angle of view in the direction orthogonal to the turning direction is different, so the overlapping areas are synthesized with the same image size. Therefore, it is necessary to perform an interpolation process by matching the image size to at least one of them.

一般に部分的に重複した複数の隣接画像から1枚のパノラマ画像を生成する場合、画像サイズは撮影時のものに比してリサイズ処理でより小さいものに変換するのが通常である。そして、パノラマ画像を生成した後は、パノラマ画像を生成するために使用した個々の画像データは消去するか、あるいは上記特許文献のようにサムネイル画像として大幅に画像サイズをダウンさせたものとして記録させる。   In general, when a single panoramic image is generated from a plurality of adjacent images partially overlapped, the image size is usually converted to a smaller size by resizing processing than that at the time of shooting. After the panorama image is generated, the individual image data used to generate the panorama image is deleted or recorded as a thumbnail image with the image size greatly reduced as in the above patent document. .

以上のようにパノラマ画像撮影においては、撮影時に取得した個々の画像データが精細なものであっても、パノラマ画像生成後に元の各画像データが精細なままに記録されることはない。   As described above, in panoramic image shooting, even if the individual image data acquired at the time of shooting is fine, the original image data is not recorded in high definition after the panoramic image is generated.

本発明は上記のような実情に鑑みてなされたもので、その目的とするところは、複数の隣接した画像を取り纏めて一枚の画像を生成するために取得した、被写体が一部重複している複数の精細な画像データを後に有効活用可能な状態で記録する撮像装置、撮像方法及びプログラムを提供することにある。   The present invention has been made in view of the above-described circumstances, and the object of the present invention is to overlap a plurality of adjacent images and obtain a single image by partially overlapping the subject. Another object of the present invention is to provide an imaging apparatus, an imaging method, and a program for recording a plurality of fine image data in a state that can be effectively used later.

請求項1記載の発明は、被写体の少なくとも一部が重複する隣接した複数の画像を撮影する撮影手段と、上記撮影手段によって撮影された複数の画像を保持する保持手段と、上記保持手段によって保持される複数の画像間の被写体の重複部分を検出する検出手段と、上記検出手段による検出結果に基づいて上記複数の各画像毎に位置補正情報を算出する算出手段と、上記検出手段による検出結果、及び、上記算出手段によって算出された位置補正情報に基づいて上記保持手段で保持される複数の画像を合成する画像合成手段と、上記画像合成手段によって合成された合成画像、上記保持手段によって保持されている複数の画像、及び、上記算出手段によって複数の各画像毎に算出された位置補正情報を関連付けて記録する記録手段とを具備したことを特徴とする。   According to a first aspect of the present invention, there is provided photographing means for photographing a plurality of adjacent images in which at least a part of a subject overlaps, holding means for holding a plurality of images taken by the photographing means, and holding by the holding means. Detection means for detecting overlapping portions of the subject between the plurality of images, calculation means for calculating position correction information for each of the plurality of images based on the detection results by the detection means, and detection results by the detection means And an image compositing means for compositing a plurality of images held by the holding means based on the position correction information calculated by the calculating means, a composite image synthesized by the image synthesizing means, and held by the holding means And a recording unit that records the position correction information calculated for each of the plurality of images by the calculation unit in association with each other. It is characterized in.

請求項2記載の発明は、上記請求項1記載の発明において、上記算出手段は、上記保持手段によって保持される複数の画像間で撮影順で先頭に位置する画像を基準とし、それ以外の各画像毎に上記基準となる画像に対する位置補正情報を算出することを特徴とする。   According to a second aspect of the present invention, in the first aspect of the invention, the calculation means is based on an image positioned at the head in the shooting order among a plurality of images held by the holding means, and other than that, The position correction information for the reference image is calculated for each image.

請求項3記載の発明は、撮影部で撮影した、被写体の少なくとも一部が重複する隣接した複数の画像を保持する保持ステップと、上記保持ステップにて保持される複数の画像間の被写体の重複部分を検出する検出ステップと、上記検出ステップでの検出結果に基づいて上記複数の各画像毎の位置補正情報を算出する算出ステップと、上記検出ステップでの検出結果、及び、上記算出ステップにて算出された位置補正情報に基づいて上記保持ステップにて保持された複数の画像から一枚の画像を合成する画像合成ステップと、上記画像合成ステップにて合成された合成画像、上記保持ステップにて保持された複数の画像、及び、上記算出ステップにて上記複数の各画像毎に算出された位置補正情報を関連付けて記録媒体に記録させる記録ステップとを含むことを特徴とする。   According to a third aspect of the present invention, there is a holding step for holding a plurality of adjacent images in which at least a part of a subject is photographed by the photographing unit, and a subject overlap between the plurality of images held in the holding step. A detection step for detecting a part, a calculation step for calculating position correction information for each of the plurality of images based on a detection result in the detection step, a detection result in the detection step, and a calculation step Based on the calculated position correction information, an image combining step for combining one image from a plurality of images held in the holding step, a combined image synthesized in the image combining step, and in the holding step A recording step in which a plurality of held images and the position correction information calculated for each of the plurality of images in the calculation step are associated with each other and recorded on a recording medium. Characterized in that it comprises and.

請求項4記載の発明は、撮像装置が内蔵するコンピュータが実行するプログラムであって、上記コンピュータを、被写体の少なくとも一部が重複する隣接した複数の画像を撮影する撮影手段、上記撮影手段によって撮影された複数の画像を保持する保持手段、上記保持手段によって保持される複数の画像間の被写体の重複部分を検出する検出手段、上記検出手段による検出結果に基づいて上記複数の各画像毎に位置補正情報を算出する算出手段、上記検出手段による検出結果、及び、上記算出手段によって算出された位置補正情報に基づいて上記保持手段で保持される複数の画像を合成する画像合成手段、及び上記画像合成手段によって合成された合成画像、上記保持手段によって保持されている複数の画像、及び、上記算出手段によって複数の各画像毎に算出された位置補正情報を関連付けて記録する記録手段として機能させることを特徴とする。   According to a fourth aspect of the present invention, there is provided a program executed by a computer incorporated in an imaging apparatus, wherein the computer is photographed by photographing means for photographing a plurality of adjacent images in which at least a part of a subject overlaps, and the photographing means. A holding unit that holds the plurality of images, a detection unit that detects an overlapping portion of the subject between the plurality of images held by the holding unit, and a position for each of the plurality of images based on a detection result by the detection unit Calculation means for calculating correction information, detection result by the detection means, and image composition means for combining a plurality of images held by the holding means based on the position correction information calculated by the calculation means, and the image A composite image synthesized by the synthesis means, a plurality of images held by the holding means, and a composite image by the calculation means. Characterized in that to function as a recording means for recording in association with position correction information calculated for each image.

本発明によれば、複数の隣接した画像を取り纏めて一枚の画像を生成するために取得した、被写体が一部重複している複数の精細な画像データを後に有効活用可能な状態で記録することができる。   According to the present invention, a plurality of fine image data obtained by collecting a plurality of adjacent images and generating a single image are recorded in a state where they can be effectively used later. be able to.

本発明の一実施形態に係るデジタルカメラの機能回路の概略構成を示すブロック図。1 is a block diagram showing a schematic configuration of a functional circuit of a digital camera according to an embodiment of the present invention. 同実施形態に係る画像の撮影から合成、記録に至る一連の処理内容を示すフローチャート。6 is a flowchart showing a series of processing contents from image capturing to composition and recording according to the embodiment. 同実施形態に係る画像の撮影から合成、記録に至る一連の処理内容を示すフローチャート。6 is a flowchart showing a series of processing contents from image capturing to composition and recording according to the embodiment. 同実施形態に係る位置合わせのための補正変換処理を説明する図。FIG. 6 is a view for explaining correction conversion processing for alignment according to the embodiment. 同実施形態に係る位置合わせのための補正変換処理を説明する図。FIG. 6 is a view for explaining correction conversion processing for alignment according to the embodiment.

以下本発明をパノラマ撮影機能を有するデジタルカメラに適用した場合の一実施形態について図面を参照して説明する。   An embodiment in which the present invention is applied to a digital camera having a panoramic shooting function will be described below with reference to the drawings.

図1は、本実施形態に係るデジタルカメラ10の回路構成を示すものである。同図では、カメラ筐体の前面に配設される光学レンズユニット11を介して、例えばCCD(Charge Coupled Device:電荷結合素子)やCMOSイメージセンサ等で構成される固体撮像素子(IS)12の撮像面上に被写体の光像を入射して結像させる。   FIG. 1 shows a circuit configuration of a digital camera 10 according to the present embodiment. In the figure, a solid-state imaging device (IS) 12 composed of, for example, a CCD (Charge Coupled Device), a CMOS image sensor, or the like is passed through an optical lens unit 11 disposed on the front surface of the camera housing. An optical image of a subject is incident on the imaging surface to form an image.

スルー画像表示、あるいはライブビュー画像表示とも称されるモニタ状態では、この固体撮像素子12での撮像により得た画像信号をAGC・A/D変換部13に送り、相関二乗サンプリングや自動ゲイン調整、A/D変換処理を実行してデジタル化する。このデジタル値の画像データはシステムバスSBを介してバッファメモリであるDRAM14に保持される。   In a monitor state, also referred to as through image display or live view image display, an image signal obtained by imaging with the solid-state imaging device 12 is sent to the AGC / A / D conversion unit 13 to perform correlation square sampling, automatic gain adjustment, A / D conversion processing is executed and digitized. The digital image data is held in the DRAM 14 which is a buffer memory via the system bus SB.

このDRAM14に保持された画像データに対して、画像処理部15が適宜必要な画像処理を施す。画像処理部15は、デモザイク部15a、特徴量演算部15b、ブロックマッチング部15c、及び画像変形合成加算部15dを備える。また、画像処理部15には、SRAM16が接続される。   The image processing unit 15 appropriately performs necessary image processing on the image data held in the DRAM 14. The image processing unit 15 includes a demosaic unit 15a, a feature amount calculation unit 15b, a block matching unit 15c, and an image deformation synthesis addition unit 15d. An SRAM 16 is connected to the image processing unit 15.

画像処理部15では、固体撮像素子12に備えられるベイヤー配列のカラーフィルタの構成に応じた画像データ(以下「ベイヤーデータ」と称する)に対してマトリックス演算、画素補間処理、ガンマ補正処理等をデモザイク処理することで、RAW(生)データであるベイヤーデータに現像を施して輝度色差系(YUV)の画像データに変換する。   The image processing unit 15 performs demosaic processing on matrix data, pixel interpolation processing, gamma correction processing, and the like on image data (hereinafter referred to as “Bayer data”) according to the configuration of a Bayer array color filter provided in the solid-state imaging device 12. By processing, the Bayer data, which is RAW (raw) data, is developed and converted into luminance color difference (YUV) image data.

画像処理部15は、その画像データから表示用に画素数及び階調ビットを大幅に減じた画像データを作成して表示部17へ送り、スルー画像として表示させる。   The image processing unit 15 creates image data in which the number of pixels and the gradation bit are greatly reduced for display from the image data, sends the image data to the display unit 17, and displays it as a through image.

また、上記光学レンズユニット11と同じくカメラ筐体前面には、一対のマイクロホン18L,18Rが配設され、被写体方向の音声がステレオで入力される。マイクロホン18L,18Rはそれぞれ入力した音声を電気信号化し、音声処理部19へ出力する。   Similarly to the optical lens unit 11, a pair of microphones 18L and 18R are provided on the front surface of the camera casing, and the sound in the subject direction is input in stereo. The microphones 18 </ b> L and 18 </ b> R convert the input sound into electrical signals and output them to the sound processing unit 19.

音声処理部19は、音声単体での録音時、音声付き静止画像撮影時、及び動画像の撮影時にマイクロホン18L,18Rから入力する音声信号をデジタルデータ化する。さらに音声処理部19は、デジタル化した音声データの音圧レベルを検出する一方で、該音声データを所定のデータファイル形式、例えばAAC(moving picture experts group−4 Advanced Audio Coding)形式でデータ圧縮して音声データファイルを作成し、後述する記録媒体へ送出する。   The sound processing unit 19 converts the sound signals input from the microphones 18L and 18R into digital data when recording a single sound, capturing a still image with sound, and capturing a moving image. Further, the sound processing unit 19 detects the sound pressure level of the digitized sound data, and compresses the sound data in a predetermined data file format, for example, AAC (moving picture experts group-4 Advanced Audio Coding) format. An audio data file is created and sent to a recording medium to be described later.

加えて音声処理部19は、PCM音源等の音源回路を備え、音声の再生時に送られてくる音声データファイルの圧縮を解いてアナログ化し、このデジタルカメラ10の筐体背面側に設けられるスピーカ20を駆動して、拡声放音させる。   In addition, the sound processing unit 19 includes a sound source circuit such as a PCM sound source, uncompresses and converts the sound data file sent during sound reproduction into an analog signal, and a speaker 20 provided on the rear side of the housing of the digital camera 10. To sound a loud sound.

以上の回路をCPU21が統括制御する。このCPU21は、メインメモリ22、プログラムメモリ23と直接接続される。メインメモリ22は、例えばSRAMで構成され、ワークメモリとして機能する。プログラムメモリ23は、例えばフラッシュメモリなどの電気的に書換可能な不揮発性メモリで構成され、後述するパノラマ画像の生成の制御を含む動作プログラムやデータ等を固定的に記憶する。   The CPU 21 performs overall control of the above circuit. The CPU 21 is directly connected to the main memory 22 and the program memory 23. The main memory 22 is composed of, for example, an SRAM and functions as a work memory. The program memory 23 is composed of an electrically rewritable nonvolatile memory such as a flash memory, for example, and fixedly stores an operation program, data including control of panorama image generation, which will be described later.

CPU21はプログラムメモリ23から必要なプログラムやデータ等を読出し、メインメモリ22に適宜一時的に展開記憶させながら、このデジタルカメラ10全体の制御動作を実行する。   The CPU 21 reads the necessary program, data, etc. from the program memory 23 and executes the control operation of the entire digital camera 10 while temporarily developing and storing it in the main memory 22.

さらに上記CPU21は、操作部24から直接入力される各種キー操作信号に対応して制御動作を実行する。操作部24は、例えば電源キー、シャッタレリーズキー、ズームアップ/ダウンキー、撮影モードキー、再生モードキー、メニューキー、カーソル(「↑」「→」「↓」「←」)キー、セットキー、解除キー、ディスプレイキー等を備える。   Further, the CPU 21 executes a control operation in response to various key operation signals input directly from the operation unit 24. The operation unit 24 includes, for example, a power key, a shutter release key, a zoom up / down key, a shooting mode key, a playback mode key, a menu key, a cursor (“↑” “→” “↓” “←”) key, a set key, Release key, display key, etc.

CPU21は、システムバスSBを介して上記AGC・A/D変換部13、DRAM14、画像処理部15、表示部17、及び音声処理部19の他、さらにレンズ駆動部25、フラッシュ駆動部26、イメージセンサ(IS)駆動部27、及びメモリカードコントローラ28と接続される。   In addition to the AGC / A / D conversion unit 13, DRAM 14, image processing unit 15, display unit 17, and audio processing unit 19, the CPU 21 further includes a lens driving unit 25, a flash driving unit 26, an image via the system bus SB. The sensor (IS) drive unit 27 and the memory card controller 28 are connected.

レンズ駆動部25は、CPU21からの制御信号を受けてレンズ用DCモータ(M)29の回転を制御し、上記光学レンズユニット11を構成する複数のレンズ群中の一部、具体的にはズームレンズ及びフォーカスレンズの位置をそれぞれ個別に光軸方向に沿って移動させる。   The lens driving unit 25 controls the rotation of the lens DC motor (M) 29 in response to a control signal from the CPU 21, and a part of a plurality of lens groups constituting the optical lens unit 11, specifically zoom. The positions of the lens and the focus lens are individually moved along the optical axis direction.

フラッシュ駆動部26は、静止画像撮影時にCPU21からの制御信号を受けて複数の白色高輝度LEDで構成されるフラッシュ部30を撮影タイミングに同期して点灯駆動する。   The flash drive unit 26 receives a control signal from the CPU 21 during still image shooting, and drives the flash unit 30 including a plurality of white high-intensity LEDs to be lit in synchronization with the shooting timing.

イメージセンサ駆動部27は、その時点で設定されている撮影条件等に応じて上記固体撮像素子12の走査駆動を行なう。   The image sensor driving unit 27 performs scanning driving of the solid-state imaging device 12 in accordance with imaging conditions set at that time.

上記画像処理部15は、上記操作部24のシャッタレリーズキー操作に伴う画像撮影時に、AGC・A/D変換部13から送られてきてDRAM14に保持される画像データをデモザイク処理し、さらに所定のデータファイル形式、例えばJPEG(Joint Photographic Experts Group)であればDCT(離散コサイン変換)やハフマン符号化等のデータ圧縮処理を施してデータ量を大幅に削減した画像データファイルを作成する。作成した画像データファイルはシステムバスSB、メモリカードコントローラ26を介してメモリカード31に記録される。   The image processing unit 15 performs demosaic processing on the image data sent from the AGC / A / D conversion unit 13 and held in the DRAM 14 at the time of image capturing associated with the operation of the shutter release key of the operation unit 24, and further performs predetermined mosaic processing. In the case of a data file format, for example, JPEG (Joint Photographic Experts Group), data compression processing such as DCT (Discrete Cosine Transform) or Huffman coding is performed to create an image data file with a greatly reduced data amount. The created image data file is recorded on the memory card 31 via the system bus SB and the memory card controller 26.

また画像処理部15は、再生モード時にメモリカード31からメモリカードコントローラ28を介して読出されてくる画像データをシステムバスSBを介して受取り、DRAM14に保持させた上で、このDRAM14に保持させた画像データを記録時とは逆の手順で圧縮を解く伸長処理により元のサイズの画像データを得、これをシステムバスSBを介して表示部17に出力して表示させる。
メモリカードコントローラ28は、カードコネクタ32を介してメモリカード31と接続される。メモリカード31は、このデジタルカメラ10に着脱自在に装着され、このデジタルカメラ10の記録媒体となる画像データ等の記録用メモリであり、内部にはブロック単位で電気的に書換え可能な不揮発性メモリであるフラッシュメモリと、その駆動回路とが設けられる。
Further, the image processing unit 15 receives the image data read from the memory card 31 via the memory card controller 28 in the reproduction mode via the system bus SB, holds it in the DRAM 14, and then holds it in the DRAM 14. Image data of the original size is obtained by decompression processing that decompresses the image data in the reverse procedure of recording, and this is output to the display unit 17 via the system bus SB and displayed.
The memory card controller 28 is connected to the memory card 31 via the card connector 32. A memory card 31 is a memory for recording image data and the like that is detachably attached to the digital camera 10 and serves as a recording medium for the digital camera 10, and has a nonvolatile memory that can be electrically rewritten in units of blocks. A flash memory and a driving circuit thereof are provided.

次に上記実施形態の動作について説明する。
なお、以下に示す動作は、パノラマ画像の撮影モード下でデジタルカメラ10をパン(旋回)させながらシャッタレリーズキーを任意時間だけ押圧操作して、時間的に連続した複数の静止画像の撮影を行なう際、CPU21がプログラムメモリ23に記憶されている動作プログラムやデータを読出してメインメモリ22に展開して記憶させた上で実行するものである。
Next, the operation of the above embodiment will be described.
In the following operation, the digital camera 10 is panned (turned) in the panoramic image shooting mode, and the shutter release key is pressed for an arbitrary time to shoot a plurality of still images that are temporally continuous. At this time, the CPU 21 reads out the operation program and data stored in the program memory 23 and develops and stores them in the main memory 22 for execution.

プログラムメモリ23に記憶されている動作プログラム等は、このデジタルカメラ10の製造工場出荷時にプログラムメモリ23に記憶されていたものに加え、例えばこのデジタルカメラ10のバージョンアップに際して、デジタルカメラ10をパーソナルコンピュータと接続することにより外部から新たな動作プログラム、データ等をダウンロードして記憶するものも含む。   For example, when the digital camera 10 is upgraded, the operation program stored in the program memory 23 is stored in the program memory 23 when the digital camera 10 is shipped from the factory. To download and store new operation programs, data, and the like from the outside by connecting to.

図2及び図3は、パノラマ画像の撮影とその後の合成処理に係る一連の処理内容を示すものである。その処理当初には、CPU21がメインメモリ22に保持する、撮影画像枚数をカウントする変数nの値を初期化して「1」とする(ステップS101)。   2 and 3 show a series of processing contents related to panoramic image shooting and subsequent synthesis processing. Initially, the CPU 21 initializes the value of the variable n, which is stored in the main memory 22 and counts the number of captured images, to “1” (step S101).

その後、CPU21は操作部24のシャッタレリーズキーが操作されたか否かを判断する(ステップS102)。ここでシャッタレリーズキーが操作されていないと判断すると、次いでCPU21は操作部24の解除キーが操作されたか否かを判断する(ステップS103)。ここで解除キーも操作されていないと判断すると、再び上記ステップS102からの処理に戻る。   Thereafter, the CPU 21 determines whether or not the shutter release key of the operation unit 24 has been operated (step S102). If it is determined that the shutter release key has not been operated, the CPU 21 then determines whether or not the release key of the operation unit 24 has been operated (step S103). If it is determined that the release key has not been operated, the process returns to step S102.

こうしてステップS102,S103の処理を繰返し実行することで、CPU21は操作部24のシャッタレリーズキーか、解除キーのいずれかが操作されるのを待機する。
しかして解除キーが操作された場合、CPU21はそれを上記ステップS103で判断し、以上でこの図2及び図3のパノラマ画像の撮影とその後の合成処理に係る一連の処理内容を終了し、通常の静止画像の撮影に戻る。
By repeatedly executing the processes of steps S102 and S103 in this way, the CPU 21 waits for either the shutter release key or the release key of the operation unit 24 to be operated.
If the release key is operated, the CPU 21 determines this in step S103, and the above ends the series of processing contents related to the panoramic image shooting and subsequent composition processing in FIG. 2 and FIG. Return to still image shooting.

また、シャッタレリーズキーが操作されたと判断した場合、CPU21は直ちに静止画像の撮影を実行した上で(ステップS104)、撮影画像枚数をカウントする上記変数nの値を「+1」更新設定する(ステップS105)。撮影により得られたベイヤーデータはDRAM14に保持される。   If it is determined that the shutter release key has been operated, the CPU 21 immediately captures a still image (step S104), and then updates the value of the variable n for counting the number of captured images by “+1” (step S104). S105). Bayer data obtained by photographing is held in the DRAM 14.

次にCPU21は、更新設定した変数nの値が、このデジタルカメラ10に予め設定されている連写可能な最大枚数を超えていないことを確認した上で(ステップS106)、まだシャッタレリーズキーが操作され続けているか否かを判断する(ステップS107)。   Next, the CPU 21 confirms that the value of the updated variable n has not exceeded the maximum number of images that can be continuously shot set in advance in the digital camera 10 (step S106), and the shutter release key has not yet been pressed. It is determined whether or not the operation is continued (step S107).

ここで、まだシャッタレリーズキーが操作されていると判断すると、再び上記ステップS104からの処理に戻って、シャッタレリーズキーの操作通りに、時間的に連続したさらなる静止画像の撮影を続行する。この撮影により得られるベイヤーデータも順次DRAM14に保持して蓄積していく。   Here, if it is determined that the shutter release key is still being operated, the process returns to the processing from step S104 again, and further still images that are temporally continuous are continued in accordance with the operation of the shutter release key. The Bayer data obtained by this photographing is also sequentially held and accumulated in the DRAM 14.

こうしてシャッタレリーズキーが操作されている間、ステップS104〜S107の処理を繰返し実行し、上記連写可能な最大枚数を超えるまで撮影と画像データの保持とを続行する。   While the shutter release key is being operated in this way, the processing of steps S104 to S107 is repeatedly executed, and the photographing and holding of the image data are continued until the maximum number of continuous shots is exceeded.

シャッタレリーズキーの押圧操作は続いているが、更新設定した変数nが連写可能な最大枚数を超えた場合、あるいはシャッタレリーズキーの押圧操作が停止された場合、CPU21は上記ステップS106またはS107でそれを判断し、撮影動作を停止するとともに、それまでに蓄積したベイヤーデータに基づいて画像合成を行なう処理に移行する。   Although the shutter release key pressing operation continues, if the updated variable n exceeds the maximum number of images that can be continuously shot, or if the shutter release key pressing operation is stopped, the CPU 21 performs step S106 or S107. This is determined, the photographing operation is stopped, and the process proceeds to a process of combining images based on the Bayer data accumulated so far.

まず1枚目のベイヤーデータを位置合わせの基準とするべく、画像処理部15のデモザイク部15aによりデモザイクする(ステップS108)。ここでデモザイク処理とは、上述した如く固体撮像素子12から得たベイヤーデータに現像を施して輝度色差系(YUV)の画像データに変換することとする。
この際、位置合わせの精度にもよるが、画像サイズを縮小した画像データに変換するものとしても良い。
First, the demosaic unit 15a of the image processing unit 15 performs demosaicing in order to use the first Bayer data as a reference for alignment (step S108). Here, the demosaicing process is to develop the Bayer data obtained from the solid-state imaging device 12 as described above and convert the image data into luminance color difference (YUV) image data.
At this time, the image data may be converted into image data with a reduced image size, depending on the alignment accuracy.

次に、CPU21がメインメモリ22に保持する、処理画像枚数をカウントする変数mの値を初期化して「2」とする(ステップS109)。なお、本処理では時間的に先頭に位置する「1」枚目の画像データを基準とするため、「1」枚目の画像データに関しては以下の補正処理を行なわず、したがって上記ステップS109での処理により最初の位置補正処理を行なう画像データを選択するべく初期値「2」を設定するものである。   Next, the value of the variable m for counting the number of processed images held in the main memory 22 by the CPU 21 is initialized to “2” (step S109). In this process, the first image data positioned at the head in time is used as a reference. Therefore, the following correction process is not performed on the first image data, and therefore the above-described correction process in step S109 is performed. An initial value “2” is set to select image data to be subjected to the first position correction process.

変数mの値「2」が、連続して撮影した画像の数n以下であることを確認した上で(ステップS110)、「2」枚目のベイヤーデータをデモザイク部15aにより上記ステップS108と同様にデモザイク処理する(ステップS111)。   After confirming that the value “2” of the variable m is equal to or less than the number n of continuously captured images (step S110), the Bayer data of the “2” th image is obtained by the demosaic unit 15a in the same manner as in step S108. The demosaic process is performed (step S111).

このデモザイクした「2」枚目の画像データを、その直前の「1」枚目の画像データに位置合わせするべく、ブロックマッチング部15cと特徴量演算部15bにより補正係数を算出する(ステップS112)。   A correction coefficient is calculated by the block matching unit 15c and the feature amount calculation unit 15b in order to align the demosaiced “2” image data with the immediately preceding “1” image data (step S112). .

ここで位置合わせのための補正係数を算出する方法としては、例えば特徴量演算部15bが画像エッジ上の特徴点を抽出し、2つの対象画像どうしで最多の特徴点が一致する補正変換行列を求める手法などがある。補正変換行列には、例えば次式で示すような変換行列が用いられる。すなわち、

Figure 2012060309
Here, as a method for calculating a correction coefficient for alignment, for example, the feature amount calculation unit 15b extracts feature points on the image edge, and a correction conversion matrix in which the most feature points match between two target images is used. There are methods to find. As the correction conversion matrix, for example, a conversion matrix shown by the following equation is used. That is,
Figure 2012060309

図4及び図5により上記位置合わせのための補正変換処理を説明する。
図4(A)は、撮影対象となる被写体としての「都市部の夜景」を例示している。
The correction conversion process for the alignment will be described with reference to FIGS.
FIG. 4A illustrates “a night view of an urban area” as a subject to be photographed.

このような被写体を図4(B)〜図4(D)に示すようにデジタルカメラ10を左から右へ横方向にパンしながら撮影を行なったものとする。   Assume that such a subject is photographed while panning the digital camera 10 from left to right in the horizontal direction as shown in FIGS. 4 (B) to 4 (D).

ここでは、説明を簡易にするべく、図5(A)に示すようにパン動作中に2回の撮影がなされたものとする。1回目の撮影で得た画像データFL1と2回目の撮影で得た画像データFL2は共有領域C1を含んでいる。   Here, in order to simplify the explanation, it is assumed that shooting is performed twice during the pan operation as shown in FIG. The image data FL1 obtained by the first shooting and the image data FL2 obtained by the second shooting include the shared area C1.

図5(B)に示すように1回目の撮影で得た画像データFL1は、上述した如く基準画像となるので、パン動作による移動量が「0(ゼロ)」であるとして無条件に単位行列M1が与えられる。   As shown in FIG. 5B, the image data FL1 obtained in the first shooting is a reference image as described above. Therefore, it is unconditionally assumed that the amount of movement by the pan operation is “0 (zero)”. M1 is given.

これに対して、図5(C)に示すように2回目の撮影で得た画像データFL2は、上述した如く基準画像である画像データFL1から水平方向にXだけ位置を移動した画像であるので、パン動作による当該水平移動量Xを用いた補正行列M2を用いる。   On the other hand, as shown in FIG. 5C, the image data FL2 obtained by the second shooting is an image whose position has been moved by X in the horizontal direction from the image data FL1, which is the reference image, as described above. The correction matrix M2 using the horizontal movement amount X by the pan operation is used.

ブロックマッチング部15cが上記共有部分C1のマッチング処理を実行し、上記特徴量演算部15bが上述したように画像エッジ上の特徴点を抽出し、2つの対象画像どうしで最多の特徴点が一致するように補正変換行列を求めることで、位置の移動量に応じた補正係数、具体的には上記補正行列M2における移動量Xが算出できる。   The block matching unit 15c executes the matching process of the shared portion C1, and the feature amount calculation unit 15b extracts the feature points on the image edge as described above, and the most feature points match between the two target images. Thus, by calculating | requiring a correction | amendment conversion matrix, the correction coefficient according to the moving amount of a position, specifically, the moving amount X in the said correction matrix M2 is computable.

こうして補正係数を算出した上で、1つ前の変換行列に累積していくことで、各画像データを1枚目の画像データを基準として補正変換行列にしたがって変換することができる(ステップS113)。   By calculating the correction coefficient in this way and accumulating it in the previous conversion matrix, each image data can be converted according to the correction conversion matrix with the first image data as a reference (step S113). .

その後、変数mの値を「+1」更新設定した上で(ステップS114)、再び上記ステップS110からの処理に戻る。   Thereafter, after updating the value of the variable m by “+1” (step S114), the process returns to step S110 again.

こうしてステップS110〜S114の処理を順次繰返し実行することにより、上記補正変換行列は1枚目の画像データを基準とした累積結果を示すものとなる。   In this way, by sequentially repeating the processes of steps S110 to S114, the correction conversion matrix shows a cumulative result based on the first image data.

しかして、更新設定した変数mの値が連続して撮影した画像の数nを超えた時点で、連続して撮影したすべての画像データに対する累積補正変換行列の算出を終えたこととなり、上記ステップS110でそれを判断する。   Therefore, when the value of the updated variable m exceeds the number n of continuously captured images, the calculation of the cumulative correction conversion matrix for all the continuously captured image data has been completed. It is determined in S110.

次いで、取得した累積補正変換行列の平行移動成分から、合成画像の取り得る画像サイズを算出する(ステップS115)。算出した画像サイズに基づき、DRAM14上に合成画像領域を確保する(ステップS116)。   Next, an image size that can be taken by the composite image is calculated from the parallel movement component of the acquired cumulative correction conversion matrix (step S115). Based on the calculated image size, a composite image area is secured on the DRAM 14 (step S116).

次に、撮影画像と補正変換行列の保存と合成処理を行なう。
まず、CPU21がメインメモリ22に保持する、処理画像枚数をカウントする変数mの値を初期化して「1」とする(ステップS117)。次いで、変数mの値「1」が、連続して撮影した画像の数n以下であることを確認した上で(ステップS118)、「1」枚目のベイヤーデータを通常の撮影画像と同様にデモザイク部15aによりデモザイク処理する(ステップS119)。
Next, the captured image and the correction conversion matrix are stored and combined.
First, the CPU 21 initializes the value of the variable m, which is stored in the main memory 22 and counts the number of processed images, to “1” (step S117). Next, after confirming that the value “1” of the variable m is equal to or less than the number n of continuously captured images (step S118), the “1” -th Bayer data is set in the same manner as a normal captured image. The demosaic process is performed by the demosaic unit 15a (step S119).

このデモザイクした「1」枚目の画像データを、例えばJPEGのフォーマットに基づいてデータファイル化した上で、この画像データに対応する上記位置の移動量を表す補正変換行列(ここではm=1であるので上記単位行列M1)をデータファイルのオプション情報領域に付加して、このデジタルカメラ10の記録媒体であるメモリカード31に記録させる(ステップS120)。   The demosaiced “1” image data is converted into a data file based on, for example, the JPEG format, and a correction conversion matrix (here, m = 1) representing the amount of movement of the position corresponding to the image data. Therefore, the unit matrix M1) is added to the option information area of the data file and recorded on the memory card 31 which is the recording medium of the digital camera 10 (step S120).

上記データファイルのオプション情報領域は、例えばJFIF(JPEG File Interchange Format)やExif(Exchangeable image file format)で規定される情報領域を想定している。   The option information area of the data file is assumed to be an information area defined by, for example, JFIF (JPEG File Interchange Format) or Exif (Exchangeable image file format).

その後、この「1」番目の画像データを累積補正変換行列M1で変換した上で、変換後の画像データを画像変形合成加算部15dにより上記ステップS116の処理でDRAM14に確保した合成画像領域の該当する画素位置範囲に順次書込む(ステップS121)。   Thereafter, the “1” -th image data is converted by the cumulative correction conversion matrix M1, and the converted image data is matched with the combined image area secured in the DRAM 14 by the image deformation / synthesis adding unit 15d in the process of step S116. The pixel position range to be written is sequentially written (step S121).

その後、変数mの値を「+1」更新設定した上で(ステップS122)、再び上記ステップS118からの処理に戻る。   Thereafter, after updating the value of the variable m by “+1” (step S122), the process returns to step S118 again.

こうしてステップS118〜S122の処理を順次画像データ数分だけ繰返し実行することにより、連続した個々の画像データを順次基準画像に対する位置の移動量を示す補正変換行列の情報を付加してメモリカード31に記録していくとともに、DRAM14に確保した合成画像領域の該当する画素位置範囲に書込んでいく。   In this way, the processing of steps S118 to S122 is repeatedly executed in sequence for the number of image data, so that information of a correction conversion matrix indicating the amount of movement of the position of the continuous individual image data relative to the reference image is added to the memory card 31. While recording, the data is written in the corresponding pixel position range of the composite image area secured in the DRAM 14.

そして、最後の画像データに関する同様の処理を終えた後、さらにステップS122で変数mの値を「+1」更新設定すると、続くステップS118で変数mの値が、連続して撮影した画像の数nを超えており、すべての画像データに対する処理を終えたものと判断する。   Then, after the same processing relating to the last image data is finished, if the value of the variable m is further updated by “+1” in step S122, the value of the variable m is set to the number n of continuously captured images in step S118. It is determined that all the image data has been processed.

この時点で、DRAM14に確保した合成画像領域には、パノラマ画像の画像データが完成された状態で書込まれているため、この一枚の画像データを読出してデータファイル化し、このデジタルカメラ10の記録媒体であるメモリカード31に記録させる(ステップS123)。
以上でこの図2及び図3の一連の処理を終了する。
At this time, since the panoramic image data is written in the completed image area secured in the DRAM 14, this single image data is read out and converted into a data file. It records on the memory card 31 which is a recording medium (step S123).
The series of processes in FIGS. 2 and 3 is thus completed.

以上詳記した如く本実施形態によれば、パノラマ画像を生成するために取得した、被写体が一部重複している複数の精細な画像データを、当該パノラマ画像のデータとは別に、先頭画像を基準とした移動量を示す情報と共に記録するものとした。   As described above in detail, according to the present embodiment, a plurality of fine image data obtained by generating a panoramic image and partially overlapping a subject are separated from the panoramic image data by using the first image. It was recorded together with information indicating the reference movement amount.

これにより、合成処理によって解像度を落とさざるを得ないパノラマ画像で失われる情報を消失させることなく、後に有効活用することが可能な状態で元の画像データを自動的に記録することができる。   As a result, the original image data can be automatically recorded in a state where it can be effectively used later without losing information lost in the panoramic image whose resolution is inevitably lowered by the synthesis process.

加えて上記実施形態では、パノラマ画像のための撮影で得た複数の画像データ中、先頭に位置する画像データの位置を基準として、他の画像データは累積した移動量を示す補正変換行列の情報を付加して記録するものとしたので、各画像データの移動量を容易に算出でき、且つその移動量から基準の画像データに対する位置関係を把握することが容易となる。   In addition, in the above embodiment, the correction conversion matrix information indicating the amount of movement accumulated with respect to the position of the image data located at the head of the plurality of image data obtained by shooting for the panoramic image. Therefore, the movement amount of each image data can be easily calculated, and the positional relationship with respect to the reference image data can be easily grasped from the movement amount.

なお上記実施形態では、1回のパン動作により複数の時間的に連続した画像を撮影するパノラマ画像を撮影するデジタルカメラに適用した場合について説明したものであるが、パノラマ画像のような直線的な走査に応じた複数の画像のみならず、2次元的な広がりを持つ被写体をジグザグ走査、あるいはラスタ走査しながらマトリックス状に複数の画像を撮影するような場合についても同様の処理で対応することが可能となる。   In the above embodiment, the case where the present invention is applied to a digital camera that captures a panoramic image that captures a plurality of temporally continuous images by one pan operation has been described. The same processing can be applied to not only a plurality of images according to scanning but also a case where a plurality of images are photographed in a matrix while zigzag scanning or raster scanning of a subject having a two-dimensional spread. It becomes possible.

また上記実施形態は、デジタルカメラに適用した場合について説明したものであるが、本発明はこれに限らず、カメラ機能を有する電子機器であれば、他にも携帯電話端末やPDA(Personal Digital Assistants:個人向け情報携帯端末)、携帯メディアプレーヤ、電子ブック、モバイルコンピュータなどの各種機器にも同様に適用可能となる。   The above embodiment has been described with respect to a case where the present invention is applied to a digital camera. However, the present invention is not limited to this, and any other electronic device having a camera function may be a mobile phone terminal or a PDA (Personal Digital Assistants). : Personal information portable terminal), portable media player, electronic book, mobile computer, and other devices.

その他、本発明は上述した実施形態に限定されるものではなく、実施段階ではその要旨を逸脱しない範囲で種々に変形することが可能である。また、上述した実施形態で実行される機能は可能な限り適宜組み合わせて実施しても良い。上述した実施形態には種々の段階が含まれており、開示される複数の構成要件による適宜の組み合せにより種々の発明が抽出され得る。例えば、実施形態に示される全構成要件からいくつかの構成要件が削除されても、効果が得られるのであれば、この構成要件が削除された構成が発明として抽出され得る。   In addition, the present invention is not limited to the above-described embodiments, and various modifications can be made without departing from the scope of the invention in the implementation stage. Further, the functions executed in the above-described embodiments may be combined as appropriate as possible. The above-described embodiment includes various stages, and various inventions can be extracted by an appropriate combination of a plurality of disclosed constituent elements. For example, even if some constituent requirements are deleted from all the constituent requirements shown in the embodiment, if the effect is obtained, a configuration from which the constituent requirements are deleted can be extracted as an invention.

10…デジタルカメラ、11…光学レンズユニット、12…固体撮像素子(IS)、13…AGC・A/D変換部、14…DRAM、15…画像処理部、15a…デモザイク部、15b…特徴量演算部、15c…ブロックマッチング部、15d…画像変形合成加算部、16…SRAM、17…表示部、18L,18R…マイクロホン、19…音声処理部、20…スピーカ、21…CPU、22…メインメモリ、23…プログラムメモリ、24…操作部、25…レンズ駆動部、26…フラッシュ駆動部、27…イメージセンサ(IS)駆動部、28…メモリカードコントローラ、29…レンズ用DCモータ(M)、30…フラッシュ部、31…メモリカード、32…カードコネクタ、SB…システムバス。   DESCRIPTION OF SYMBOLS 10 ... Digital camera, 11 ... Optical lens unit, 12 ... Solid-state image sensor (IS), 13 ... AGC / A / D conversion part, 14 ... DRAM, 15 ... Image processing part, 15a ... Demosaic part, 15b ... Feature amount calculation , 15c: Block matching unit, 15d: Image deformation / synthesis adding unit, 16: SRAM, 17: Display unit, 18L, 18R ... Microphone, 19 ... Audio processing unit, 20 ... Speaker, 21 ... CPU, 22 ... Main memory, DESCRIPTION OF SYMBOLS 23 ... Program memory, 24 ... Operation part, 25 ... Lens drive part, 26 ... Flash drive part, 27 ... Image sensor (IS) drive part, 28 ... Memory card controller, 29 ... DC motor (M) for lenses, 30 ... Flash unit, 31 ... memory card, 32 ... card connector, SB ... system bus.

Claims (4)

被写体の少なくとも一部が重複する隣接した複数の画像を撮影する撮影手段と、
上記撮影手段によって撮影された複数の画像を保持する保持手段と、
上記保持手段によって保持される複数の画像間の被写体の重複部分を検出する検出手段と、
上記検出手段による検出結果に基づいて上記複数の各画像毎に位置補正情報を算出する算出手段と、
上記検出手段による検出結果、及び、上記算出手段によって算出された位置補正情報に基づいて上記保持手段で保持される複数の画像を合成する画像合成手段と、
上記画像合成手段によって合成された合成画像、上記保持手段によって保持されている複数の画像、及び、上記算出手段によって複数の各画像毎に算出された位置補正情報を関連付けて記録する記録手段と
を具備したことを特徴とする撮像装置。
Photographing means for photographing a plurality of adjacent images in which at least a part of the subject overlaps;
Holding means for holding a plurality of images photographed by the photographing means;
Detecting means for detecting an overlapping portion of a subject between a plurality of images held by the holding means;
Calculation means for calculating position correction information for each of the plurality of images based on a detection result by the detection means;
Image combining means for combining a plurality of images held by the holding means based on the detection result by the detecting means and the position correction information calculated by the calculating means;
A synthesized image synthesized by the image synthesizing unit, a plurality of images held by the holding unit, and a recording unit that records the position correction information calculated for each of the plurality of images by the calculating unit in association with each other. An imaging apparatus comprising the imaging device.
上記算出手段は、上記保持手段によって保持される複数の画像間で撮影順で先頭に位置する画像を基準とし、それ以外の各画像毎に上記基準となる画像に対する位置補正情報を算出することを特徴とする請求項1記載の撮像装置。   The calculation means calculates the position correction information for the reference image for each of the other images based on the first image in the shooting order among the plurality of images held by the holding means. The imaging apparatus according to claim 1, wherein: 撮影部で撮影した、被写体の少なくとも一部が重複する隣接した複数の画像を保持する保持ステップと、
上記保持ステップにて保持される複数の画像間の被写体の重複部分を検出する検出ステップと、
上記検出ステップでの検出結果に基づいて上記複数の各画像毎の位置補正情報を算出する算出ステップと、
上記検出ステップでの検出結果、及び、上記算出ステップにて算出された位置補正情報に基づいて上記保持ステップにて保持された複数の画像から一枚の画像を合成する画像合成ステップと、
上記画像合成ステップにて合成された合成画像、上記保持ステップにて保持された複数の画像、及び、上記算出ステップにて上記複数の各画像毎に算出された位置補正情報を関連付けて記録媒体に記録させる記録ステップと
を含むことを特徴とする撮像方法。
A holding step for holding a plurality of adjacent images that are photographed by the photographing unit and at least a part of the subject overlap;
A detection step of detecting overlapping portions of the subject between the plurality of images held in the holding step;
A calculation step for calculating position correction information for each of the plurality of images based on a detection result in the detection step;
An image synthesis step for synthesizing one image from a plurality of images held in the holding step based on the detection result in the detection step and the position correction information calculated in the calculation step;
The composite image synthesized in the image synthesis step, the plurality of images held in the holding step, and the position correction information calculated for each of the plurality of images in the calculation step are associated with the recording medium. An imaging method comprising: a recording step for recording.
撮像装置が内蔵するコンピュータが実行するプログラムであって、
上記コンピュータを、
被写体の少なくとも一部が重複する隣接した複数の画像を撮影する撮影手段、
上記撮影手段によって撮影された複数の画像を保持する保持手段、
上記保持手段によって保持される複数の画像間の被写体の重複部分を検出する検出手段、
上記検出手段による検出結果に基づいて上記複数の各画像毎に位置補正情報を算出する算出手段、
上記検出手段による検出結果、及び、上記算出手段によって算出された位置補正情報に基づいて上記保持手段で保持される複数の画像を合成する画像合成手段、及び
上記画像合成手段によって合成された合成画像、上記保持手段によって保持されている複数の画像、及び、上記算出手段によって複数の各画像毎に算出された位置補正情報を関連付けて記録する記録手段
として機能させることを特徴とするプログラム。
A program executed by a computer built in the imaging apparatus,
The above computer
Photographing means for photographing a plurality of adjacent images in which at least a part of the subject overlaps;
Holding means for holding a plurality of images photographed by the photographing means;
Detecting means for detecting an overlapping portion of a subject between a plurality of images held by the holding means;
Calculation means for calculating position correction information for each of the plurality of images based on a detection result by the detection means;
Based on the detection result by the detection means and the position correction information calculated by the calculation means, an image synthesis means for synthesizing a plurality of images held by the holding means, and a synthesized image synthesized by the image synthesis means A program that functions as a recording unit that records a plurality of images held by the holding unit and position correction information calculated for each of the plurality of images by the calculation unit in association with each other.
JP2010200020A 2010-09-07 2010-09-07 Imaging apparatus, imaging method, and program Pending JP2012060309A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2010200020A JP2012060309A (en) 2010-09-07 2010-09-07 Imaging apparatus, imaging method, and program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2010200020A JP2012060309A (en) 2010-09-07 2010-09-07 Imaging apparatus, imaging method, and program

Publications (1)

Publication Number Publication Date
JP2012060309A true JP2012060309A (en) 2012-03-22

Family

ID=46056896

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2010200020A Pending JP2012060309A (en) 2010-09-07 2010-09-07 Imaging apparatus, imaging method, and program

Country Status (1)

Country Link
JP (1) JP2012060309A (en)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR101781172B1 (en) * 2016-07-28 2017-09-25 동국대학교 산학협력단 Apparatus and method for matching images

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2000299804A (en) * 1999-04-12 2000-10-24 Casio Comput Co Ltd Panoramic photographing method and image pickup device
JP2005129994A (en) * 2003-10-21 2005-05-19 Konica Minolta Photo Imaging Inc Digital camera
JP2005252803A (en) * 2004-03-05 2005-09-15 Seiko Epson Corp Apparatus, method, and program for image processing and recording medium with the program stored
JP2009094726A (en) * 2007-10-05 2009-04-30 Fujifilm Corp Image recording apparatus and image recording method

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2000299804A (en) * 1999-04-12 2000-10-24 Casio Comput Co Ltd Panoramic photographing method and image pickup device
JP2005129994A (en) * 2003-10-21 2005-05-19 Konica Minolta Photo Imaging Inc Digital camera
JP2005252803A (en) * 2004-03-05 2005-09-15 Seiko Epson Corp Apparatus, method, and program for image processing and recording medium with the program stored
JP2009094726A (en) * 2007-10-05 2009-04-30 Fujifilm Corp Image recording apparatus and image recording method

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR101781172B1 (en) * 2016-07-28 2017-09-25 동국대학교 산학협력단 Apparatus and method for matching images

Similar Documents

Publication Publication Date Title
JP5126344B2 (en) Imaging apparatus, imaging method, and program
JP4569389B2 (en) Imaging apparatus, image processing method, and program
JP2009147730A (en) Moving image generating apparatus, moving image shooting apparatus, moving image generating method, and program
JP5578442B2 (en) Imaging apparatus, image composition method, and program
JP2010230879A (en) Double eye camera device
JP2015053741A (en) Image reproduction device
JP4760725B2 (en) Image reproduction apparatus, image display method, and program
TWI230014B (en) Image synthesis apparatus and image synthesis method
JP2003179798A (en) Digital camera
JP2006319541A (en) Imaging device, moving picture processing method, and program
JPH11196299A (en) Image pickup device
JP2010283504A (en) Imaging device, imaging method, and imaging program
JP2004312218A (en) Digital camera and image reproducing apparatus
JP2012060309A (en) Imaging apparatus, imaging method, and program
JPH11196317A (en) Image pickup device
JP2005277618A (en) Photography taking apparatus and device and method for correcting shading
JP5962974B2 (en) Imaging apparatus, imaging method, and program
JP4256028B2 (en) Compression encoding apparatus and method
JP2012151708A (en) Imaging device
JP2011087203A (en) Imaging apparatus
JP2000041170A (en) Image pickup device and method
JPH11224324A (en) Image signal processing method and device
JP2012109863A (en) Imaging device and image processing method
JP5561044B2 (en) Imaging apparatus, imaging method, and program
JP2006094200A (en) Imaging apparatus, focusing display method, and program

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20130909

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20140410

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20140507

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20140704

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20140729

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20141202