Nothing Special   »   [go: up one dir, main page]

JP4799366B2 - Imaging apparatus and image reproduction apparatus - Google Patents

Imaging apparatus and image reproduction apparatus Download PDF

Info

Publication number
JP4799366B2
JP4799366B2 JP2006292163A JP2006292163A JP4799366B2 JP 4799366 B2 JP4799366 B2 JP 4799366B2 JP 2006292163 A JP2006292163 A JP 2006292163A JP 2006292163 A JP2006292163 A JP 2006292163A JP 4799366 B2 JP4799366 B2 JP 4799366B2
Authority
JP
Japan
Prior art keywords
image
shooting
bracket
imaging
face
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
JP2006292163A
Other languages
Japanese (ja)
Other versions
JP2008109551A (en
Inventor
晶彦 山田
和浩 小島
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Sanyo Electric Co Ltd
Original Assignee
Sanyo Electric Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Sanyo Electric Co Ltd filed Critical Sanyo Electric Co Ltd
Priority to JP2006292163A priority Critical patent/JP4799366B2/en
Publication of JP2008109551A publication Critical patent/JP2008109551A/en
Application granted granted Critical
Publication of JP4799366B2 publication Critical patent/JP4799366B2/en
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Exposure Control For Cameras (AREA)
  • Indication In Cameras, And Counting Of Exposures (AREA)
  • Studio Devices (AREA)

Description

本発明は、デジタルスチルカメラ又はデジタルビデオカメラ等の撮像装置に関し、特に、自動的に焦点や露出等の撮影条件を設定する技術に関する。また本発明は、その撮像装置にて撮影された画像を再生表示する画像再生装置に関する。   The present invention relates to an imaging apparatus such as a digital still camera or a digital video camera, and more particularly to a technique for automatically setting shooting conditions such as focus and exposure. The present invention also relates to an image reproduction apparatus that reproduces and displays an image captured by the imaging apparatus.

自動合焦機能(オートフォーカス機能)を備えた従来の撮像装置では、画面中央部の1つ又は複数の領域を測距領域として自動合焦を行うのが一般的である。しかしながら、この測距方式では、人物を撮影する際、人物と測距領域が重なる構図にして自動合焦を行い、合焦後、希望の構図に変更して撮影を行う必要がある。   In a conventional imaging apparatus having an autofocus function (autofocus function), it is common to perform autofocus using one or a plurality of areas at the center of the screen as a distance measurement area. However, in this distance measurement method, when a person is photographed, it is necessary to perform autofocusing with a composition in which the person and the distance measurement area overlap, and after focusing, change to the desired composition and perform photographing.

このような手間を省くことを目的として、撮影領域内に含まれる人物の顔を検出し、検出された顔を含む領域を測距領域として自動合焦制御を行う手法が開示されている(例えば、下記特許文献1参照)。   In order to save such trouble, a technique for detecting a human face included in a shooting area and performing automatic focusing control using the area including the detected face as a distance measurement area is disclosed (for example, , See Patent Document 1 below).

ところが、撮影環境や撮影者の意図は常に一定という訳ではないため、顔を含む領域を測距領域とすることが常に最も好ましいとは限らない。   However, since the shooting environment and the photographer's intention are not always constant, it is not always preferable to set the area including the face as the distance measurement area.

また、撮影領域内に顔が複数含まれる場合は、顔に着目した撮影条件が複数存在するようになる(例えば、第1の顔を測距領域に含めた撮影条件と、第2の顔を測距領域に含めた撮影条件)。このような場合は、複数の撮影条件(撮影パラメータ)の中から1つの撮影条件を、撮像装置における自動設定、撮影者による事前設定または撮影直前の手動設定などによって選択し、その選択した1つの撮影条件を適用して実際の撮影を行っていた。   In addition, when a plurality of faces are included in the shooting area, there are a plurality of shooting conditions focusing on the face (for example, the shooting conditions including the first face in the distance measurement area and the second face. Shooting conditions included in the distance measurement area). In such a case, one shooting condition is selected from among a plurality of shooting conditions (shooting parameters) by automatic setting in the imaging apparatus, presetting by the photographer or manual setting immediately before shooting, and the selected one Actual shooting was performed by applying shooting conditions.

しかしながら、上述したように撮影環境や撮影者の意図は常に一定という訳ではないため、自動設定や事前設定では、このような状況の違いを的確に反映することは難しい。また、撮影直前に撮影者が手動設定する場合、手動操作によるタイムラグが発生するため、所望の撮影タイミングを逃すといった問題がある。   However, as described above, since the photographing environment and the photographer's intention are not always constant, it is difficult to accurately reflect such a difference in the situation with the automatic setting or the prior setting. In addition, when the photographer manually sets immediately before shooting, there is a problem that a desired shooting timing is missed because a time lag occurs due to manual operation.

特開2003−107335号公報JP 2003-107335 A

人物の顔に着目した撮影を行う場合を例にとり、従来の手法の問題点を説明したが、人物の顔以外の物体に着目して撮影を行う場合も同様の問題が発生しうる。   The problem of the conventional method has been described by taking the case of taking a picture focusing on a person's face as an example, but the same problem may occur when taking a picture focusing on an object other than the person's face.

そこで本発明は、手動操作によるタイムラグ等を生じさせることなく、撮影者の意図に近い画像の取得可能性の向上に寄与する撮像装置を提供することを目的とする。また本発明は、その撮像装置にて撮影された画像の確認容易化に寄与する画像再生装置を提供することを目的とする。   Therefore, an object of the present invention is to provide an imaging apparatus that contributes to an improvement in the possibility of acquiring an image close to the photographer's intention without causing a time lag or the like due to manual operation. Another object of the present invention is to provide an image reproducing apparatus that contributes to facilitating the confirmation of an image photographed by the imaging apparatus.

上記目的を達成するために本発明に係る撮像装置は、撮像手段の撮影によって得られた撮影画像の中から所定種類の物体を検出する物体検出手段と、前記撮影画像上における前記物体についての情報に基づいて、撮影条件を表す撮影パラメータを複数生成するパラメータ生成手段と、を備え、特殊撮影を行うための所定の撮影指示がなされた際、事前に生成された各撮影パラメータを適用して順次撮影を行うことにより、前記複数の撮影パラメータによる複数の撮影画像を複数のブラケット画像として得ることを特徴とする。   In order to achieve the above object, an imaging apparatus according to the present invention includes an object detection unit that detects a predetermined type of object from a captured image obtained by imaging by an imaging unit, and information about the object on the captured image. And a parameter generating means for generating a plurality of shooting parameters representing shooting conditions, and when a predetermined shooting instruction for performing special shooting is given, each shooting parameter generated in advance is sequentially applied. A plurality of captured images based on the plurality of imaging parameters are obtained as a plurality of bracket images by performing imaging.

これにより、所定の撮影指示(例えば、1回のシャッタボタン押下)によって、複数の撮影パラメータに従った複数のブラケット画像が撮影される。このため、撮影者が意図した画像が、この撮影指示によって得られる可能性が高まる。   Thereby, a plurality of bracket images according to a plurality of shooting parameters are shot in accordance with a predetermined shooting instruction (for example, pressing the shutter button once). For this reason, the possibility that an image intended by the photographer is obtained by this photographing instruction is increased.

具体的には例えば、前記情報は、前記撮影画像上における前記物体の位置を特定する。   Specifically, for example, the information specifies the position of the object on the captured image.

更に具体的には例えば、前記情報は、前記撮影画像上における、前記物体の大きさ及び個数の少なくとも一方を特定する。   More specifically, for example, the information specifies at least one of the size and the number of the objects on the captured image.

また例えば、前記撮像装置は、前記複数のブラケット画像を順序付けるための順序付け指示を受け付ける指示受付手段と、各ブラケット画像を、ファイル名を付けて記憶する記憶手段と、前記順序付け指示による前記複数のブラケット画像間の順序に基づいて、各ブラケット画像に対応付けられた前記ファイル名を変更するファイル名変更手段と、を更に備えている。   Further, for example, the imaging apparatus includes an instruction receiving unit that receives an ordering instruction for ordering the plurality of bracket images, a storage unit that stores each bracket image with a file name, and the plurality of the ordering instructions. File name changing means for changing the file name associated with each bracket image based on the order between the bracket images;

これにより、ファイル管理上の便宜が図られる。   This facilitates file management.

また例えば、前記撮像装置は、前記複数のブラケット画像を順序付けるための順序付け指示を受け付ける指示受付手段を、更に備え、次回以降の前記特殊撮影に対する複数の撮影パラメータの適用順序は、前記順序付け指示を考慮して設定される。   In addition, for example, the imaging apparatus further includes an instruction receiving unit that receives an ordering instruction for ordering the plurality of bracket images, and the order of application of the plurality of shooting parameters to the special shooting after the next time includes the ordering instruction. Set in consideration.

これにより、次回以降の特殊撮影において、撮影者の意図により合致した順序での各撮影パラメータの適用が期待される。   Thereby, it is expected that the shooting parameters are applied in the order that matches the intention of the photographer in the next and subsequent special shooting.

また例えば、各撮影パラメータは、前記物体を含む被写体についての光学像を前記撮像手段の撮像素子上で結像させるためのフォーカスレンズの位置を特定し、前記複数の撮影パラメータの適用順序は、その複数のブラケット画像を撮影する間における前記フォーカスレンズの位置の変化方向の同一性を考慮して設定される。   Further, for example, each shooting parameter specifies a position of a focus lens for forming an optical image of a subject including the object on an imaging element of the imaging unit, and the order of application of the plurality of shooting parameters is It is set in consideration of the same change direction of the focus lens position during shooting of a plurality of bracket images.

また例えば、各撮影パラメータは、前記撮像手段の撮像素子への入射光量を制御する絞りの開度を特定し、前記複数の撮影パラメータの適用順序は、その複数のブラケット画像を撮影する間における前記開度の変化方向の同一性を考慮して設定される。   Further, for example, each shooting parameter specifies the aperture of the diaphragm that controls the amount of light incident on the image sensor of the imaging means, and the application order of the plurality of shooting parameters is the same as that during the shooting of the plurality of bracket images. It is set in consideration of the identity of the change direction of the opening.

これらは、複数のブラケット画像の撮影時間の短縮化に寄与する。この結果、被写体或いは撮影者にとってより望ましいタイミングで撮影を行うことが可能となる。   These contribute to shortening the photographing time of a plurality of bracket images. As a result, it is possible to perform shooting at a timing more desirable for the subject or the photographer.

また具体的には例えば、前記物体は、人物の顔を含む。   More specifically, for example, the object includes a human face.

また、上記目的を達成するために本発明に係る画像再生装置は、前記撮像装置にて得られた撮影画像を表示可能な表示手段と、前記表示手段の表示内容を制御する表示制御手段と、を備え、前記表示制御手段は、前記撮像装置による前記特殊撮影に対応する画像を前記表示手段に表示させる際、前記複数のブラケット画像の中から択一的に代表画像を選び、前記特殊撮影に対応する表示領域に該代表画像を表示させることを特徴とする。   In order to achieve the above object, an image reproduction apparatus according to the present invention includes a display unit capable of displaying a captured image obtained by the imaging device, a display control unit for controlling display contents of the display unit, The display control means selectively displays a representative image from the plurality of bracket images when the display means displays an image corresponding to the special shooting by the imaging device. The representative image is displayed in a corresponding display area.

前記特殊撮影によって撮影画像枚数が増大するが、上記の如く画像生成装置を形成することにより、撮影済みの画像の確認容易化が図られる。   Although the number of shot images increases due to the special shooting, it is possible to easily check the shot images by forming the image generation device as described above.

また例えば、上記画像再生装置において、前記表示領域に表示される前記代表画像は、前記複数のブラケット画像の中で、時間に応じて自動的に或いは外部からの切り換え指示に応じて切り換わる。   Further, for example, in the image reproduction device, the representative image displayed in the display area is switched automatically in accordance with time or in response to an external switching instruction in the plurality of bracket images.

本発明の撮像装置によれば、手動操作によるタイムラグ等を生じさせることなく、撮影者の意図に近い画像を取得できる可能性が高まる。また本発明の画像再生装置によれば、撮影済みの画像の確認容易化が図られる。   According to the imaging apparatus of the present invention, there is an increased possibility that an image close to the photographer's intention can be acquired without causing a time lag due to manual operation. In addition, according to the image reproducing apparatus of the present invention, it is possible to easily confirm a captured image.

以下、本発明の実施の形態につき、図面を参照して具体的に説明する。参照される各図において、同一の部分には同一の符号を付し、同一の部分に関する重複する説明を原則として省略する。後に第1〜第3実施例を説明するが、まず、各実施例に共通する事項又は各実施例にて参照される事項について説明する。   Hereinafter, embodiments of the present invention will be specifically described with reference to the drawings. In each of the drawings to be referred to, the same part is denoted by the same reference numeral, and redundant description regarding the same part is omitted in principle. The first to third embodiments will be described later. First, matters common to each embodiment or items referred to in each embodiment will be described.

図1は、本発明の実施の形態に係る撮像装置1の全体ブロック図である。撮像装置1は、静止画を撮影可能なデジタルスチルカメラ、又は、静止画及び動画を撮影可能なデジタルビデオカメラである。   FIG. 1 is an overall block diagram of an imaging apparatus 1 according to an embodiment of the present invention. The imaging device 1 is a digital still camera that can capture still images, or a digital video camera that can capture still images and moving images.

撮像装置1は、撮像部11と、AFE(Analog Front End)12と、制御部13と、顔検出部14と、表示部15と、記録媒体16と、操作部17と、を備えている。   The imaging device 1 includes an imaging unit 11, an AFE (Analog Front End) 12, a control unit 13, a face detection unit 14, a display unit 15, a recording medium 16, and an operation unit 17.

図2に撮像部11の内部構成図を示す。撮像部11にカラーフィルタなどを用いることにより、撮像装置1は、撮影によってカラー画像を生成可能なように構成されている。撮像部11は、ズームレンズ30及びフォーカスレンズ31を含む複数枚のレンズを備えて構成される光学系35と、絞り32と、撮像素子33と、ドライバ34を有している。ズームレンズ30及びフォーカスレンズ31は光軸方向に移動可能である。   FIG. 2 shows an internal configuration diagram of the imaging unit 11. By using a color filter or the like for the imaging unit 11, the imaging device 1 is configured to generate a color image by shooting. The imaging unit 11 includes an optical system 35 including a plurality of lenses including a zoom lens 30 and a focus lens 31, an aperture 32, an imaging element 33, and a driver 34. The zoom lens 30 and the focus lens 31 are movable in the optical axis direction.

モータ等から成るドライバ34は、制御部13からの制御信号に基づいて、ズームレンズ30及びフォーカスレンズ31の移動を制御し、光学系35のズーム倍率や焦点距離を制御する。また、ドライバ34は、制御部13からの制御信号に基づいて絞り32の開度(開口部の大きさ)を制御する。   A driver 34 composed of a motor or the like controls the movement of the zoom lens 30 and the focus lens 31 based on a control signal from the control unit 13 and controls the zoom magnification and focal length of the optical system 35. The driver 34 controls the opening degree (size of the opening) of the diaphragm 32 based on a control signal from the control unit 13.

被写体からの入射光は、光学系35を構成する各レンズ及び絞り32を介して、撮像素子33に入射する。光学系35を構成する各レンズは、被写体の光学像を撮像素子33上に結像させる。   Incident light from the subject enters the image sensor 33 through the lenses and the diaphragm 32 constituting the optical system 35. Each lens constituting the optical system 35 forms an optical image of the subject on the image sensor 33.

撮像素子33は、例えばCCD(Charge Coupled Devices)やCMOS(Complementary Metal Oxide Semiconductor)イメージセンサからなる。撮像素子33は、光学系35及び絞り32を介して入射した光学像を光電変換し、該光電変換によって得られた電気信号をAFE12に出力する。より具体的には、撮像素子33は、マトリクス状に二次元配列された複数の画素(受光画素;不図示)を備え、各撮影において、各画素は露光時間に応じた電荷量の信号電荷を蓄える。蓄えた信号電荷の電荷量に比例した大きさを有する各画素からの電気信号は、タイミングジェネレータ(不図示)からの駆動パルスに従って、後段のAFE12に順次出力される。   The image sensor 33 is composed of, for example, a charge coupled device (CCD) or a complementary metal oxide semiconductor (CMOS) image sensor. The image sensor 33 photoelectrically converts an optical image incident through the optical system 35 and the diaphragm 32 and outputs an electrical signal obtained by the photoelectric conversion to the AFE 12. More specifically, the imaging device 33 includes a plurality of pixels (light receiving pixels; not shown) that are two-dimensionally arranged in a matrix, and in each photographing, each pixel receives a signal charge having a charge amount corresponding to the exposure time. store. The electrical signal from each pixel having a magnitude proportional to the amount of stored signal charge is sequentially output to the subsequent AFE 12 in accordance with a drive pulse from a timing generator (not shown).

AFE12は、撮像部11(撮像素子33)から出力されるアナログ信号を増幅し、増幅されたアナログ信号をデジタル信号に変換する。AFE12は、このデジタル信号を、順次、制御部13に出力する。   The AFE 12 amplifies the analog signal output from the imaging unit 11 (image sensor 33), and converts the amplified analog signal into a digital signal. The AFE 12 sequentially outputs this digital signal to the control unit 13.

制御部13は、CPU(Central Processing Unit)、ROM(Read Only Memory)及びRAM(Random Access Memory)等を備え、映像信号処理部としても機能する。制御部13は、AFE12の出力信号に基づいて、撮像部11によって撮影された画像(以下、「撮影画像」ともいう)を表す映像信号を生成する。   The control unit 13 includes a CPU (Central Processing Unit), a ROM (Read Only Memory), a RAM (Random Access Memory), and the like, and also functions as a video signal processing unit. Based on the output signal of the AFE 12, the control unit 13 generates a video signal representing an image captured by the imaging unit 11 (hereinafter also referred to as “captured image”).

制御部13は、撮影画像中のフォーカス検出領域内のコントラスト量に応じたAF評価値を検出するAF評価値検出部21を含む。図3は、このAF評価値検出部21の内部ブロック図である。AF評価値検出部21は、抽出部41、HPF(ハイパスフィルタ)42及び積算部43を、有して構成される。   The control unit 13 includes an AF evaluation value detection unit 21 that detects an AF evaluation value corresponding to the contrast amount in the focus detection region in the captured image. FIG. 3 is an internal block diagram of the AF evaluation value detection unit 21. The AF evaluation value detection unit 21 includes an extraction unit 41, an HPF (high pass filter) 42, and an integration unit 43.

抽出部41は、撮影画像を表す映像信号より輝度信号を抽出する。この際、撮影画像の、フォーカス検出領域内の輝度信号のみを抽出する。HPF42は、抽出部41によって抽出された輝度信号中の所定の高域周波数成分のみを抽出する。   The extraction unit 41 extracts a luminance signal from a video signal representing a captured image. At this time, only the luminance signal in the focus detection area of the captured image is extracted. The HPF 42 extracts only a predetermined high frequency component from the luminance signal extracted by the extraction unit 41.

積算部43は、HPF42によって抽出された高域周波数成分を積算することにより、フォーカス検出領域内の画像のコントラスト量に応じたAF評価値を求める。AF評価値は、撮影画像ごとに算出される。AF評価値は、該コントラスト量に概ね比例し、該コントラスト量が増大するにつれて増大する。そして、フォーカスレンズ31の位置が光軸方向に変化するに従い、画像のコントラスト量は変化し、AF評価値も変化する。   The accumulating unit 43 obtains an AF evaluation value corresponding to the contrast amount of the image in the focus detection area by accumulating the high frequency components extracted by the HPF 42. The AF evaluation value is calculated for each captured image. The AF evaluation value is approximately proportional to the contrast amount, and increases as the contrast amount increases. As the position of the focus lens 31 changes in the optical axis direction, the contrast amount of the image changes and the AF evaluation value also changes.

通常、制御部13は、AF評価値が最大値(付近)に保たれるように所謂山登り演算を用いて、ドライバ34を介してフォーカスレンズ31の位置を制御する。この結果、同一の光学像に対する、フォーカス検出領域内の画像のコントラスト量は最大値(付近)に保たれる。つまり、フォーカス検出領域内に収まる被写体の光学像が撮像素子33上に結像するように、フォーカスレンズ31の位置は制御される(フォーカス検出領域内に収まる被写体にピントが合う)。   Normally, the control unit 13 controls the position of the focus lens 31 via the driver 34 using a so-called hill climbing operation so that the AF evaluation value is maintained at the maximum value (near). As a result, the contrast amount of the image in the focus detection region with respect to the same optical image is kept at the maximum value (near). That is, the position of the focus lens 31 is controlled so that the optical image of the subject that falls within the focus detection area is formed on the image sensor 33 (the subject that falls within the focus detection area is focused).

制御部13は、更に、撮影画像の明るさに応じたAE評価値を検出するAE評価値検出部22を含む。   The control unit 13 further includes an AE evaluation value detection unit 22 that detects an AE evaluation value corresponding to the brightness of the captured image.

AE評価値検出部22は、撮影画像を表す映像信号より輝度信号を抽出する。この際、各撮影画像の、明るさ評価領域内の輝度信号のみを抽出する。AE評価値検出部23は、抽出した明るさ評価領域内についての輝度信号を積算することにより、明るさ評価領域内の画像の明るさに比例したAE評価値を求める。AE評価値は、撮影画像ごとに算出される。   The AE evaluation value detection unit 22 extracts a luminance signal from a video signal representing a captured image. At this time, only the luminance signal in the brightness evaluation area of each captured image is extracted. The AE evaluation value detection unit 23 obtains an AE evaluation value proportional to the brightness of the image in the brightness evaluation area by integrating the luminance signals in the extracted brightness evaluation area. The AE evaluation value is calculated for each captured image.

通常、制御部13は、逐次算出されるAE評価値が一定値に保たれるように、ドライバ34を介して絞り32の開度を制御する。光学系35に入射する光学像が同じである場合、絞り32の開度が大きくなるに従って、撮像素子33への単位時間当たりの入射光量は増大し、輝度信号の値は増大する。   Normally, the control unit 13 controls the opening degree of the diaphragm 32 via the driver 34 so that the sequentially calculated AE evaluation value is maintained at a constant value. When the optical images incident on the optical system 35 are the same, the amount of incident light per unit time on the image sensor 33 increases and the value of the luminance signal increases as the aperture of the diaphragm 32 increases.

図1の顔検出部14は、各撮影画像の中から人物の顔を検出して、顔を含む顔領域を抽出する。顔検出部14の検出結果を受け、制御部13は、画像上における、顔の大きさや位置を認識する。画像中に含まれる顔を検出する手法として様々な手法が知られており、顔検出部14は何れの手法をも採用可能である。例えば、特開2000−105819号公報に記載の手法のように撮影画像から肌色領域を抽出することによって顔(顔領域)を検出しても良いし、特開2006−211139号公報、特開2006−72770号公報又は上記特許文献1に記載の手法を用いて顔(顔領域)を検出しても良い。   The face detection unit 14 in FIG. 1 detects a person's face from each captured image, and extracts a face area including the face. Receiving the detection result of the face detection unit 14, the control unit 13 recognizes the size and position of the face on the image. Various methods are known as methods for detecting a face included in an image, and the face detection unit 14 can employ any method. For example, a face (face area) may be detected by extracting a skin color area from a photographed image as in the technique described in Japanese Patent Application Laid-Open No. 2000-105819, or Japanese Patent Application Laid-Open No. 2006-21139 and Japanese Patent Application Laid-Open No. 2006. A face (face area) may be detected using the technique described in Japanese Patent No. -72770 or the above-mentioned Patent Document 1.

典型的には例えば、入力画像(即ち、撮影画像)内に設定された着目領域の画像と所定の画像サイズを有する基準顔画像とを対比して両画像の類似度を判定し、その類似度に基づいて着目領域に顔が含まれているか否か(着目領域が顔領域であるか否か)を検出する。類似判定は、顔であるか否かを識別するのに有効な特徴量を抽出することによって行う。特徴量は、水平エッジ、垂直エッジ、右斜めエッジ、左斜めエッジ等である。   Typically, for example, the similarity between both images is determined by comparing the image of the region of interest set in the input image (that is, the captured image) with a reference face image having a predetermined image size. Based on this, it is detected whether or not a face is included in the region of interest (whether or not the region of interest is a face region). The similarity determination is performed by extracting a feature amount effective for identifying whether the face is a face. The feature amount is a horizontal edge, a vertical edge, a right diagonal edge, a left diagonal edge, or the like.

入力画像において着目領域は一画素ずつ左右方向又は上下方向にずらされる。そして、ずらされた後の着目領域の画像と基準顔画像とが対比されて、再度、両画像の類似度が判定され、同様の検出が行われる。このように、着目領域は、例えば入力画像の左上から右下方向に向けて1画素ずつずらされながら、更新設定される。   In the input image, the region of interest is shifted in the horizontal direction or the vertical direction pixel by pixel. Then, the image of the region of interest after the shift is compared with the reference face image, the similarity between both images is determined again, and the same detection is performed. In this way, the region of interest is updated and set, for example, while being shifted pixel by pixel from the upper left to the lower right of the input image.

また、入力画像(即ち、撮影画像)を一定割合で縮小し、縮小後の画像に対して、同様の顔検出処理を行う。このような処理を繰り返すことにより、入力画像中から任意の大きさの顔を検出することができる。   Further, the input image (that is, the photographed image) is reduced at a certain rate, and the same face detection process is performed on the reduced image. By repeating such processing, a face of any size can be detected from the input image.

図1の表示部15は、液晶ディスプレイパネル等から成る表示装置であり、直前のフレームにて撮影された画像や記録媒体16に記録されている画像などを表示する。制御部13は、表示部15の表示内容を制御する。記録媒体16は、SD(Secure Digital)メモリカード等の不揮発性メモリであり、制御部13による制御の下、撮影画像などを記憶する。操作部17は、シャッタボタン17a及び所謂十字キー(不図示)等から成り、外部からの操作を受け付ける。操作部17に対する操作内容は、制御部13に伝達される。   The display unit 15 in FIG. 1 is a display device including a liquid crystal display panel and the like, and displays an image taken in the immediately preceding frame, an image recorded on the recording medium 16, and the like. The control unit 13 controls the display content of the display unit 15. The recording medium 16 is a non-volatile memory such as an SD (Secure Digital) memory card, and stores captured images and the like under the control of the control unit 13. The operation unit 17 includes a shutter button 17a, a so-called cross key (not shown), and the like, and accepts an operation from the outside. The operation content for the operation unit 17 is transmitted to the control unit 13.

撮像装置1の動作モードには、静止画(及び動画)の撮影が可能な撮影モードと、記録媒体16に記録された静止画(及び動画)を表示部15に再生表示する再生モードと、が含まれる。操作部17に対する操作に応じて、各モード間の遷移は実施される。撮影モードでは、シャッタボタン17aが押下されているか否かに拘らず、所定のフレーム周期(例えば、1/60秒)にて順次撮影が行われ、順次得られる撮影画像は表示部15に更新表示される(所謂プレビュー表示が行われる)。   The operation modes of the imaging apparatus 1 include a shooting mode in which still images (and moving images) can be shot, and a playback mode in which still images (and moving images) recorded on the recording medium 16 are played back and displayed on the display unit 15. included. Transition between the modes is performed according to the operation on the operation unit 17. In the shooting mode, regardless of whether the shutter button 17a is pressed or not, the shooting is sequentially performed at a predetermined frame period (for example, 1/60 seconds), and the sequentially obtained captured images are updated and displayed on the display unit 15. (So-called preview display is performed).

そして、操作部17に対して所定の操作を施すことにより、撮影モードにおいて、ブラケット撮影(特殊撮影)を行うことが可能となっている。説明の便宜上、このブラケット撮影を実行する撮影モードをブラケット撮影モードという。ブラケット撮影モードは、撮影モードに含まれる1つの動作モードである。   Then, by performing a predetermined operation on the operation unit 17, bracket shooting (special shooting) can be performed in the shooting mode. For convenience of explanation, the photographing mode for executing the bracket photographing is referred to as a bracket photographing mode. The bracket shooting mode is one operation mode included in the shooting mode.

以下、ブラケット撮影モードに着目した実施例として、第1〜第3実施例を例示する。或る実施例に記載した事項は、矛盾なき限り、他の実施例にも適用可能である。   Hereinafter, first to third examples will be illustrated as examples focusing on the bracket photographing mode. The matters described in one embodiment can be applied to other embodiments as long as no contradiction arises.

<<第1実施例>>
まず、第1実施例について説明する。ブラケット撮影モードでは、顔検出部14による顔検出機能が利用される。具体的な例として、第1実施例では、撮影領域内に3つの顔が含まれている場合の動作を説明する。図4は、この3つの顔を被写体として含んだ撮影画像を表している。これら3つの顔を、夫々、顔F1、F2及びF3と呼ぶことにする。尚、図4及び顔の図示を含む後述の各図において、図示の煩雑化防止のため、顔以外の人体の構成要素(胴体や手足など)の図示を省略している。
<< First Example >>
First, the first embodiment will be described. In the bracket shooting mode, the face detection function by the face detection unit 14 is used. As a specific example, in the first embodiment, an operation in the case where three faces are included in the imaging region will be described. FIG. 4 shows a photographed image including these three faces as subjects. These three faces will be referred to as faces F1, F2, and F3, respectively. In FIG. 4 and each of the drawings described later including the illustration of the face, the components of the human body other than the face (such as the torso and limbs) are not shown in order to prevent the illustration from becoming complicated.

図4に示すような撮影画像が顔検出部14に入力されると、顔検出部14は、その撮影画像の中から顔F1、F2及びF3を検出して、顔F1を含む顔領域RF1、顔F2を含む顔領域RF2及び顔F3を含む顔領域RF3を抽出する。各顔領域の外形形状は、検出された顔の外形形状と一致する。各顔領域を、顔を囲む最小の矩形領域として定義しても良い。 When a captured image as shown in FIG. 4 is input to the face detection unit 14, the face detection unit 14 detects faces F1, F2, and F3 from the captured image, and a face region R F1 including the face F1. The face area R F2 including the face F2 and the face area R F3 including the face F3 are extracted. The outer shape of each face area matches the outer shape of the detected face. Each face area may be defined as the smallest rectangular area surrounding the face.

制御部13(又は顔検出部14)は、画像上における顔領域RF1、RF2及びRF3の大きさ(即ち、画像上における顔F1、F2及びF3の大きさ)を算出する。画像上における顔領域の大きさは、該顔領域の面積或いは該顔領域を構成する画素数で表される。今の例の場合、顔領域RF1、RF2及びRF3の内、顔領域RF1の大きさが最も大きいものとする(換言すれば、顔F1、F2及びF3の内、顔F3の大きさが最も大きいものとする)。 The control unit 13 (or the face detection unit 14) calculates the sizes of the face regions R F1 , R F2 and R F3 on the image (that is, the sizes of the faces F1, F2 and F3 on the image). The size of the face area on the image is represented by the area of the face area or the number of pixels constituting the face area. In the case of the present example, it is assumed that the size of the face region R F1 is the largest among the face regions R F1 , R F2 and R F3 (in other words, the size of the face F3 among the faces F1, F2 and F3) Is the largest).

そして、制御部13は、顔領域RF1、RF2及びRF3の位置関係を評価し、画像上において、最も中央に近い顔領域RF1、RF2及びRF3を特定する。例えば、図5に示す如く、顔領域RF1、RF2及びRF3の中心位置CF1、CF2及びCF3を算出する。図5において、COは、撮影画像全体の中央点を表している。画像上において、各中心位置は、画像の原点Xを基準とした、水平座標と垂直座標によって表される。制御部13は、中心位置CF1、CF2及びCF3と中央点COとの各距離を算出して、各距離同士を比較し、最も距離が短い中心位置に対応する顔領域を、最も中央に近い顔領域として特定する。今の例の場合、顔F2についての中心位置CF2が中央点COに最も近いため、顔領域RF2が最も中央に近い顔領域として特定される。 Then, the control unit 13 evaluates the positional relationship of the face region R F1, R F2 and R F3, on the image, middle-most face region R F1, identifies the R F2 and R F3. For example, as shown in FIG. 5, and calculates the center position C F1, C F2 and C F3 of the face area R F1, R F2 and R F3. In FIG. 5, C O represents the center point of the entire captured image. On the image, each center position is represented by a horizontal coordinate and a vertical coordinate based on the origin X of the image. The control unit 13 calculates the distances between the center positions C F1 , C F2 and C F3 and the center point C O , compares the distances, and determines the face region corresponding to the center position with the shortest distance as the most. The face area near the center is specified. In the present example, since the center position C F2 for the face F2 is closest to the center point C O , the face area R F2 is specified as the face area closest to the center.

[撮影パラメータ生成]
図4及び図5に示す撮影画像が得られた場合、パラメータ生成手段としても機能する制御部13は、4つの撮影パラメータを生成する。各撮影パラメータは、ブラケット撮影における撮影条件を表しており、具体的には、図2のフォーカスレンズ31の位置と絞り32の開度を定める。この4つの撮影パラメータを、第1、第2、第3及び第4の撮影パラメータと呼ぶ。
[Shooting parameter generation]
When the captured images shown in FIGS. 4 and 5 are obtained, the control unit 13 that also functions as a parameter generation unit generates four imaging parameters. Each shooting parameter represents a shooting condition in bracket shooting. Specifically, the position of the focus lens 31 and the opening of the diaphragm 32 in FIG. These four shooting parameters are referred to as first, second, third, and fourth shooting parameters.

第1の撮影パラメータは、顔F1〜F3の内、最も中央に位置する顔F2の撮影に適した撮影パラメータ(中央優先パラメータ)とされる。第1の撮影パラメータの作成に際して、図6(a)に示す如く、画像上に顔F2に着目した領域102が定義される。領域102は、例えば、顔領域RF2そのもの、或いは、顔領域RF2を含む矩形領域、或いは、顔領域RF2に内包される矩形領域(顔F2の一部を含む矩形領域)である。図6(a)は、領域102が顔領域RF2を含む矩形領域である場合を例示している(後述する領域101及び103も同様)。 The first shooting parameter is a shooting parameter (center priority parameter) suitable for shooting the face F2 located at the center of the faces F1 to F3. When creating the first shooting parameter, as shown in FIG. 6A, an area 102 focused on the face F2 is defined on the image. The area 102 is, for example, the face area R F2 itself, a rectangular area including the face area R F2 , or a rectangular area included in the face area R F2 (a rectangular area including a part of the face F2). FIG. 6A illustrates a case where the region 102 is a rectangular region including the face region R F2 (the same applies to regions 101 and 103 described later).

制御部13は、領域102をフォーカス検出領域として取り扱って算出されたAF評価値に基づき、そのAF評価値が最大となるような、即ち、領域102に収まる被写体についての光学像が撮像素子33上で結像するような、フォーカスレンズ31の位置を算出する。領域102に着目して算出された、このフォーカスレンズ31の位置を、位置P1という。位置P1は、第1の撮影パラメータに含められる。 Based on the AF evaluation value calculated by treating the area 102 as the focus detection area, the control unit 13 generates an optical image on the image sensor 33 such that the AF evaluation value is maximized, that is, the subject that falls within the area 102. The position of the focus lens 31 that forms an image is calculated. The position of the focus lens 31 calculated by paying attention to the region 102 is referred to as a position P 1 . The position P 1 is included in the first imaging parameter.

また、制御部13は、領域102を明るさ評価領域として取り扱って算出されたAE評価値に基づき、そのAE評価値が所定値となるような、即ち、領域102内の画像の明るさが所定の明るさとなるような、絞り32の開度を算出する。領域102に着目して算出された、この絞り32の開度を、開度O1という。開度O1は、第1の撮影パラメータに含められる。 Further, the control unit 13 sets the AE evaluation value to a predetermined value based on the AE evaluation value calculated by treating the area 102 as the brightness evaluation area, that is, the brightness of the image in the area 102 is predetermined. The aperture of the diaphragm 32 is calculated so that the brightness becomes. The opening degree of the diaphragm 32 calculated by paying attention to the region 102 is referred to as an opening degree O 1 . The opening degree O 1 is included in the first imaging parameter.

第2の撮影パラメータは、顔F1〜F3の内、最も大きさが大きい顔F1の撮影に適した撮影パラメータ(サイズ優先パラメータ)とされる。第2の撮影パラメータの作成に際して、図6(b)に示す如く、画像上に顔F1に着目した領域101が定義される。領域101は、例えば、顔領域RF1そのもの、或いは、顔領域RF1を含む矩形領域、或いは、顔領域RF1に内包される矩形領域(顔F1の一部を含む矩形領域)である。 The second shooting parameter is a shooting parameter (size priority parameter) suitable for shooting the face F1 having the largest size among the faces F1 to F3. When creating the second imaging parameter, as shown in FIG. 6B, an area 101 focusing on the face F1 is defined on the image. The area 101 is, for example, the face area R F1 itself, a rectangular area including the face area R F1 , or a rectangular area included in the face area R F1 (a rectangular area including a part of the face F1).

制御部13は、領域101をフォーカス検出領域として取り扱って算出されたAF評価値に基づき、そのAF評価値が最大となるような、即ち、領域101に収まる被写体についての光学像が撮像素子33上で結像するような、フォーカスレンズ31の位置(これを、位置P2という)を算出する。 Based on the AF evaluation value calculated by treating the area 101 as the focus detection area, the control unit 13 generates an optical image on the image sensor 33 such that the AF evaluation value is maximized, that is, the subject that falls within the area 101. The position of the focus lens 31 (this is referred to as the position P 2 ) that forms an image at is calculated.

また、制御部13は、領域101を明るさ評価領域として取り扱って算出されたAE評価値に基づき、そのAE評価値が所定値となるような、即ち、領域101内の画像の明るさが所定の明るさとなるような、絞り32の開度(これを、開度O2という)を算出する。位置P2及び開度O2は、第2の撮影パラメータに含められる。 Further, the control unit 13 sets the AE evaluation value to a predetermined value based on the AE evaluation value calculated by treating the area 101 as the brightness evaluation area, that is, the brightness of the image in the area 101 is predetermined. The aperture of the diaphragm 32 (this is referred to as the aperture O 2 ) is calculated so that the brightness of The position P 2 and the opening degree O 2 are included in the second imaging parameter.

第3の撮影パラメータは、顔F1〜F3を均等に取り扱った撮影パラメータ(全顔平均パラメータ)とされる。第3の撮影パラメータの作成に際して、図6(c)に示す如く、領域101及び102に加えて、画像上に顔F3に着目した領域103が定義される。領域103は、例えば、顔領域RF3そのもの、或いは、顔領域RF3を含む矩形領域、或いは、顔領域RF3に内包される矩形領域(顔F3の一部を含む矩形領域)である。 The third shooting parameter is a shooting parameter (all face average parameter) in which the faces F1 to F3 are handled equally. When creating the third imaging parameter, as shown in FIG. 6C, in addition to the areas 101 and 102, an area 103 focused on the face F3 is defined on the image. The area 103 is, for example, the face area R F3 itself, a rectangular area including the face area R F3 , or a rectangular area included in the face area R F3 (a rectangular area including a part of the face F3).

制御部13は、領域101、102及び103の合計領域をフォーカス検出領域として取り扱って算出されたAF評価値に基づき、そのAF評価値が最大となるような、即ち、領域101、102及び103に収まる被写体についての光学像が平均的に撮像素子33上で結像するような、フォーカスレンズ31の位置(これを、位置P3という)を算出する。領域101、102及び103の合計領域をフォーカス検出領域としているため、顔F1、F2及びF3についての結像点は撮像素子33上にない場合もある。 Based on the AF evaluation value calculated by treating the total area of the areas 101, 102, and 103 as the focus detection area, the control unit 13 maximizes the AF evaluation value, that is, in the areas 101, 102, and 103. The position of the focus lens 31 (this is referred to as position P 3 ) is calculated such that an optical image of the subject that falls within the image is averaged on the image sensor 33. Since the total area of the areas 101, 102, and 103 is the focus detection area, the image formation points for the faces F 1, F 2, and F 3 may not be on the image sensor 33.

また、制御部13は、領域101、102及び103の合計領域を明るさ評価領域として取り扱って算出されたAE評価値に基づき、そのAE評価値が所定値となるような、即ち、領域101、102及び103の合計領域内の画像の明るさ(平均的明るさ)が所定の明るさとなるような、絞り32の開度(これを、開度O3という)を算出する。位置P3及び開度O3は、第3の撮影パラメータに含められる。 Further, the control unit 13 sets the AE evaluation value to a predetermined value based on the AE evaluation value calculated by treating the total area of the areas 101, 102, and 103 as the brightness evaluation area, that is, the area 101, The opening degree of the diaphragm 32 (this is called the opening degree O 3 ) is calculated so that the brightness (average brightness) of the images in the total area of 102 and 103 becomes a predetermined brightness. The position P 3 and the opening degree O 3 are included in the third imaging parameter.

第4の撮影パラメータは、撮影領域全体を平均的に着目した撮影パラメータ(全体平均パラメータ)とされる。第4の撮影パラメータの作成に際して、図6(d)に示す如く、領域104が定義される。領域104は、例えば、撮影画像の全体領域、或いは、撮影画像の全体領域よりも若干小さい矩形領域とされる。領域104を定義するに際して、顔検出の結果は利用されない。   The fourth imaging parameter is an imaging parameter (overall average parameter) that focuses on the entire imaging area on average. When creating the fourth imaging parameter, an area 104 is defined as shown in FIG. The area 104 is, for example, an entire area of the captured image or a rectangular area slightly smaller than the entire area of the captured image. In defining the area 104, the result of face detection is not used.

制御部13は、領域104をフォーカス検出領域として取り扱って算出されたAF評価値に基づき、そのAF評価値が最大となるような、即ち、領域104に収まる被写体についての光学像が平均的に撮像素子33上で結像するような、フォーカスレンズ31の位置(これを、位置P4という)を算出する。 Based on the AF evaluation value calculated by treating the area 104 as the focus detection area, the control unit 13 takes an average optical image of the subject that maximizes the AF evaluation value, that is, the subject that falls within the area 104. The position of the focus lens 31 that forms an image on the element 33 (this is called the position P 4 ) is calculated.

また、制御部13は、領域104を明るさ評価領域として取り扱って算出されたAE評価値に基づき、そのAE評価値が所定値となるような、即ち、領域104内の画像の明るさ(平均的明るさ)が所定の明るさとなるような、絞り32の開度(これを、開度O4という)を算出する。位置P4及び開度O4は、第4の撮影パラメータに含められる。 Further, the control unit 13 determines that the AE evaluation value becomes a predetermined value based on the AE evaluation value calculated by treating the area 104 as the brightness evaluation area, that is, the brightness (average) of the image in the area 104. The opening of the diaphragm 32 (this is referred to as the opening O 4 ) is calculated such that the target brightness becomes a predetermined brightness. The position P 4 and the opening degree O 4 are included in the fourth imaging parameter.

[撮影パラメータに基づくブラケット撮影]
ブラケット撮影モードにおいて、シャッタボタン17aを押下することにより、制御部13は、第1、第2、第3及び第4の撮影パラメータを適用してフォーカスレンズ31の位置及び絞り32の開度を制御しつつブラケット撮影を行い、これによって撮像部11から4枚の撮影画像(静止画)得る。この4枚の撮影画像を、第1、第2、第3及び第4のブラケット画像と呼ぶ。第1〜第4のブラケット画像は、連続的に撮影される(即ち、連続撮影される)。第1、第2、第3及び第4のブラケット画像は、夫々、第1、第2、第3及び第4の撮影パラメータに対応する。
[Bracket shooting based on shooting parameters]
In the bracket shooting mode, by pressing the shutter button 17a, the control unit 13 applies the first, second, third, and fourth shooting parameters to control the position of the focus lens 31 and the opening of the diaphragm 32. However, bracket shooting is performed, and thereby four captured images (still images) are obtained from the imaging unit 11. These four captured images are referred to as first, second, third, and fourth bracket images. The first to fourth bracket images are continuously photographed (that is, continuously photographed). The first, second, third, and fourth bracket images correspond to the first, second, third, and fourth imaging parameters, respectively.

つまり、第1のブラケット画像は、フォーカスレンズ31の位置を位置P1とし且つ絞り32の開度を開度O1とした上で撮影された画像であり、第2のブラケット画像は、フォーカスレンズ31の位置を位置P2とし且つ絞り32の開度を開度O2とした上で撮影された画像であり、第3のブラケット画像は、フォーカスレンズ31の位置を位置P3とし且つ絞り32の開度を開度O3とした上で撮影された画像であり、第4のブラケット画像は、フォーカスレンズ31の位置を位置P4とし且つ絞り32の開度を開度O4とした上で撮影された画像である。 That is, the first bracket image is an image that is taken after setting the position of the focus lens 31 to the position P 1 and the opening degree of the aperture 32 to the opening degree O 1, and the second bracket image is the focus lens. The third bracket image is an image taken with the position 31 as the position P 2 and the opening degree of the diaphragm 32 as the opening degree O 2. The third bracket image has the position of the focus lens 31 as the position P 3 and the diaphragm 32. opening a a captured image on which the opening O 3, fourth bracket image, on the opening position P 4 and to and aperture 32 the position of the focus lens 31 and the opening O 4 This is an image taken in

第1〜第4の撮影パラメータの適用順序(換言すれば、第1〜第4のブラケット画像の撮影順序)の決定手法については後述するとして、今、第1、第2、第3及び第4の撮影パラメータの順番で撮影パラメータを適用することにより、第1、第2、第3、第4のブラケット画像の順番で撮影が行われたものとする。   A method for determining the application order of the first to fourth imaging parameters (in other words, the imaging order of the first to fourth bracket images) will be described later, and the first, second, third, and fourth are now described. It is assumed that shooting is performed in the order of the first, second, third, and fourth bracket images by applying the shooting parameters in the order of the shooting parameters.

図7は、第1〜第4のブラケット画像が撮影された後の、表示部15の表示画面を表す。表示画面の全表示領域には、互いに異なる表示領域111、112、113及び114が含まれ、表示領域111、112、113及び114に、夫々、第1、第2、第3、第4のブラケット画像を表示される。図7に示す如く、第1〜第4のブラケット画像は、同一の表示画面上に並べられて同時表示される(即ち、一覧表示される)。撮影者は、この一覧表示を視ることによって、容易に各ブラケット画像を確認することができる。   FIG. 7 shows a display screen of the display unit 15 after the first to fourth bracket images are taken. The entire display area of the display screen includes display areas 111, 112, 113, and 114 that are different from each other, and the display areas 111, 112, 113, and 114 include first, second, third, and fourth brackets, respectively. An image is displayed. As shown in FIG. 7, the first to fourth bracket images are arranged on the same display screen and simultaneously displayed (that is, displayed as a list). The photographer can easily confirm each bracket image by viewing the list display.

尚、図7(及び後述する図8)の各画像では、図6の領域101〜104の外形を表す四角枠が示されているが、表示画面上において、それらの四角枠を表示するか否かは任意である。また、第1、第2、第3、第4のブラケット画像を、顔の写り具合が良い順に並べて表示画面上に表示しても良い。例えば、各ブラケット画像から人物の目の領域を抽出して画像解析により目の開閉状態を検出する。そして、目が閉じている顔に対応するブラケット画像は、顔の映り具合が比較的悪く、目が開いている顔に対応するブラケット画像は、顔の映り具合が比較的良いと判断する。   In each image of FIG. 7 (and FIG. 8 to be described later), a square frame representing the outer shape of the areas 101 to 104 in FIG. 6 is shown, but whether or not these square frames are displayed on the display screen. Is optional. In addition, the first, second, third, and fourth bracket images may be displayed on the display screen side by side in the order that the appearance of the face is good. For example, a human eye region is extracted from each bracket image, and the eye open / closed state is detected by image analysis. Then, it is determined that the bracket image corresponding to the face with closed eyes has a relatively poor face appearance, and the bracket image corresponding to the face with open eyes has a relatively good face appearance.

ユーザは、操作部17を用い、第1〜第4のブラケット画像を好みの順番で選択していくことで(即ち、第1〜第4のブラケット画像に対して順序付けを施すことで)、表示画面上における各ブラケット画像の表示位置を変更することができる。例えば、操作部17に対して所定の操作を施すことにより、第2、第3、第1、第4のブラケット画像の順番で各ブラケット画像を選択したとする。この選択によって、図8に示す如く、表示領域111、112、113及び114に、夫々、第2、第3、第1、第4のブラケット画像が表示されるようになる。   The user uses the operation unit 17 to select the first to fourth bracket images in the order of preference (that is, by ordering the first to fourth bracket images), thereby displaying The display position of each bracket image on the screen can be changed. For example, suppose that each bracket image is selected in the order of the second, third, first, and fourth bracket images by performing a predetermined operation on the operation unit 17. By this selection, as shown in FIG. 8, the second, third, first, and fourth bracket images are displayed in the display areas 111, 112, 113, and 114, respectively.

また、第1〜第4のブラケット画像は、撮影と同時に、記録媒体16にファイル名を付けて記憶されていくのであるが、上記の選択によって、該ファイル名は変更可能である。つまり例えば、第1、第2、第3、第4のブラケット画像は、当初、夫々、image001_01、image001_02、image001_03、image001_04というファイル名が付された上で記録媒体16に記録されるのであるが、第2、第3、第1、第4のブラケット画像の順番で各ブラケット画像を選択することによって、第1のブラケット画像に対応するファイル名はimage001_03に、第2のブラケット画像に対応するファイル名はimage001_01に、第3のブラケット画像に対応するファイル名はimage001_02に変更される。   In addition, the first to fourth bracket images are stored with file names attached to the recording medium 16 at the same time as shooting, but the file names can be changed by the above selection. That is, for example, the first, second, third, and fourth bracket images are initially recorded on the recording medium 16 with the file names image001_01, image001_02, image001_03, and image001_04, respectively. By selecting each bracket image in the order of the second, third, first, and fourth bracket images, the file name corresponding to the first bracket image is image001_03 and the file name corresponding to the second bracket image. Is changed to image001_01, and the file name corresponding to the third bracket image is changed to image001_02.

このように、操作部17は、4枚のブラケット画像を順序付けるための順序付け指示を受け付け、制御部13は、この順序付け指示に従って、一覧表示における各ブラケット画像の表示位置(表示順序)及び各ブラケット画像に対応するファイル名を変更する。ユーザの好み順に応じてファイル名を付すことによって、ファイル管理上の便宜が図られる。順序付け指示は、上述の如く例えば、第1〜第4のブラケット画像を順番に選択するという、操作部17に対する操作によって実現される。   In this way, the operation unit 17 receives an ordering instruction for ordering the four bracket images, and the control unit 13 follows the ordering instruction to display the display position (display order) of each bracket image in the list display and each bracket. Change the file name corresponding to the image. File management is facilitated by assigning file names according to user preference order. As described above, the ordering instruction is realized by, for example, an operation on the operation unit 17 that sequentially selects the first to fourth bracket images.

また、上記の順序付け指示によって、各撮影パラメータ間の順序付けを実行することもできる。例えば、第2、第3、第1、第4のブラケット画像の順番で各ブラケット画像を選択することにより、第2、第3、第1、第4のブラケット画像の順番で順序付けがなされた場合を考える。この場合、これに合わせて各撮影パラメータ間を順序付け、この各撮影パラメータ間の順序付けを、次回以降のブラケット撮影に際して利用する。   Further, it is possible to execute the ordering between the shooting parameters by the ordering instruction. For example, when the order is made in the order of the second, third, first, and fourth bracket images by selecting the bracket images in the order of the second, third, first, and fourth bracket images. think of. In this case, the respective shooting parameters are ordered in accordance with this, and the ordering between the respective shooting parameters is used in the next bracket shooting.

例えば、次回以降のブラケット撮影に際して、図4と同様、撮影領域内に3つの顔が存在している場合は、
「3つの顔の内、最も大きさが大きい顔の撮影に適した撮影パラメータ(上記の第2の撮影パラメータに相当)」を適用した撮影を最初に行い、
「3つの顔を均等に取り扱った撮影パラメータ(上記の第3の撮影パラメータに相当)」を適用した撮影を2番目に行い、
「3つの顔の内、最も中央に位置する顔の撮影に適した撮影パラメータ(上記の第1の撮影パラメータに相当)」を適用した撮影を3番目に行い、
「撮影領域全体を平均的に着目した撮影パラメータ(上記の第4の撮影パラメータに相当)」を適用した撮影を最後に行うようにする。
For example, when there are three faces in the shooting area in the bracket shooting from the next time, as in FIG.
First, taking a picture using “shooting parameters suitable for shooting the largest face among the three faces (corresponding to the second shooting parameter above)”,
Secondly, taking a picture using the "shooting parameters that handle three faces equally (corresponding to the third shooting parameter above)"
The third shooting is performed by applying the “shooting parameters suitable for shooting the face located at the center of the three faces (corresponding to the first shooting parameter described above)”.
Shooting is performed last by applying “shooting parameters focusing on the entire shooting area on average (corresponding to the fourth shooting parameter)”.

このように、今回のブラケット撮影に対する順序付け指示によって、次回以降のブラケット撮影における、各撮影パラメータの適用順序(換言すれば、各ブラケット画像の撮影順序)を定めるようにする。順序付け指示は、ユーザの、撮影パラメータ(撮影条件)の好みの順番を表すものと推測される。このため、上記の如くブラケット画像の撮影順序を定めることにより、次回以降のブラケット撮影において、ユーザがより好む撮影パラメータによるブラケット画像がシャッタボタン17a押下直後により近いタイミングで撮影されるようになる。つまり、ユーザの意図により合致した順序で撮影が行われるようになる。尚、上記の撮影順序を決定するために必要な情報(順序付け指示の内容など)は、適宜、記録媒体16に記録される。   In this manner, the order of application of the respective shooting parameters (in other words, the shooting order of the bracket images) is determined in the subsequent bracket shooting in accordance with the ordering instruction for the current bracket shooting. The ordering instruction is presumed to represent the user's preferred order of shooting parameters (shooting conditions). For this reason, by determining the shooting order of the bracket images as described above, the bracket image based on the shooting parameters that the user prefers is shot at a timing closer to the time immediately after the shutter button 17a is pressed in the next bracket shooting. That is, shooting is performed in an order that matches the user's intention. Information necessary for determining the shooting order (such as the contents of the ordering instruction) is appropriately recorded on the recording medium 16.

また、各撮影パラメータの適用順序を、上記の順序付け指示に基づくのではなく、ブラケット撮影期間における、フォーカスレンズ31の位置の変化方向の同一性及び/又は絞り32の開度の変化方向の同一性に基づいて、決定するようにしてもよい。   In addition, the application order of the shooting parameters is not based on the above-described ordering instruction, but the change direction of the focus lens 31 and / or the change direction of the aperture of the diaphragm 32 during the bracket shooting period. It may be determined based on the above.

例えば、上述の第1〜第4の撮影パラメータを生成した後、フォーカスレンズ31の位置を表す位置P1〜P4を参照し、第1〜第4のブラケット画像を連続撮影する間におけるフォーカスレンズ31の位置の変化方向が同一方向になるように、第1〜第4の撮影パラメータの適用順序を決定する。例えば、位置P1、P2、P3及びP4の順番でフォーカスレンズ31の位置が撮像素子33に近くなる場合、第1、第2、第3及び第4の撮影パラメータをこの順番で適用して各ブラケット画像を撮影する(これにより、第1、第2、第3及び第4のブラケット画像がこの順番で撮影される)。勿論、この逆の順番で撮影することも可能である。 For example, after generating the first to fourth shooting parameters, the focus lens during continuous shooting of the first to fourth bracket images with reference to the positions P 1 to P 4 representing the position of the focus lens 31. The application order of the first to fourth imaging parameters is determined so that the change direction of the position 31 is the same. For example, when the position of the focus lens 31 is close to the image sensor 33 in the order of the positions P 1 , P 2 , P 3 and P 4 , the first, second, third and fourth imaging parameters are applied in this order. Then, each bracket image is photographed (the first, second, third and fourth bracket images are photographed in this order). Of course, it is possible to shoot in the reverse order.

また例えば、上述の第1〜第4の撮影パラメータを生成した後、絞り32の開度を表す開度O1〜O4を参照し、第1〜第4のブラケット画像を連続撮影する間における絞り32の開度の変化方向が同一方向になるように、第1〜第4の撮影パラメータの適用順序を決定する。例えば、開度O1、O2、O3及びO4の順番で絞り32の開度が小さくなる場合、第1、第2、第3及び第4の撮影パラメータをこの順番で適用して各ブラケット画像を撮影する(これにより、第1、第2、第3及び第4のブラケット画像がこの順番で撮影される)。勿論、この逆の順番で撮影することも可能である。 Further, for example, after the first to fourth imaging parameters are generated, the opening O 1 to O 4 representing the opening of the diaphragm 32 is referred to and the first to fourth bracket images are continuously captured. The application order of the first to fourth imaging parameters is determined so that the direction of change in the opening of the diaphragm 32 is the same. For example, when the aperture of the diaphragm 32 decreases in the order of the apertures O 1 , O 2 , O 3 and O 4 , the first, second, third and fourth imaging parameters are applied in this order to A bracket image is photographed (the first, second, third and fourth bracket images are photographed in this order). Of course, it is possible to shoot in the reverse order.

このように各撮影パラメータの適用順序を定めることによりフォーカスレンズ31や絞り32の動きが連続的になるため、各ブラケット画像を得るための連続撮影時間が短縮され、被写体或いは撮影者にとってより望ましいタイミングで撮影を行うことが可能となる。   Since the movement of the focus lens 31 and the diaphragm 32 becomes continuous by determining the application order of each shooting parameter in this way, the continuous shooting time for obtaining each bracket image is shortened, and a more desirable timing for the subject or the photographer. It becomes possible to shoot with.

[ブラケット撮影の動作手順]
次に、図9を参照して、ブラケット撮影の動作手順を説明する。図9は、ブラケット撮影の動作手順を表すフローチャートである。この動作手順の説明の際、説明の具体化のため、上述した例示内容(撮影領域に3つの顔F1〜F3が含まれている等の例示内容)を適宜引用する。
[Bracketing operation procedure]
Next, an operation procedure of bracket shooting will be described with reference to FIG. FIG. 9 is a flowchart showing an operation procedure of bracket shooting. In the description of this operation procedure, the above-described example contents (example contents including three faces F1 to F3 included in the imaging region) are appropriately cited for the purpose of concrete description.

まず、ステップS1において、顔検出部14に撮影画像が与えられ、続くステップS2において、顔検出部14は該撮影画像から顔を検出して顔領域を抽出する。そして、ステップS3において、制御部13は、ステップS2の顔検出結果に基づいて複数の撮影パラメータを算出する。具体的には例えば、上述の第1〜第4の撮影パラメータが算出される。続くステップS4では、ステップS2及びS3の処理結果を参照しつつ、上述の如く過去のブラケット撮影に対する順序付け指示などに基づいて、各撮影パラメータの適用順序を設定する。ステップS4の処理を終えるとステップS5に移行する。   First, in step S1, a photographed image is given to the face detection unit 14, and in step S2, the face detection unit 14 detects a face from the photographed image and extracts a face region. In step S3, the control unit 13 calculates a plurality of shooting parameters based on the face detection result in step S2. Specifically, for example, the first to fourth imaging parameters described above are calculated. In the subsequent step S4, the application order of each shooting parameter is set based on the ordering instruction for the past bracket shooting as described above with reference to the processing results of steps S2 and S3. When the process of step S4 is completed, the process proceeds to step S5.

ステップS1〜S4の処理は、例えば、シャッタボタン17aを半押しした後に、実施される。シャッタボタン17aは、外力に応じて2段階に押下される。シャッタボタン17aに対する、比較的小さな外力によって半押しが実施され、比較的大きな外力によって全押しが実施される。   Steps S1 to S4 are performed after the shutter button 17a is half-pressed, for example. The shutter button 17a is pressed in two steps according to the external force. The shutter button 17a is half-pressed by a relatively small external force and is fully pressed by a relatively large external force.

ステップS5において、制御部13は、シャッタボタン17aが押下されたか否かを確認する。より具体的には、シャッタボタン17aが全押しされたか否かを確認する。ここにおけるシャッタボタン17aの全押しは、1つのブラケット撮影の実施を指示する。シャッタボタン17aの全押しが行われた場合はステップS6に移行し、行われていない場合はステップS5の処理が繰り返される。   In step S5, the control unit 13 confirms whether or not the shutter button 17a has been pressed. More specifically, it is confirmed whether or not the shutter button 17a is fully pressed. Here, full pressing of the shutter button 17a instructs execution of one bracket shooting. If the shutter button 17a is fully pressed, the process proceeds to step S6. If not, the process of step S5 is repeated.

ステップS6では、ステップS3にて算出された各撮影パラメータ及びステップS4にて設定された適用順序に従って、各ブラケット画像を順次撮影する。図4に示す例の場合、4枚のブラケット画像を順次撮影する。撮影された各ブラケット画像は、ファイル名を付されて記録媒体16に記録される。   In step S6, each bracket image is sequentially photographed according to each photographing parameter calculated in step S3 and the application order set in step S4. In the example shown in FIG. 4, four bracket images are sequentially captured. Each captured bracket image is recorded on the recording medium 16 with a file name.

各ブラケット画像の撮影が完了すると、ステップS7において、制御部13は表示部15に各ブラケット画像を一覧表示させる。これにより、表示部15の表示画面は、図7に示すような表示画面となる。   When the shooting of each bracket image is completed, in step S7, the control unit 13 causes the display unit 15 to display a list of each bracket image. Thereby, the display screen of the display unit 15 becomes a display screen as shown in FIG.

ステップS7に続くステップS8において、撮像装置1は、ユーザによる上記順序付け指示を受け付ける状態に移行する。この際、ユーザは、表示画面上に表示された各ブラケット画像を自分の好みの順番で選択することにより、各ブラケット画像に対する順序付けを行う。順序付け指示を受けると、ステップS9に移行する。   In step S8 following step S7, the imaging device 1 shifts to a state in which the ordering instruction from the user is received. At this time, the user orders each bracket image by selecting each bracket image displayed on the display screen in the order of his / her preference. When the ordering instruction is received, the process proceeds to step S9.

ステップS9では、ステップS8にて与えられた順序付け指示の内容に従い、必要に応じて、表示画面上における各ブラケット画像を並べ替えると共に各ブラケット画像に付されたファイル名を変更する。   In step S9, according to the contents of the ordering instruction given in step S8, the bracket images on the display screen are rearranged and the file names given to the bracket images are changed as necessary.

続くステップS10において、制御部13は、ステップS8にて与えられた順序付け指示の内容を記録媒体16に記録する。この記録内容は、次回以降のブラケット撮影における各撮影パラメータの適用順序の設定に利用される。ステップS10の処理を終えると、今回のブラケット撮影は終了し、次回のブラケット撮影の指示を受け付ける状態に移行する。   In subsequent step S10, the control unit 13 records the contents of the ordering instruction given in step S8 on the recording medium 16. This recorded content is used to set the application order of each shooting parameter in the next and subsequent bracket shooting. When the process of step S10 is completed, the current bracket shooting is completed, and the process proceeds to a state of accepting an instruction for the next bracket shooting.

[画像の表示]
次に、再生モードにおける特徴的な動作について説明する。再生モードには、複数の画像を一覧表示するサムネイル画像再生モードと、1枚の画像のみを表示する通常再生モードと、が含まれる。操作部17に対する操作に応じて各モード間の遷移は実施される。サムネイル画像再生モードにおける表示制御について説明する。
[Display image]
Next, a characteristic operation in the playback mode will be described. The playback mode includes a thumbnail image playback mode in which a plurality of images are displayed in a list and a normal playback mode in which only one image is displayed. Transition between the modes is performed in accordance with an operation on the operation unit 17. Display control in the thumbnail image playback mode will be described.

サムネイル画像再生モードでは、記録媒体16に記録されている複数の画像が表示部15に一覧表示される。一覧表示される各画像は、記録媒体16に記録されている各画像(即ち、各撮影画像)の縮小画像に相当する所謂サムネイル画像である。但し、或る着目画像に関し、該着目画像と該着目画像のサムネイル画像は、画像サイズが異なるだけで本質的には同じ画像である。このため、記述の簡略化上、本明細書では「着目画像の縮小画像(サムネイル画像)を表示する」場合でも、「着目画像を表示する」と表現する。   In the thumbnail image reproduction mode, a plurality of images recorded on the recording medium 16 are displayed as a list on the display unit 15. Each image displayed in a list is a so-called thumbnail image corresponding to a reduced image of each image (that is, each captured image) recorded on the recording medium 16. However, with respect to a certain target image, the target image and the thumbnail image of the target image are essentially the same image except for the image size. Therefore, for simplification of description, in this specification, even when “display a reduced image (thumbnail image) of a target image” is expressed as “display a target image”.

サムネイル画像再生モードでは、表示部15の表示画面における全表示領域が、例えば6つの分割表示領域に分割される。図10は、全表示領域が、6つの分割表示領域121〜126に分割されている様子を示している。   In the thumbnail image reproduction mode, the entire display area on the display screen of the display unit 15 is divided into, for example, six divided display areas. FIG. 10 shows a state in which the entire display area is divided into six divided display areas 121 to 126.

サムネイル画像再生モードにおいて一覧表示される画像の中に、ブラケット撮影に対応する画像が含まれる場合、制御部13は、複数のブラケット画像の中から1枚のブラケット画像を代表画像として選択して、該代表画像を該ブラケット撮影に対応する分割表示領域に表示させる。   When an image corresponding to bracket shooting is included in the images displayed as a list in the thumbnail image playback mode, the control unit 13 selects one bracket image as a representative image from a plurality of bracket images, The representative image is displayed in a divided display area corresponding to the bracket photographing.

例えば、記録媒体16に、5回の通常撮影に基づく5枚の画像と1回のブラケット撮影に基づく4枚のブラケット画像(第1〜第4のブラケット画像)が記録されている場合を考える。ここで、通常撮影とは、シャッタボタン17aに対する1回の押下に応じて1枚の撮影画像を記録媒体16に記録する撮影を指す。この場合、例えば、図11に示す如く、分割表示領域121、123〜126の夫々に通常撮影に対する撮影画像(より詳しくは、該撮影画像の縮小画像)を表示させ、分割表示領域122に上記代表画像(より詳しくは、該代表画像の縮小画像)を表示させる。これにより、一連のブラケット画像を保存しつつ、撮影済みの画像の確認容易化が図られる。   For example, consider a case where five images based on five normal shootings and four bracket images (first to fourth bracket images) based on one bracket shooting are recorded on the recording medium 16. Here, normal shooting refers to shooting in which one shot image is recorded on the recording medium 16 in response to a single press on the shutter button 17a. In this case, for example, as shown in FIG. 11, a captured image for normal shooting (more specifically, a reduced image of the captured image) is displayed in each of the divided display areas 121 and 123 to 126, and the representative display is displayed in the divided display area 122. An image (more specifically, a reduced image of the representative image) is displayed. As a result, it is possible to facilitate confirmation of a captured image while storing a series of bracket images.

代表画像は、例えば、上記の順序付け指示の内容に従って定められる。即ち例えば、図9のステップS8において、第2、第3、第1、第4のブラケット画像の順番で順序付けがなされた場合、第2のブラケット画像が代表画像とされる。   The representative image is determined, for example, according to the contents of the ordering instruction. That is, for example, when the second, third, first, and fourth bracket images are ordered in step S8 of FIG. 9, the second bracket image is set as the representative image.

また、一定時間間隔をおいて、第1〜第4のブラケット画像の中で、代表画像を自動的に変更するようにしてもよい。即ち例えば、図9のステップS8において、第2、第3、第1、第4のブラケット画像の順番で順序付けがなされた場合、最初は、第2のブラケット画像を代表画像として分割表示領域122に表示し、一定時間経過後、第3のブラケット画像を代表画像として分割表示領域122に更新表示する。以後、一定時間が経過する度に、分割表示領域122に更新表示されるべき代表画像を、第1のブラケット画像、第4のブラケット画像へと変更し、第4のブラケット画像の次は第2のブラケット画像に戻るようにする。   Further, the representative image may be automatically changed in the first to fourth bracket images at regular time intervals. That is, for example, when the second, third, first, and fourth bracket images are ordered in step S8 of FIG. 9, first, the second bracket image is used as a representative image in the divided display area 122. After the fixed time has elapsed, the third bracket image is updated and displayed in the divided display area 122 as a representative image. Thereafter, every time a certain time elapses, the representative image to be updated and displayed in the divided display area 122 is changed to the first bracket image and the fourth bracket image, and the second bracket image is followed by the second bracket image. Return to the bracket image.

また、時間に応じて自動的に代表画像を変更するのではなく、操作部17に対する、代表画像の切り換えを指示する操作(切り換え指示)に応じて、分割表示領域122に表示されるべき代表画像を順次切り換えてもよい。   Also, instead of automatically changing the representative image according to the time, the representative image to be displayed in the divided display area 122 in accordance with an operation (switching instruction) for instructing the operation unit 17 to switch the representative image. May be switched sequentially.

また、表示画面における全表示領域内に1枚の画像のみを再生表示する通常再生モードにおいても、サムネイル画像再生モードと同様に処理することが可能である。即ち例えば、図9のステップS8において、第2、第3、第1、第4のブラケット画像の順番で順序付けがなされた場合、通常再生モードにおいて、第2のブラケット画像を代表画像として表示する。その後、サムネイル画像再生モードと同様、時間経過に応じて或いは操作部17に対する操作に応じて、再生表示する画像を第3、第1、第4のブラケット画像の順番で変更していく。   In the normal playback mode in which only one image is played back and displayed in the entire display area on the display screen, the same processing as in the thumbnail image playback mode can be performed. That is, for example, if the second, third, first, and fourth bracket images are ordered in step S8 of FIG. 9, the second bracket image is displayed as a representative image in the normal playback mode. Thereafter, as in the thumbnail image playback mode, the images to be played back and displayed are changed in the order of the third, first, and fourth bracket images as time elapses or in response to an operation on the operation unit 17.

また、4枚のブラケット画像の内の何れを代表画像とするかを、予め定めておいてもよい(これは、サムネイル画像再生モードと通常再生モードにおいて共通する)。例えば、4枚のブラケット画像の内、最初に撮影されたブラケット画像を代表画像として定めるようにしてもよい。   Further, which of the four bracket images is used as the representative image may be determined in advance (this is common in the thumbnail image playback mode and the normal playback mode). For example, among the four bracket images, the first bracket image taken may be determined as the representative image.

<<第2実施例>>
撮影領域内に3つの顔が含まれている場合を想定して第1実施例を説明したが、撮影領域内に含まれる顔の個数が幾つであっても本発明は有効に機能する。例えば、撮影領域内に含まれる顔の個数が1である場合を、第2実施例として説明する。撮影領域内に含まれる顔が、図12に示す如く、顔F1であるとする。
<< Second Example >>
Although the first embodiment has been described on the assumption that three faces are included in the shooting area, the present invention functions effectively regardless of the number of faces included in the shooting area. For example, a case where the number of faces included in the shooting area is 1 will be described as a second embodiment. Assume that the face included in the imaging region is a face F1 as shown in FIG.

この場合、第1実施例と同様、顔検出部14は、その撮影画像の中から顔F1を検出して、顔F1を含む顔領域RF1を抽出する。そして、この撮影画像に対し、制御部13は、2つの撮影パラメータを生成する。この2つの撮影パラメータを、撮影パラメータPRA1、PRA2と呼ぶことにする。 In this case, as in the first embodiment, the face detection unit 14 detects the face F1 from the captured image, and extracts the face region R F1 including the face F1 . And the control part 13 produces | generates two imaging | photography parameters with respect to this picked-up image. These two shooting parameters are called shooting parameters PR A1 and PR A2 .

撮影パラメータPRA1は、顔F1の撮影に適した撮影パラメータ(顔優先パラメータ)とされる。撮影パラメータPRA1の作成に際して、図13(a)に示す如く、画像上に顔F1に着目した領域101が定義される。 The shooting parameter PR A1 is a shooting parameter (face priority parameter) suitable for shooting the face F1. When the shooting parameter PR A1 is created, as shown in FIG. 13A, an area 101 focusing on the face F1 is defined on the image.

制御部13は、領域101をフォーカス検出領域として取り扱って算出されたAF評価値に基づき、そのAF評価値が最大となるような、即ち、領域101に収まる被写体についての光学像が撮像素子33上で結像するような、フォーカスレンズ31の位置(これを、位置PA1という)を算出する。また、制御部13は、領域101を明るさ評価領域として取り扱って算出されたAE評価値に基づき、そのAE評価値が所定値となるような、即ち、領域101内の画像の明るさが所定の明るさとなるような、絞り32の開度(これを、開度OA1という)を算出する。位置PA1及び開度OA1は、撮影パラメータPRA1に含められる。 Based on the AF evaluation value calculated by treating the area 101 as the focus detection area, the control unit 13 generates an optical image on the image sensor 33 such that the AF evaluation value is maximized, that is, the subject that falls within the area 101. The position of the focus lens 31 (this is referred to as a position P A1 ) such that the image is formed at is calculated. Further, the control unit 13 sets the AE evaluation value to a predetermined value based on the AE evaluation value calculated by treating the area 101 as the brightness evaluation area, that is, the brightness of the image in the area 101 is predetermined. The opening of the diaphragm 32 (this is referred to as the opening O A1 ) is calculated so that The position P A1 and the opening degree O A1 are included in the imaging parameter PR A1 .

撮影パラメータPRA2は、第1実施例における第4の撮影パラメータと同様の処理にて算出される。撮影パラメータPRA2は、撮影領域全体を平均的に着目した撮影パラメータ(全体平均パラメータ)とされる。撮影パラメータPRA2の作成に際して、図13(b)に示す如く、領域104が定義される。 The shooting parameter PR A2 is calculated by the same process as the fourth shooting parameter in the first embodiment. The imaging parameter PR A2 is an imaging parameter (overall average parameter) that focuses on the entire imaging area on average. When the shooting parameter PR A2 is created, a region 104 is defined as shown in FIG.

制御部13は、領域104をフォーカス検出領域として取り扱って算出されたAF評価値に基づき、そのAF評価値が最大となるような、即ち、領域104に収まる被写体についての光学像が平均的に撮像素子33上で結像するような、フォーカスレンズ31の位置(これを、位置PA2という)を算出する。また、制御部13は、領域104を明るさ評価領域として取り扱って算出されたAE評価値に基づき、そのAE評価値が所定値となるような、即ち、領域104内の画像の明るさ(平均的明るさ)が所定の明るさとなるような、絞り32の開度(これを、開度OA2という)を算出する。位置PA2及び開度OA2は、撮影パラメータPRA2に含められる。 Based on the AF evaluation value calculated by treating the area 104 as the focus detection area, the control unit 13 takes an average optical image of the subject that maximizes the AF evaluation value, that is, the subject that falls within the area 104. The position of the focus lens 31 that forms an image on the element 33 (this is referred to as a position P A2 ) is calculated. Further, the control unit 13 determines that the AE evaluation value becomes a predetermined value based on the AE evaluation value calculated by treating the area 104 as the brightness evaluation area, that is, the brightness (average) of the image in the area 104. The aperture of the diaphragm 32 (this is referred to as the aperture O A2 ) is calculated such that the target brightness is a predetermined brightness. The position P A2 and the opening degree O A2 are included in the imaging parameter PR A2 .

ブラケット撮影の指示がなされた際は、撮影パラメータPRA1に従うブラケット画像と撮影パラメータPRA2に従うブラケット画像とが連続撮影される。 When an instruction for bracket shooting is given, a bracket image according to the shooting parameter PR A1 and a bracket image according to the shooting parameter PR A2 are continuously shot.

<<第3実施例>>
また例えば、撮影領域内に含まれる顔の個数が2である場合を、第3実施例として説明する。撮影領域内に含まれる顔が、図14に示す如く、顔F1と顔F2であるとする。
<< Third Example >>
Further, for example, a case where the number of faces included in the imaging region is 2 will be described as a third embodiment. Assume that the faces included in the imaging region are a face F1 and a face F2, as shown in FIG.

この場合、第1実施例と同様、顔検出部14は、その撮影画像の中から顔F1及びF2を検出して、顔F1を含む顔領域RF1と顔F2を含む顔領域RF2を抽出する。そして、この撮影画像に対し、制御部13は、4つの撮影パラメータを生成する。この4つの撮影パラメータを、撮影パラメータPRB1、PRB2、PRB3及びPRB4と呼ぶことにする。 In this case, as in the first embodiment, the face detection unit 14 detects the faces F1 and F2 from the captured image, and extracts the face area R F1 including the face F1 and the face area R F2 including the face F2 . To do. And the control part 13 produces | generates four imaging | photography parameters with respect to this picked-up image. These four shooting parameters are referred to as shooting parameters PR B1 , PR B2 , PR B3, and PR B4 .

図4にて示される、第1実施例で想定した撮影対象と、図14にて示される、第3実施例で想定した撮影対象との比較において、説明の簡略化上、前者における顔F3を単に削除したものが後者に相当し、それ以外の点において両者が一致するものとする。   In the comparison between the imaging target assumed in the first embodiment shown in FIG. 4 and the imaging target assumed in the third embodiment shown in FIG. 14, the face F3 in the former is shown for simplicity of explanation. It is assumed that what is simply deleted corresponds to the latter, and the other points coincide with each other.

そうすると、撮影パラメータPRB1の算出の際、図6(a)と同様、図15(a)に示す如く画像上に顔F2に着目した領域102が定義され、撮影パラメータPRB1は、第1実施例に係る第1の撮影パラメータと同様のものとなる。撮影パラメータPRB2の算出の際、図6(b)と同様、図15(b)に示す如く画像上に顔F1に着目した領域101が定義され、撮影パラメータPRB2は、第1実施例に係る第2の撮影パラメータと同様のものとなる。 Then, when calculating the shooting parameter PR B1 , as in FIG. 6A, a region 102 focused on the face F2 is defined on the image as shown in FIG. 15A, and the shooting parameter PR B1 is set in the first implementation. This is the same as the first imaging parameter according to the example. When calculating the shooting parameter PR B2 , as in FIG. 6B, a region 101 focused on the face F1 is defined on the image as shown in FIG. 15B, and the shooting parameter PR B2 is set in the first embodiment. This is the same as the second imaging parameter.

撮影パラメータPRB3の算出の際、図15(c)に示す如く領域101及び102が定義される。撮影パラメータPRB3は、第1実施例に係る第3の撮影パラメータと同様の手法にて算出されるが、第3の撮影パラメータと異なり領域103が定義されないため(図6(c)参照)、領域101及び102の合計領域が、撮影パラメータを算出するためのフォーカス検出領域と明るさ評価領域として取り扱われる。 When the shooting parameter PR B3 is calculated, areas 101 and 102 are defined as shown in FIG. The shooting parameter PR B3 is calculated by the same method as the third shooting parameter according to the first embodiment, but unlike the third shooting parameter, the region 103 is not defined (see FIG. 6C). The total area of the areas 101 and 102 is handled as a focus detection area and a brightness evaluation area for calculating the shooting parameters.

撮影パラメータPRB4の算出の際、図6(d)と同様、図15(d)に示す如く領域104が定義され、撮影パラメータPRB4は、第1実施例に係る第4の撮影パラメータと同様の手法にて算出される。 When calculating the shooting parameter PR B4, the area 104 is defined as shown in FIG. 15D as in FIG. 6D, and the shooting parameter PR B4 is the same as the fourth shooting parameter according to the first embodiment. It is calculated by the method.

ブラケット撮影の指示がなされた際は、撮影パラメータPRB1、PRB2、PRB3及びPRB4に従う各ブラケット画像(合計4枚のブラケット画像)が連続撮影される。 When the bracket shooting instruction is given, each bracket image (a total of four bracket images) according to the shooting parameters PR B1 , PR B2 , PR B3, and PR B4 is continuously shot.

図6と図15を参照した説明から理解されるように、撮影画像に含まれる顔が複数である場合は、
複数の顔の内、最も中央に位置する顔に着目した撮影パラメータ(PRB1等)と、
最も大きさが大きい顔に着目した撮影パラメータ(PRB2等)と、
複数の顔の全てに着目した撮影パラメータ(PRB3等)と、
背景をも含む所定領域全体に着目した撮影パラメータ(PRB4等)と、
が生成される。撮影画像に含まれる顔が4以上であっても上述と同様の手法によって複数の撮影パラメータが生成され、ブラケット撮影の実行指示に従って複数の撮影パラメータによる複数のブラケット画像が連続撮影される。
As understood from the description with reference to FIGS. 6 and 15, when there are a plurality of faces included in the captured image,
Shooting parameters (PR B1 etc.) focusing on the face located at the center of a plurality of faces,
Shooting parameters (PR B2 etc.) focusing on the largest face,
Shooting parameters (PR B3 etc.) focusing on all of the faces,
Shooting parameters (PR B4, etc.) focusing on the entire predetermined area including the background,
Is generated. Even if there are four or more faces included in the photographed image, a plurality of photographing parameters are generated by the same method as described above, and a plurality of bracket images with a plurality of photographing parameters are continuously photographed in accordance with a bracket photographing execution instruction.

<<変形等>>
上述の実施形態の変形例または注釈事項として、以下に、注釈1〜注釈5を記す。各注釈に記載した内容は、矛盾なき限り、任意に組み合わせることが可能である。
<< Deformation, etc. >>
As modifications or annotations of the above-described embodiment, notes 1 to 5 are described below. The contents described in each comment can be arbitrarily combined as long as there is no contradiction.

[注釈1]
上述の実施形態では、撮影画像の映像信号に基づいてフォーカスレンズ31の位置を制御するようにしているが、フォーカス検出領域内の被写体と撮像装置1との間の距離を測定する測距センサ(不図示)を撮像装置1に搭載し、該測距センサの測定結果に基づいてフォーカスレンズ31の位置を制御するようにしてもよい。
[Note 1]
In the above-described embodiment, the position of the focus lens 31 is controlled based on the video signal of the captured image. However, the distance measuring sensor (for measuring the distance between the subject in the focus detection area and the imaging device 1). (Not shown) may be mounted on the imaging apparatus 1 and the position of the focus lens 31 may be controlled based on the measurement result of the distance measuring sensor.

この場合、各撮影パラメータは、測距センサの測定結果を参照して算出される。例えば、第1実施例の図6(a)に対応する位置P1を算出する際は、測距センサの測定結果に基づいて、領域102に収まる被写体についての光学像が撮像素子33上で結像するようなフォーカスレンズ31の位置を算出し、この位置を位置P1とすればよい。 In this case, each imaging parameter is calculated with reference to the measurement result of the distance measuring sensor. For example, when the position P 1 corresponding to FIG. 6A of the first embodiment is calculated, an optical image of the subject that falls within the region 102 is formed on the image sensor 33 based on the measurement result of the distance measuring sensor. The position of the focus lens 31 to be imaged is calculated, and this position may be set as the position P 1 .

[注釈2]
上述の実施形態では、撮影画像の中から顔を検出し、その顔についての情報に基づいて各撮影パラメータを算出するようにしているが、撮影画像の中から検出される物体は顔以外であってもよい。例えば、検出される物体は、顔を含む、人物の上半身や人物の全身であってもよい。
[Note 2]
In the above-described embodiment, a face is detected from a captured image and each shooting parameter is calculated based on information about the face. However, an object detected from the captured image is other than a face. May be. For example, the detected object may be the upper body of a person including the face or the whole body of the person.

撮影画像の中から人物の上半身や人物の全身を検出する手法として様々な手法が知られており、本発明は、何れの手法をも採用可能である。人物の上半身や人物の全身を、顔検出を利用し、顔を基準として検出するようにしてもよいし、撮影画像中の物体の輪郭(人物のシルエット)から検出するようにしてもよい。   Various methods are known as a method for detecting the upper body of a person or the whole body of a person from a photographed image, and any method can be employed in the present invention. The upper body of the person and the whole body of the person may be detected using the face detection and based on the face, or may be detected from the contour of the object (person's silhouette) in the captured image.

[注釈3]
また、上述した説明文中に示した具体的な数値は、単なる例示であって、当然の如く、それらを様々な数値に変更することができる。
[Note 3]
In addition, the specific numerical values shown in the above description are merely examples, and can naturally be changed to various numerical values.

[注釈4]
また、図1の撮像装置1は、ハードウェア、或いは、ハードウェアとソフトウェアの組み合わせによって実現可能である。特に、上記ブラケット撮影を行うために必要な演算処理は、ソフトウェア、またはハードウェアとソフトウェアの組み合わせによって実現可能である。
[Note 4]
In addition, the imaging apparatus 1 in FIG. 1 can be realized by hardware or a combination of hardware and software. In particular, the arithmetic processing necessary for performing the bracket photographing can be realized by software or a combination of hardware and software.

ソフトウェアを用いて撮像装置1を構成する場合、ソフトウェアにて実現される部位についてのブロック図は、その部位の機能ブロック図を表すことになる。また、上記ブラケット撮影を行うために必要な演算処理の全部または一部を、プログラムとして記述し、該プログラムをプログラム実行装置(例えばコンピュータ)上で実行することによって、その演算処理の全部または一部を実現するようにしてもよい。   When the imaging apparatus 1 is configured using software, a block diagram of a part realized by software represents a functional block diagram of the part. In addition, all or part of the arithmetic processing necessary for performing the bracket shooting is described as a program, and the program is executed on a program execution device (for example, a computer), whereby all or part of the arithmetic processing is performed. May be realized.

[注釈5]
図1の顔検出部14は、撮影画像の中から所定種類の物体を検出する物体検出手段として機能する。顔検出部14は、所定種類の物体として人物の顔を検出する。上述したように、物体検出手段によって検出される所定種類の物体は、顔以外であってもよく、人物の上半身や人物の全身であってもよい。
[Note 5]
The face detection unit 14 in FIG. 1 functions as an object detection unit that detects a predetermined type of object from a captured image. The face detection unit 14 detects a human face as a predetermined type of object. As described above, the predetermined type of object detected by the object detection unit may be other than the face, or the upper body of the person or the whole body of the person.

上述の実施形態において、各撮影パラメータを生成するパラメータ生成手段、及び、各ブラケット画像に付されるファイル名を変更するファイル名変更手段は、図1の制御部13によって実現される。上述の実施形態において、上述の順序付け指示を受け付ける指示受付手段は、図1の操作部17によって実現される。   In the above-described embodiment, the parameter generating means for generating each shooting parameter and the file name changing means for changing the file name assigned to each bracket image are realized by the control unit 13 in FIG. In the embodiment described above, the instruction receiving means for receiving the ordering instruction described above is realized by the operation unit 17 in FIG.

また、上述の実施形態において、制御部13と表示部15とから成る部位は、画像再生装置としても機能する。この画像再生装置に、記録媒体16及び/又は操作部17が含まれていると考えることもできる。   In the above-described embodiment, the part composed of the control unit 13 and the display unit 15 also functions as an image reproduction device. It can be considered that the image reproducing apparatus includes the recording medium 16 and / or the operation unit 17.

また、撮像装置1の構成要素によって形成される上記画像再生装置の機能を、同等の機能を備えた他の機器(例えばコンピュータ)にて実現することも可能である。この場合、この他の機器が、画像再生装置として機能する。   In addition, the function of the image reproducing device formed by the components of the imaging device 1 can be realized by another device (for example, a computer) having an equivalent function. In this case, the other device functions as an image reproducing device.

本発明の実施の形態に係る撮像装置の全体ブロック図である。1 is an overall block diagram of an imaging apparatus according to an embodiment of the present invention. 図1の撮像部の内部構成図である。It is an internal block diagram of the imaging part of FIG. 図1の制御部に設けられるAF評価値検出部の内部ブロック図である。FIG. 2 is an internal block diagram of an AF evaluation value detection unit provided in the control unit of FIG. 1. 本発明の第1実施例に係り、3つの顔を被写体として含んだ撮影画像を表す図である。FIG. 6 is a diagram illustrating a captured image including three faces as subjects according to the first embodiment of the present invention. 図4の撮影画像に含まれる各顔領域の中心位置を示す図である。It is a figure which shows the center position of each face area | region contained in the picked-up image of FIG. 図4の撮影画像に対する、4つの撮影パラメータの算出手法を説明するための図である。FIG. 5 is a diagram for explaining a method of calculating four shooting parameters for the shot image of FIG. 4. 図4の撮影画像に対応して撮影された4枚のブラケット画像の表示状態を示す図である。It is a figure which shows the display state of four bracket images image | photographed corresponding to the captured image of FIG. 図7に示す4枚のブラケット画像の表示位置が、図1の操作部17に対する操作によって変更される様子を示す図である。It is a figure which shows a mode that the display position of four bracket images shown in FIG. 7 is changed by operation with respect to the operation part 17 of FIG. 図1の撮像装置にて実現されるブラケット撮影の動作手順を表すフローチャートである。It is a flowchart showing the operation | movement procedure of bracket imaging | photography implement | achieved with the imaging device of FIG. 図1の表示部に複数のサムネイル画像を表示させる場合における、全表示領域の分割の様子を示す図である。It is a figure which shows the mode of a division | segmentation of all the display areas in the case of displaying a some thumbnail image on the display part of FIG. 図1の表示部に複数のサムネイル画像を表示させた表示画面の様子を示す図である。It is a figure which shows the mode of the display screen which displayed the some thumbnail image on the display part of FIG. 本発明の第2実施例に係り、1つの顔を被写体として含んだ撮影画像を表す図である。It is a figure concerning the 2nd Example of the present invention and represents the picked-up image containing one face as a to-be-photographed object. 図12の撮影画像に対する、2つの撮影パラメータの算出手法を説明するための図である。It is a figure for demonstrating the calculation method of two imaging | photography parameters with respect to the imaging | photography image of FIG. 本発明の第3実施例に係り、2つの顔を被写体として含んだ撮影画像を表す図である。It is a figure concerning the 3rd Example of the present invention and represents the picked-up image containing two faces as a photographic subject. 図14の撮影画像に対する、4つの撮影パラメータの算出手法を説明するための図である。It is a figure for demonstrating the calculation method of four imaging | photography parameters with respect to the imaging | photography image of FIG.

符号の説明Explanation of symbols

1 撮像装置
11 撮像部
12 AFE
13 制御部
14 顔検出部
15 表示部
16 記録媒体
17 操作部
17a シャッタボタン
21 AF評価値検出部
22 AE評価値検出部
30 ズームレンズ
31 フォーカスレンズ
32 絞り
33 撮像素子
DESCRIPTION OF SYMBOLS 1 Imaging device 11 Imaging part 12 AFE
DESCRIPTION OF SYMBOLS 13 Control part 14 Face detection part 15 Display part 16 Recording medium 17 Operation part 17a Shutter button 21 AF evaluation value detection part 22 AE evaluation value detection part 30 Zoom lens 31 Focus lens 32 Diaphragm 33 Image sensor

Claims (9)

撮像手段の撮影によって得られた撮影画像の中から所定種類の物体を検出する物体検出手段と、
前記撮影画像上における前記物体についての情報に基づいて、撮影条件を表す撮影パラメータを複数生成するパラメータ生成手段と、を備え、
特殊撮影を行うための所定の撮影指示がなされた際、事前に生成された各撮影パラメータを適用して順次撮影を行うことにより、前記複数の撮影パラメータによる複数の撮影画像を複数のブラケット画像として得る、撮像装置であって
前記複数のブラケット画像を順序付けるための順序付け指示を受け付ける指示受付手段を、更に備え、
次回以降の前記特殊撮影に対する複数の撮影パラメータの適用順序は、前記順序付け指示を考慮して設定される
ことを特徴とする撮像装置。
An object detection means for detecting a predetermined type of object from a photographed image obtained by photographing by the imaging means;
Parameter generating means for generating a plurality of shooting parameters representing shooting conditions based on information about the object on the shot image;
When a predetermined shooting instruction for performing special shooting is given, a plurality of shooting images based on the plurality of shooting parameters are converted into a plurality of bracket images by sequentially performing shooting by applying each shooting parameter generated in advance. An imaging device ,
An instruction receiving means for receiving an ordering instruction for ordering the plurality of bracket images;
The application order of the plurality of shooting parameters for the special shooting after the next time is set in consideration of the ordering instruction.
An imaging apparatus characterized by that.
前記情報は、前記撮影画像上における前記物体の位置を特定する
ことを特徴とする請求項1に記載の撮像装置。
The imaging apparatus according to claim 1, wherein the information specifies a position of the object on the captured image.
前記情報は、前記撮影画像上における、前記物体の大きさ及び個数の少なくとも一方を特定する
ことを特徴とする請求項2に記載の撮像装置。
The imaging apparatus according to claim 2, wherein the information specifies at least one of a size and a number of the objects on the captured image.
各ブラケット画像を、ファイル名を付けて記憶する記憶手段と、
前記順序付け指示による前記複数のブラケット画像間の順序に基づいて、各ブラケット画像に対応付けられた前記ファイル名を変更するファイル名変更手段と、を更に備えた
ことを特徴とする請求項1〜請求項3の何れかに記載の撮像装置。
Storage means for storing each bracket image with a file name;
The file name changing means for changing the file name associated with each bracket image based on the order between the plurality of bracket images in accordance with the ordering instruction. Item 4. The imaging device according to any one of Items 3 to 3.
各撮影パラメータは、前記物体を含む被写体についての光学像を前記撮像手段の撮像素子上で結像させるためのフォーカスレンズの位置を特定し、
前記複数の撮影パラメータの適用順序は、その複数のブラケット画像を撮影する間における前記フォーカスレンズの位置の変化方向の同一性を考慮して設定される
ことを特徴とする請求項1〜請求項4の何れかに記載の撮像装置。
Each shooting parameter specifies a position of a focus lens for forming an optical image of a subject including the object on an imaging element of the imaging unit,
The application order of the plurality of shooting parameters is set in consideration of the same change direction of the focus lens position during shooting of the plurality of bracket images.
The imaging apparatus according to any one of claims 1 to 4 , wherein the imaging apparatus is characterized in that
各撮影パラメータは、前記撮像手段の撮像素子への入射光量を制御する絞りの開度を特定し、
前記複数の撮影パラメータの適用順序は、その複数のブラケット画像を撮影する間における前記開度の変化方向の同一性を考慮して設定される
ことを特徴とする請求項1〜請求項5の何れかに記載の撮像装置。
Each shooting parameter specifies the aperture of the diaphragm that controls the amount of light incident on the imaging device of the imaging means,
The application order of the plurality of shooting parameters is set in consideration of the same change direction of the opening during the shooting of the plurality of bracket images.
The imaging device according to any one of claims 1 to 5 , wherein
前記物体は、人物の顔を含む
ことを特徴とする請求項1〜請求項6の何れかに記載の撮像装置。
The object includes a human face
The imaging apparatus according to any one of claims 1 to 6 , wherein
請求項1〜請求項7の何れかに記載の撮像装置にて得られた撮影画像を表示可能な表示手段と、Display means capable of displaying a captured image obtained by the imaging device according to any one of claims 1 to 7;
前記表示手段の表示内容を制御する表示制御手段と、を備え、Display control means for controlling the display content of the display means,
前記表示制御手段は、前記撮像装置による前記特殊撮影に対応する画像を前記表示手段に表示させる際、前記複数のブラケット画像の中から択一的に代表画像を選び、前記特殊撮影に対応する表示領域に該代表画像を表示させるThe display control unit selectively displays a representative image from the plurality of bracket images when displaying an image corresponding to the special shooting by the imaging device on the display unit, and displays corresponding to the special shooting. Display the representative image in the area
ことを特徴とする画像再生装置。An image reproducing apparatus characterized by that.
前記表示領域に表示される前記代表画像は、前記複数のブラケット画像の中で、時間に応じて自動的に或いは外部からの切り換え指示に応じて切り換わる
ことを特徴とする請求項8に記載の画像再生装置。
The representative image displayed in the display area is switched automatically among the plurality of bracket images according to time or according to a switching instruction from the outside.
The image reproducing apparatus according to claim 8, wherein:
JP2006292163A 2006-10-27 2006-10-27 Imaging apparatus and image reproduction apparatus Expired - Fee Related JP4799366B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2006292163A JP4799366B2 (en) 2006-10-27 2006-10-27 Imaging apparatus and image reproduction apparatus

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2006292163A JP4799366B2 (en) 2006-10-27 2006-10-27 Imaging apparatus and image reproduction apparatus

Publications (2)

Publication Number Publication Date
JP2008109551A JP2008109551A (en) 2008-05-08
JP4799366B2 true JP4799366B2 (en) 2011-10-26

Family

ID=39442516

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2006292163A Expired - Fee Related JP4799366B2 (en) 2006-10-27 2006-10-27 Imaging apparatus and image reproduction apparatus

Country Status (1)

Country Link
JP (1) JP4799366B2 (en)

Families Citing this family (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP5191864B2 (en) * 2008-11-05 2013-05-08 富士フイルム株式会社 Three-dimensional display device, method and program
JP5329311B2 (en) * 2009-06-15 2013-10-30 オリンパスイメージング株式会社 Imaging apparatus, imaging method, playback apparatus, and playback method
US8743269B2 (en) 2009-06-15 2014-06-03 Olympus Imaging Corp. Photographing device, photographing method, and playback method
KR101838033B1 (en) * 2011-11-25 2018-03-15 삼성전자 주식회사 Method and apparatus for providing image photography of a user device
JP5968102B2 (en) 2012-06-15 2016-08-10 キヤノン株式会社 Image recording apparatus and image reproducing apparatus
JP5603978B2 (en) * 2013-07-23 2014-10-08 オリンパスイメージング株式会社 Imaging apparatus and imaging method
US9313397B2 (en) * 2014-05-30 2016-04-12 Apple Inc. Realtime capture exposure adjust gestures
JP6298494B2 (en) * 2016-07-07 2018-03-20 キヤノン株式会社 Image reproducing apparatus and control method thereof
JP7469329B2 (en) * 2019-11-25 2024-04-16 富士フイルム株式会社 How to create the video

Family Cites Families (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH06194714A (en) * 1992-06-02 1994-07-15 Nikon Corp Automatic bracketing device for camera
JP4160205B2 (en) * 1999-06-18 2008-10-01 オリンパス株式会社 Electronic still camera
JP2001061128A (en) * 1999-08-19 2001-03-06 Sony Corp Image pickup unit
JP4706159B2 (en) * 2001-09-20 2011-06-22 株式会社ニコン Image reproducing apparatus and image reproducing method
JP4553346B2 (en) * 2003-10-22 2010-09-29 キヤノン株式会社 Focus adjustment device and focus adjustment method

Also Published As

Publication number Publication date
JP2008109551A (en) 2008-05-08

Similar Documents

Publication Publication Date Title
JP4799366B2 (en) Imaging apparatus and image reproduction apparatus
JP4760742B2 (en) Digital camera, information display method, and information display control program
US8284264B2 (en) Imaging apparatus, method, and program
JP4787180B2 (en) Imaging apparatus and imaging method
US7668451B2 (en) System for and method of taking image
JP5380784B2 (en) Autofocus device, imaging device, and autofocus method
JP2013013050A (en) Imaging apparatus and display method using imaging apparatus
JP5635211B2 (en) Imaging device
JP5228354B2 (en) Digital camera
JP2011217103A (en) Compound eye photographing method and apparatus
JP2013008004A (en) Imaging apparatus
JP2010118882A (en) Imaging device
JP2006067452A (en) Video recording apparatus, and electronic camera
JP2009118083A (en) Digital camera
JP4767904B2 (en) Imaging apparatus and imaging method
JP2007225897A (en) Focusing position determination device and method
JP4173459B2 (en) Digital camera
JP2008263478A (en) Imaging apparatus
JP5217942B2 (en) Focus adjustment device and imaging device
JP4871664B2 (en) IMAGING DEVICE AND IMAGING DEVICE CONTROL METHOD
JP2003241066A (en) Camera
JP5415208B2 (en) Imaging device
JP5069076B2 (en) Imaging apparatus and continuous imaging method
JP2008028956A (en) Imaging apparatus and method for generating image signal for detecting target therein
JP4948091B2 (en) Optical equipment

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20091009

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20110310

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20110405

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20110606

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20110705

A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20110802

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20140812

Year of fee payment: 3

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20140812

Year of fee payment: 3

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20140812

Year of fee payment: 3

S111 Request for change of ownership or part of ownership

Free format text: JAPANESE INTERMEDIATE CODE: R313113

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20140812

Year of fee payment: 3

R350 Written notification of registration of transfer

Free format text: JAPANESE INTERMEDIATE CODE: R350

LAPS Cancellation because of no payment of annual fees